Генеральный директор Advanced Micro Devices Лиза Су утверждает, что возможность запускать всю модель с 40 миллиардами параметров в памяти фактически уменьшает количество необходимых графических процессоров.

Графический процессор Instinct MI300X от AMD имеет несколько «чиплетов» GPU, 192 гигабайта памяти HBM3 DRAM и пропускную способность памяти 5,2 терабайта в секунду. Компания заявила, что это единственный чип, который может обрабатывать в памяти большие языковые модели, содержащие до 80 миллиардов параметров
Графический процессор Instinct MI300X от AMD имеет несколько «чиплетов» GPU, 192 гигабайта памяти HBM3 DRAM и пропускную способность памяти 5,2 терабайта в секунду. Компания заявила, что это единственный чип, который может обрабатывать в памяти большие языковые модели, содержащие до 80 миллиардов параметров

13 июня в Сан-Франциско Лиза Су представила чип, который уже стал центральным элементом стратегии компании в области вычислений для искусственного интеллекта. Его главное преимущество — это огромная память и пропускная способность данных для генеративных задач ИИ, таких как большие языковые модели.

Чип Instinct MI300X стал продолжением ранее анонсированного MI300A. В действительности он представляет собой комбинацию нескольких «чиплетов» — отдельных чипов, объединенных в единый пакет с помощью общей памяти и сетевых соединений.

Су, выступая перед приглашенной аудиторией в отеле Fairmont, назвала эту модель «генеративным ускорителем ИИ» и сказала, что содержащиеся в ней чипсеты GPU, семейство которых известно как CDNA 3, разработаны специально для ИИ и HPC рабочих нагрузок.

MI300X — это версия детали «только для GPU», она представляет собой комбинацию трех чиплетов CPU Zen4 с несколькими чипсетами GPU. Но в MI300X процессоры заменены на две дополнительные микросхемы CDNA 3.

В MI300X количество транзисторов увеличено со 146 миллиардов до 153 миллиардов, а общая память DRAM увеличена со 128 гигабайт в MI300A до 192 гигабайт. Пропускная способность памяти увеличена с 800 гигабайт в секунду до 5,2 терабайт.

Specification

AMD Instinct MI300X

AMD Instinct MI300A

AMD Instinct MI250X

GPU Architecture

CDNA 3

CDNA 3

CDNA 2

Dedicated Memory Size

192 GB

128 GB

128 GB

Dedicated Memory Type

HBM3

HBM2e

HBM2e

Peak Memory Bandwidth

5.2TB/s

800GB/s

Up to 3276.8 GB/s

«Использование чиплетов в этом продукте является стратегическим, — сказала Су, — поскольку мы можем смешивать и сочетать различные виды вычислений, меняя местами CPU или GPU».

Су сказала, что MI300X будет обеспечивать в 2,4 раза большую плотность памяти, чем GPU H100 «Hopper» от Nvidia, и в 1,6 раза большую пропускную способность памяти. 

Источник: AMD
Источник: AMD

«Генеративный ИИ, большие языковые модели изменили ландшафт, — говорит Су. — Потребность в больших вычислениях растет экспоненциально, говорите ли вы об обучении или о выводах».

Чтобы продемонстрировать потребность в мощных вычислениях, Су показала часть, работающую над самой популярной большой языковой моделью на данный момент — Falcon-40B с открытым исходным кодом. Языковые модели требуют все больше вычислений, поскольку они строятся с большим количеством «параметров» нейронной сети. Модель Falcon-40B состоит из 40 миллиардов параметров.

По ее словам, MI300X — это первый чип, который достаточно мощный, чтобы запустить нейронную сеть такого размера полностью в памяти, а не перемещать данные во внешнюю память и обратно. Су продемонстрировала, как MI300X создает поэму о Сан-Франциско с помощью Falcon-40B. Предполагается, что один MI300X может запускать в памяти модели примерно до 80 миллиардов параметров. 

Источник: AMD
Источник: AMD
Источник: AMD
Источник: AMD

Благодаря большему объему памяти, большей пропускной способности памяти и меньшему количеству необходимых GPU можно будет выполнять больше заданий по выводу на GPU, чем раньше. По словам Су, это снизит общую стоимость владения большими языковыми моделями и сделает технологию более доступной.

Чтобы конкурировать с системами DGX от Nvidia, компания представила семейство компьютеров ИИ «Платформа AMD Instinct». Первый экземпляр будет объединять восемь MI300X с 1,5 терабайтами памяти HMB3. Сервер соответствует отраслевому стандарту Open Compute Platform spec.

«Клиенты смогут использовать все эти вычислительные возможности ИИ в памяти на стандартной платформе, которая встраивается в существующую инфраструктуру», — сказала Су.

Источник: AMD
Источник: AMD

В отличие от MI300X, который является только GPU, существующий MI300A будет противостоять комбо-чипу Grace Hopper от Nvidia, который использует процессор Nvidia Grace CPU и GPU Hopper, о полном производстве которого компания объявила в прошлом месяце.

«MI300A встраивается в суперкомпьютер El Capitan, который строят в Национальной лаборатории имени Лоуренса Ливермора Министерства энергетики», — отметила Су.

В настоящее время MI300A демонстрируется в качестве образца. В третьем квартале 2023 года MI300X начнут поставлять клиентам, а серийное производство обеих моделей начнется в четвертом квартале.

Комментарии (16)


  1. gsaw
    15.06.2023 13:34

    40 миллиардами параметров в памяти

    Это же наверное больше чем у человеков нейронов в голове. Почему они еще не захватили мир?


    1. avshkol
      15.06.2023 13:34

      У головного мозга человека примерно в 2 раза больше нейронов (86 млрд), это не считая сложной сети нервных клеток по всему телу, в т.ч. костный мозг и желудок. А также более квадриллиона синапсов - связей между нейронами.

      Поэтому "для захвата мира" нужно объединиться хотя бы 3 таким чипам, чтобы превзойти отдельного человека. А чтобы превзойти человечество потребуется... хм... грузовик таких чипов???


      1. megamrmax
        15.06.2023 13:34

        так грузовик то не проблема. Проблема в том, что не понятно, что делать с превзойденным человечеством. Есть идеи?


      1. Str5Uts
        15.06.2023 13:34
        +3

        Поэтому «для захвата мира» нужно объединиться хотя бы 3 таким чипам, чтобы превзойти отдельного человека.
        Большая часть из нейронов человека решает вегатативные функции. Чипу это не нужно, так что вполне возможно что можно сильно урезать цифры.

        Судя по чему то такому, то вполне возможно что и на порядок.

        А если учесть различия в тактовой частоте, то тут уже интересные возможности появляются.


        1. Old_mammoth
          15.06.2023 13:34
          +3

          Число параметров модели нужно сравнивать не с числом нейронов, а с числом синапсов. Так что до захвата мира еще весьма далеко


          1. Str5Uts
            15.06.2023 13:34
            +3

            Ну судя по предсказаниям то в ближайшие 5-10 лет.

            Ну и есть примеры из животного мира (вороны например), с существенно меньшим количеством нейронов/синапсов, которые показывают вполне приемлемый уровень интелекта. Так что вполне возможно, что придумают гораздо более эффективную архитектуру.


        1. Maccimo
          15.06.2023 13:34

          Судя по чему то такому, то вполне возможно что и на порядок.

          Возможно, разгадка в том, что:


          “He was a married father of two children, and worked as a civil servant,”

          A civil servant, also known as a public servant, is a person employed in the public sector by a government department or agency for public sector undertakings.

          (Wikipedia)

          Про замену бюрократов на андроидов кто только не писал.


    1. CBET_TbMbI
      15.06.2023 13:34
      +6

      У тебя примерно столько же миллиардов. Ты насколько близок к захвату мира?)


      1. simenoff
        15.06.2023 13:34
        +1

        Если смогу как и чип никогда не уставать и не отдыхать, клонировать себя со всеми знаниями и опытом - быстро стану очень близок)


    1. VDG
      15.06.2023 13:34
      +3

      Это же наверное больше чем у человеков нейронов в голове.

      Параметр в ИНС не "аналог" нейрона, а синапса. В мозге около 100 млрд нейронов (не считая ещё большей глии, которая скорее всего тоже несёт вычислительную функцию), один нейрон в среднем имеет 10 тыс синапсов. Поэтому эти 40 млрд параметров равны 0.00004 ёмкости мозга.


      1. simenoff
        15.06.2023 13:34
        +2

        Да и мозг - это не просто большая нейросеть, так что ещё меньше


      1. riv9231
        15.06.2023 13:34
        +1

        Беседуя с альпакой и другими обученными энтузиастами нейросетями, я подумал, что едва ли эти модели работают как мозг. Они безмерно проще мозга, настолько безмерно, что не верится в то что модель может выдавать такие качественные результаты.

        Возможно дело не в сложности модели, а в сложности языка, которому обучают модель. Приведу аналогию: накопитель на жеских магнитных дисках очень прост - это, по сути, просто магнитная поверхность, но на неё можно записать чертёж ядерного реактора и информацию необходимую для его изготовления. Так же и язык, будучи помещенным в лингвистическую модель, возможно, делает её немного "разумной".


    1. riv9231
      15.06.2023 13:34
      +1

      "параметры" модели боле похожи на синапсы, а синапсов у одного нейрона в человеческом мозге, в среднем около 10 000 шт. Так что ещё есть куда расти большим лингвистическим моделям...

      Но и это не всё. Я встречал утверждения, что биологический нейрон значительно сложнее его математической модели, в частности, у нейронов, возможно имеется локальная память и это как-то используется во время обучения.


  1. N-Cube
    15.06.2023 13:34
    +1

    “ 192 гигабайта памяти” - у Apple Studio столько же, интересно, какие модели на нем смогут запустить «домашние» пользователи, пока этот анонсированный чип заработает в составе будущих суперкомпьютеров.


    1. Rastler
      15.06.2023 13:34
      -1

      Любую которая поместиться, вопрос в вычислительных возможностях. И это, я говорю об уже обученной сетке.
      Запускайте на здоровье, похожих проектов много.
      https://github.com/markasoftware/llama-cpu


      1. N-Cube
        15.06.2023 13:34

        Вы ерунду прислали - даже по ссылке видно, что проект использует только CPU, а вовсе не мощный Apple Silicon GPU.