Отсканируйте, чтобы загрузить приложение Gate
qrCode
Больше вариантов загрузки
Не напоминай мне больше сегодня.

Технические различия между GPU NVIDIA и собственными AI чипами Google и Amazon AWS, а также будущее направление рынка.

В эпоху, когда генеративный ИИ захватывает мир, движущей силой этой волны инноваций являются высокоскоростные искусственные интеллектуальные чипы. За последние десять лет NVIDIA посеяла семена AI промышленной революции с помощью своих графических процессоров (GPU), и теперь Blackwell GPU, созданные специально для самых современных AI тренировок и выводов, стали стандартным оборудованием для мировых центров обработки данных, а объем поставок в прошлом году достиг 6 миллионов единиц. В крупных серверах 72 GPU могут объединяться в вычислительные единицы, как единый гигантский GPU, благодаря технологии NVLink. В настоящее время рынок AI чипов больше не является площадкой, полностью занятой GPU от NVIDIA; кастомизированные ASIC и FPGA начинают использоваться крупными технологическими компаниями. В чем же разница между этими AI чипами? Как это повлияет на развитие AI в будущем и может ли это поколебать доминирование NVIDIA? Этот текст является переработкой ключевых моментов из видео CNBC.

GPU:Начало золотой эры ИИ

GPU из игровых карт превратился в AI-ядро, что восходит к AlexNet 2012 года. Исследовательская группа впервые применила параллельные вычислительные возможности GPU от NVIDIA для обучения нейронных сетей, что позволило значительно опередить других соперников на соревнованиях по распознаванию изображений и открыло эру глубокого обучения.

Основное преимущество GPU заключается в тысячах параллельных вычислительных ядер, которые эффективно выполняют тензорные операции, такие как умножение матриц, что идеально подходит для обучения и вывода AI. Сегодня NVIDIA поставляет GPU не только OpenAI, правительствам и компаниям, но и напрямую разрабатывает целые серверные системы. Стоимость одного сервера Blackwell в одном стойке достигает 3 миллионов долларов, и NVIDIA даже сообщила, что еженедельно поставляет 1000 единиц, что свидетельствует о неистовом спросе на вычислительную мощность AI. Конкурент NVIDIA, AMD, полагается на GPU Instinct и экосистему открытого программного обеспечения для ускорения прогресса, и в последнее время получил поддержку от OpenAI и Oracle, став важным двигателем рынка инфраструктуры AI. Отличие GPU AMD заключается в основном в использовании открытого программного обеспечения, в то время как GPU Nvidia оптимизированы в тесной связи с CUDA, что является проприетарной программной платформой Nvidia.

Специально разработанные ASIC для единственного использования становятся новой тенденцией

От Google, Amazon, Meta, Microsoft до OpenAI и Broadcom, ведущие облачные гиганты активно занимаются разработкой кастомизированных ASIC (специальных интегральных схем). Эти чипы, спроектированные для одной цели, ожидается, что в ближайшие несколько лет станут самым быстрорастущим классом AI-чипов.

С развитием крупных языковых моделей потребность в выводе данных быстро превышает потребность в обучении. Стоимость, энергопотребление и стабильность вывода становятся больными местами облачных платформ, и именно здесь находится основная арена ASIC. В отличие от универсальных GPU, ASIC подобны «специализированному сверхточному инструменту», оптимизированному для жесткой кодировки одной категории AI рабочих нагрузок, что делает их быстрее и менее энергоемкими. Недостатком является низкая гибкость и крайне высокая планка разработки; стоимость проектирования одной индивидуальной микросхемы составляет десятки миллионов долларов, поэтому только облачные гиганты могут себе это позволить.

Стоимость специализированных ASIC для ИИ значительно выше. Они крайне дороги, и требуют как минимум несколько тысяч, а порой и сотни миллионов долларов. Однако для крупных поставщиков облачных услуг, которые не могут позволить себе специализированные ASIC, специализированные AS6 могут принести отдачу, поскольку они более эффективны и снижают зависимость от NVIDIA.

ASIC от Broadcom решительно бросает вызов доле рынка AI

Broadcom и такие компании, как Marvell, являются стратегическими партнерами супер крупных облачных компаний. Google TPU, собственные ускорители Meta и ASIC, которые вскоре выпустит OpenAI, все они глубоко вовлечены в работу Broadcom. Broadcom помогает построить TPU Google и обучение AI Meta, аналитики предполагают, что доля рынка Broadcom на рынке кастомизированных ASIC может достигать 70 % до 80 %.

FPGA: гибкий выбор между ASIC и GPU

FPGA используется для поддержки edge AI на стороне устройства, а не в облаке. Главное преимущество FPGA заключается в его “перенастраиваемости”. Когда компании необходимо протестировать архитектуру, прежде чем аппаратное обеспечение будет окончательно определено, FPGA предоставляет возможность между универсальностью GPU и высокой производительностью ASIC. Хотя производительность уступает ASIC, гибкость делает его по-прежнему популярным среди центров обработки данных и встроенных устройств. AMD (приобретение Xilinx) и Intel (приобретение Altera) являются двумя основными игроками на рынке FPGA.

Гугл ТПУ

Google является первым крупным игроком на рынке ASIC, который первым разработал специализированные интегральные схемы (ASIC) для ускорения искусственного интеллекта и ввел термин Tensor Processing Unit (TPU) с выходом своего первого ASIC в 2015 году. TPU также способствовал изобретению Google архитектуры Transformer в 2017 году, став общей основой для таких ИИ, как ChatGPT и Claude. В настоящее время Google развил 7-е поколение TPU Ironwood и помог Anthropologie обучить модели серии Claude с использованием миллионов TPU. Слухи говорят о том, что TPU в некоторых случаях даже превосходит GPU от NVIDIA, но Google традиционно использует их только для собственных нужд, поэтому истинный потенциал TPU все еще не полностью раскрыт.

AWS Tranium: облачная матрица вывода

После приобретения Annapurna Labs, AWS полностью сосредоточилась на собственных AI-чипах. Tranium и Inferentia стали важными опорами платформы обучения и вывода AWS. Tranium состоит из большого количества небольших тензорных движков, обладая высокой гибкостью; по данным AWS, его соотношение цена/качество на 30% - 40% выше, чем у другого оборудования в облаке. В 2024 году Anthropic будет обучать модели на 500 000 Tranium 2 в центре данных AWS в Северном Индиане, при этом совершенно без GPU от NVIDIA, что свидетельствует о росте статуса ASIC.

NPU (нейронный процессор): краевые AI чипы для мобильных телефонов, компьютеров и автомобильных устройств

Помимо центров обработки данных, ИИ чипы также распространяются на персональные устройства. NPU (процессор нейронных сетей) — это чип, специально разработанный для работы с краевым искусственным интеллектом на устройствах, а не в облаке, что обеспечивает защиту личной информации. В настоящее время он интегрирован в SoC Qualcomm Snapdragon, AMD, Intel и Apple M серии, используемых для мобильных телефонов, ноутбуков, умных домов, автомобилей и даже роботов. ИИ на стороне устройств обеспечит более высокую защиту личной информации, более низкую задержку и более сильный контроль, что станет важным двигателем следующей волны распространения ИИ.

Taiwan Semiconductor Manufacturing Company стал центром борьбы за чипы

Независимо от того, идет ли речь о чипах Nvidia Blackwell, Google TPU или AWS Tranium, большинство AI чипов в конечном итоге производятся на заводах TSMC. Это связывает поставки вычислительной мощности AI с глобальной геополитикой. США пытаются вернуть часть производственных мощностей чипов на родину через завод TSMC в Аризоне и процесс Intel 18A. Однако китайские компании, такие как Huawei и Alibaba, также активно разрабатывают собственные ASIC, ищя местные альтернативы в условиях экспортного контроля.

Эра доминирования AI чипов наступила

Неважно, является ли это сильным господством GPU от NVIDIA или ASIC-рынком и NPU от таких компаний, как Google, AWS, Meta и OpenAI, которые стремятся продвигать краевые AI на каждое мобильное устройство и автомобиль, война чипов продолжает набирать обороты. Хотя подорвать позицию NVIDIA не так просто, рынок AI огромен, новые игроки постоянно появляются, и в течение следующих десяти лет чиповая карта обязательно станет более конкурентной.

Эта статья о технологических различиях между GPU от NVIDIA и собственными AI чипами от Google и Amazon AWS, а также о будущем направлении рынка, впервые появилась на Chain News ABMedia.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить