OpenAI парализована, могут ли черные технологии Китая спасти глобальный ИИ?

Первоисточник: Data Ape

Источник изображения: Generated by Unbounded AI

В сегодняшнюю эпоху стремительного технологического развития ChatGPT от OpenAI, несомненно, стал яркой звездой в области искусственного интеллекта. Однако с ростом числа его пользователей постепенно всплыла проблема, которую нельзя игнорировать – нехватка вычислительных мощностей. Это вызов не только для OpenAI, но и для всей индустрии ИИ.

В этом углубленном анализе мы рассмотрим основные причины нехватки вычислительных мощностей и то, как она влияет на разработку больших моделей и будущее отрасли. В то же время мы также будем изучать потенциальные пути решения этой проблемы, включая развитие отечественных графических процессоров и их возможное влияние на мировой рынок.

Нехватка вычислительных мощностей преследует OpenAI

Нехватка вычислительных мощностей всегда была острой проблемой, с которой OpenAI приходится сталкиваться в своем стремительном росте. В последнее время этот вопрос стал более актуальным из-за громкого инцидента. Компания OpenAI провела масштабное выставочное мероприятие под названием «Science and Technology Spring Festival Gala», продемонстрировав последние достижения своей технологии, которая привлекла большое внимание во всем мире. В результате поток пользователей стекался на платформу OpenAI, особенно на ее звездный продукт ChatGPT.

Однако за этим повальным увлечением стоит огромная проблема. Взрывной рост числа пользователей быстро превысил вычислительные мощности OpenAI. Всего через два дня после конференции всплыл шокирующий факт: сервер ChatGPT вышел из строя. Бесчисленное количество пользователей сети сообщили, что они не могут нормально использовать API, предоставляемые ChatGPT и OpenAI.

Столкнувшись с этим кризисом, OpenAI пришлось принять решение, которое потрясло рынок: приостановить регистрацию новых пользователей ChatGPT Plus. Экономические издержки, стоящие за этим решением, огромны: 100 миллионов новых пользователей генерируют 2 миллиарда долларов дохода в месяц для OpenAI при ежемесячной абонентской плате в размере 20 долларов. Такое огромное потенциальное преимущество, но необходимость отказаться от него из-за нехватки вычислительных мощностей, несомненно, является крайне пассивным выбором.

На самом деле, нехватка вычислительных мощностей – явление не только недавнее. С момента запуска ChatGPT вопрос вычислительной мощности был затянутой тенью. Например, в апреле ChatGPT Plus также был вынужден приостановить покупку платных предметов. Такое случается время от времени, и, похоже, это стало нормой на пути роста OpenAI.

Эти события раскрывают неоспоримый факт: в контексте современного технологического развития вычислительные мощности стали основным узким местом, ограничивающим технологические инновации в области искусственного интеллекта и расширение коммерческих приложений. Для OpenAI это не только технический, но и стратегический вызов. Как найти баланс между быстро растущим рыночным спросом и ограниченными вычислительными ресурсами стало сложной проблемой для OpenAI. Этот вызов касается не только краткосрочных доходов компании, но и ее долгосрочных позиций на рынке и технологического лидерства.

В семье помещика нет излишков зерна

OpenAI неоднократно заявляла, что вычислительной мощности не хватает.

Вы должны знать, что OpenAI — это звездное предприятие с большими моделями, с огромным финансированием и большим количеством вычислительных ресурсов. Более того, есть еще и «золотой отец» Microsoft, который обеспечивает полный спектр поддержки вычислительных мощностей. Корпорация Майкрософт обладает вторыми по величине ресурсами облачных вычислений в мире.

С этой точки зрения OpenAI можно назвать «арендодателем» вычислительных мощностей. Но реальность такова, что у семьи хозяина нет излишков еды. Так почему же такая компания с огромным финансированием и сильной поддержкой, как Microsoft, оказалась в таком затруднительном положении?

Мы должны признать, что спрос на вычислительные мощности для больших моделей является беспрецедентным. Эти модели основаны на сотнях миллиардов нейронных сетей, и каждое вычисление является огромным испытанием вычислительной мощности. Проще говоря, сейчас мы сталкиваемся с совершенно новым уровнем вычислительных потребностей, который не имел себе равных в истории разработки программного обеспечения. Традиционных вычислительных ресурсов, таких как центральные процессоры, здесь недостаточно, и графический процессор, на который нужно полагаться, несомненно, находится на переднем крае этой технологической революции.

Проблема с графическими процессорами, однако, заключается в том, что они не только являются новыми технологическими продуктами, но и сталкиваются с двойными проблемами, связанными с итерациями проектирования и ограничениями емкости. Несмотря на растущий спрос на графические процессоры в мире технологий, мировые мощности по производству чипов не поспевают за ними. Существующие системы производства, упаковки и тестирования полупроводников в основном спроектированы вокруг центральных процессоров, и для новых графических процессоров они, очевидно, не полностью адаптированы. Это означает, что нам еще предстоит пройти долгий путь с точки зрения увеличения мощности графического процессора и адаптации к новым технологическим потребностям.

Технология графических процессоров продолжает развиваться, и каждое новое поколение стремится повысить производительность и эффективность, что требует постоянных инвестиций в исследования и разработки, а также технологических инноваций. Однако эта непрерывная итерация технологии также означает увеличение затрат на НИОКР, а также усложнение производственного процесса.

Помимо вопроса производственных мощностей, стоимость графических процессоров также является проблемой, которую нельзя игнорировать. Чтобы построить вычислительный кластер на GPU, способный поддерживать крупномасштабные модельные вычисления, требуются не только технологии, но и огромные капиталовложения. Даже для такого технологического гиганта, как OpenAI, это существенное бремя. Найти баланс между затратами и выгодой — непростой выбор.

Если даже OpenAI борется с нехваткой вычислительных мощностей, что будет с другими компаниями? Это вызов не только для OpenAI, но и для всей индустрии искусственного интеллекта. То, что мы наблюдаем, — это огромный сдвиг: переход от традиционных вычислений к вычислениям, управляемым искусственным интеллектом. В этой трансформации вычислительная мощность стала наиболее критическим узким местом.

Мы не можем игнорировать тот факт, что этот дефицит не возник в одночасье, а является результатом несоответствия между долгосрочными технологическими разработками и рыночным спросом. Производственные ограничения, технологическое развитие и вопросы стоимости чипов для графических процессоров многогранны и связаны с глобальными цепочками поставок, технологическими инновациями и экономическими моделями. Высокие требования к вычислительной мощности приложений с большими моделями создают беспрецедентные проблемы для существующих технологических архитектур, заставляя всю отрасль переосмысливать способы проектирования, создания и оптимизации вычислительных ресурсов.

При масштабировании B-end приложения проблема нехватки вычислительных мощностей станет более серьезной

Есть еще один момент, который очень важен, но его легко упустить из виду.

Когда мы говорим о нехватке вычислительных мощностей, мы обычно ориентируемся на текущий пользовательский опыт на стороне C. Однако это только верхушка айсберга. Еще более серьезная, но часто упускаемая из виду проблема кроется в масштабах приложений на стороне «Б». На данный момент, хотя крупные модели, такие как ChatGPT, в основном обслуживают конечных пользователей, это только начало. С постепенным ростом и зрелостью B-end приложений мы столкнемся с беспрецедентным всплеском спроса на вычислительные мощности.

На китайском рынке эта тенденция уже начинает проявляться. Несмотря на то, что такие продукты, как Baidu Wenxin Yiyan и Ali Tongyi Qianwen, в настоящее время в основном обслуживают пользователей C-end, их исследования B-end приложений уже на подходе. В настоящее время большинство этих продуктов находятся в стадии разработки, но как только они перейдут в стадию масштабной коммерческой реализации, ситуация будет совершенно иной. Сложность бизнеса на стороне «Б» намного выше, чем на стороне «С». На стороне C взаимодействие пользователя с системой обычно так же просто, как выполнение запроса или команды. Однако, с другой стороны, каждый бизнес-процесс может включать в себя более сложные процессы обработки, анализа и принятия решений. Эти процессы не только требуют больше вычислительных ресурсов, но и предъявляют более высокие требования к качеству и стабильности вычислительных мощностей.

Что еще более примечательно, так это то, что потребление вычислительной мощности B-end сервисами отражается не только на сложности отдельного взаимодействия, но и на частоте вызовов. На стороне B применение больших моделей, как правило, является непрерывным и высокочастотным, в отличие от случайных запросов и использования на стороне C. Например, в таких отраслях, как финансы, здравоохранение и производство, большие модели должны непрерывно обрабатывать большие объемы данных для анализа в режиме реального времени и поддержки принятия решений. Такой спрос на высокочастотные и высоконагруженные вычисления оказывает огромное давление на вычислительные мощности.

Можно предвидеть, что с популяризацией больших моделей на стороне «Б» ее требования к вычислительной мощности быстро превысят требования к стороне «С». Этот сдвиг может быть незаметным, но его последствия имеют далеко идущие последствия. С одной стороны, возросший спрос на вычислительные мощности будет стимулировать развитие смежных технологий, таких как более эффективные графические процессоры и более оптимизированные вычислительные архитектуры. С другой стороны, это также окажет существенное влияние на распределение ресурсов, структуру затрат и бизнес-модель отрасли в целом.

В ходе этого процесса мы можем увидеть, как некоторые компании будут вынуждены уйти с рынка, потому что они не могут позволить себе такую стоимость вычислительной мощности, или мы можем увидеть, что некоторые компании выделяются передовыми технологиями управления вычислительными мощностями и оптимизации.

Китай столкнулся с двойным узким местом вычислительной мощности

В глобальном масштабе нехватка вычислительных мощностей стала основным узким местом в развитии искусственного интеллекта, и для Китая эта проблема стоит особенно остро. Китайским крупным модельным компаниям приходится иметь дело не только с глобальной нехваткой вычислительных мощностей («стихийные бедствия»), но и с уникальными рыночными ограничениями предложения («техногенные катастрофы»), что делает перспективы развития Китая в области больших моделей сложными и сложными.

Мы должны признать ограниченность крупномасштабных модельных предприятий Китая в вычислительных ресурсах. В то время как такие компании, как Baidu, Alibaba, ByteDance, Tencent и Huawei, добились значительных успехов в разработке больших моделей, вычислительные проблемы, с которыми они сталкиваются, реальны и неотложны. В настоящее время, из-за общего отсутствия развития мировой индустрии графических процессоров, китайские предприятия столкнулись с серьезными препятствиями в получении достаточных вычислительных ресурсов. Такого рода проблемы типа «стихийных бедствий» являются единственным путем для технологического развития и модернизации промышленности, и для их решения требуется время и огромные инвестиции.

Что еще более сложно, так это то, что крупные модельные компании Китая также сталкиваются с «техногенными катастрофами» на международном рынке, особенно с ограничениями поставок международных гигантов, таких как Nvidia, на китайский рынок. Это политическое ограничение напрямую повлияло на способность китайских компаний получать высокопроизводительные чипы GPU, тем самым усугубив дефицит вычислительных ресурсов. Это двойное ограничение, несомненно, добавило дополнительных неопределенностей и вызовов для развития крупномасштабных образцовых предприятий Китая.

В настоящее время, хотя количество пользователей таких продуктов, как Wenxin Yiyan от Baidu и Tongyi Qianwen от Alibaba, не достигло масштаба 100 миллионов ChatGPT, это не означает, что китайские компании могут легко справиться с существующими вычислительными проблемами. С развитием этих продуктов и расширением рынка, особенно когда они начнут широко использоваться на рынке B-end, спрос на вычислительные мощности резко возрастет. В это время проблема нехватки вычислительных мощностей станет более заметной, что может серьезно ограничить развитие индустрии крупных моделей Китая.

В долгосрочной перспективе, если Китай не сможет эффективно справиться с этим двойным вычислительным узким местом, то развитие его крупной модельной промышленности может быть ограничено низким уровнем. Это не только повлияет на конкурентоспособность внутреннего рынка, но и ограничит влияние Китая в сфере искусственного интеллекта в глобальном масштабе. Таким образом, решение проблемы нехватки вычислительных мощностей имеет решающее значение для будущего развития индустрии крупных моделей Китая, что является не только техническим, но и стратегическим вопросом, связанным с положением и будущим Китая в глобальной конкуренции в области искусственного интеллекта.

На фоне проблем с двойными вычислениями, с которыми сталкивается Китай, в последнее время появились некоторые обнадеживающие позитивные признаки, особенно в разработке отечественных графических процессоров. Ведущие отечественные технологические компании, такие как Baidu, Alibaba, 360 и др., начали сотрудничать с отечественными производителями графических процессоров, такими как Huawei.

Рост популярности отечественных графических процессоров имеет далеко идущее значение для решения проблемы нехватки вычислительных мощностей в Китае. Если эти отечественные графические процессоры смогут быть сопоставимы с лидером отрасли NVIDIA с точки зрения производительности, а узкое место на производственном уровне будет эффективно устранено, то это принесет беспрецедентные возможности для индустрии крупных моделей Китая. Исторически сложилось так, что как только отечественная технология созревает, она, как правило, может выйти на рынок по более конкурентоспособной цене. Это означает, что если отечественные графические процессоры могут быть успешными, они, вероятно, будут предлагать аналогичную или даже лучшую производительность по гораздо более низкой цене, чем международные бренды.

Это ценовое преимущество не только смягчит текущую нехватку вычислительных мощностей, но и может произвести революцию в рыночном ландшафте. В настоящее время высокая цена графических процессоров является важным фактором, ограничивающим популярность и применение технологии больших моделей. Если отечественные графические процессоры смогут обеспечить высокопроизводительную вычислительную мощность по более низкой цене, это значительно будет способствовать применению технологии больших моделей во всех сферах жизни и ускорит развитие Китая в области искусственного интеллекта.

Что еще более важно, эта разработка может позволить Китаю «превратить поражение в победу» в глобальной гонке ИИ. С точки зрения вычислительных мощностей и приложений крупномасштабных моделей Китай может не только догнать, но даже превзойти ведущие страны, такие как США.

Конечно, все это еще в начале разработки, и для успеха отечественных графических процессоров еще нужно преодолеть технические вызовы. Тем не менее, есть и позитивные признаки того, что Китай предпринял серьезные шаги на пути к автономии компьютеров. Ожидается, что в ближайшие несколько лет мы станем свидетелями зрелости и широкомасштабного применения отечественной технологии графических процессоров, а также того, как она будет способствовать быстрому развитию индустрии крупных моделей в Китае.

Подводя итог, можно сказать, что на пути к изучению глобальной проблемы нехватки вычислительных мощностей мы не только стали свидетелями непрерывного расширения технологических границ, но и глубоко испытали сложные проблемы, стоящие перед развитием отрасли. От истории OpenAI до двойной дилеммы крупных модельных компаний Китая и роста отечественных технологий GPU — все это раскрывает основную истину: вычислительные мощности стали ключевым стратегическим ресурсом на будущем пути развития искусственного интеллекта. Это не только соревнование на техническом уровне, но и инвестиция и расстановка глобальных научно-технологических сил на перспективу.

Заглядывая в будущее, с технологическим прогрессом и меняющимися требованиями рынка, у нас есть основания полагать, что проблема нехватки вычислительных мощностей в конечном итоге будет решена. В этом процессе инновации, сотрудничество и стратегическая корректировка станут ключевыми темами, с которыми должен столкнуться каждый участник. В конечном счете, этот вызов вычислительной мощности определит будущее технологий искусственного интеллекта и сформирует наш цифровой мир.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить