AI New Intelligence Circle丨Daily Must Read: Чип искусственного интеллекта Nvidia B100 будет запущен в следующем году, Alibaba Intelligent Information Business Group выпустила большую модель кварка

Аннотация:Alibaba Intelligent Information Business Group официально выпустила полнофункциональную модель кварка собственной разработки на уровне 100 миллиардов параметров, которая будет применяться в общем поиске, медицине и здравоохранении, образовании и обучении, рабочем месте и других сценариях. Nvidia недавно сообщила, что графический процессор B100 с архитектурой Blackwell, выпущенный в 2024 году, превзойдет A100, H100 и H200 с точки зрения тестов производительности инференса GPT-3 175B, а его производительность искусственного интеллекта будет более чем в два раза выше, чем у графического процессора H200 с архитектурой Hopper.

Источник изображения: Сгенерировано Unbounded AI

Горячие новости:

NVIDIA: B100 будет запущен в следующем году, производительность ИИ более чем в два раза выше, чем у H200

Согласно отчету «Science and Technology Innovation Board Daily» от 14 ноября, Nvidia недавно сообщила, что графический процессор с архитектурой Blackwell B100, выпущенный в 2024 году, превзойдет A100, H100 и H200 с точки зрения производительности инференса GPT-3 175B, а его производительность искусственного интеллекта будет более чем в два раза выше, чем у графического процессора H200 с архитектурой Hopper. Рынок ожидает, что Nvidia доверит TSMC OEM-графическим процессорам Blackwell с 3-нм техпроцессом, а Nvidia планирует сдвинуть сроки производства до 2 квартала 2024 года. Blackwell GPU станет первым ускорителем NVIDIA для высокопроизводительных вычислений и искусственного интеллекта, разработанным с использованием чиплетов.

Alibaba Intelligent Information Business Group выпускает большую модель кварка с 100 миллиардами параметров

Согласно отчету Financial Associated Press от 14 ноября, интеллектуальная информационная бизнес-группа Alibaba официально выпустила полнофункциональную самостоятельную модель кварка с 100-миллиардными параметрами, которая будет применяться для общего поиска, медицинского здравоохранения, образования и обучения, рабочего офиса и других сценариев, а приложение Quark также будет полностью обновлено с помощью этой большой модели.

Генеральный директор OpenAI: Модель искусственного интеллекта следующего поколения GPT-5 уже проходит обучение и нуждается в большем количестве данных

Согласно отчету AI New Intelligence от 14 ноября, генеральный директор OpenAI Сэм Альтман недавно раскрыл больше следующих шагов OpenAI в интервью FT. Альтман сказал, что компания разрабатывает следующее поколение модели искусственного интеллекта GPT-5. Но он не взял на себя обязательство обнародовать график. Альтман говорит, что для обучения потребуется больше данных, которые будут поступать из общедоступных наборов данных в Интернете, а также из собственных данных компании. Недавно OpenAI выступила с призывом к крупномасштабным наборам данных, особенно к тем, которые «сегодня не являются общедоступными и легко доступными в Интернете», особенно к длинным текстам или разговорам в любом формате.

Альтман также сообщил, что для обучения своих моделей OpenAI, как и большинство других крупных AI-компаний, использует передовые чипы Nvidia H100. Он упомянул, что в этом году возникла «серьезная напряженность» из-за нехватки чипов от Nvidia. Однако, поскольку другие компании, такие как Google, Microsoft, AMD и Intel, готовятся выпустить конкурирующие чипы искусственного интеллекта, зависимость от Nvidia может продлиться недолго.

Кроме того, несмотря на потребительский успех OpenAI, Альтман сказал, что компания стремится добиться прогресса в создании общего искусственного интеллекта. Он утверждает, что большие языковые модели (LLM), модели, лежащие в основе ChatGPT, являются «одной из основных частей построения AGI, но над ней есть много других частей». Он также подчеркнул важность языка для сжатия информации, фактор, который, по его мнению, упускают из виду такие компании, как Google DeepMind.

Google и Калифорнийский университет в Беркли запускают новый подход к генеративному искусственному интеллекту «Idempotent Generative Network», который может генерировать фотореалистичные изображения за один шаг

Согласно отчету IT House от 14 ноября, Google недавно объединился с Калифорнийским университетом в Беркли (UC Berkeley) для разработки нового метода генеративного искусственного интеллекта под названием «Idempotent Generative Network (IGN)», который может заменить диффузионные модели.

Включая генеративно-состязательные сети (GAN), диффузионные модели и модели согласованности, выпущенные OpenAI в марте этого года, текущие основные модели генеративного ИИ генерируются с помощью входных данных, таких как случайный шум, эскизы или изображения с низким разрешением или иным образом поврежденные изображения, сопоставленные с выходами (обычно естественными изображениями), соответствующими заданному целевому распределению данных. В случае диффузионной модели целевое распределение данных изучается во время обучения, а затем выполняется «шумоподавление» в несколько этапов.

Исследовательская группа Google разработала новую генеративную модель под названием Idempotent Generation Network (IGN) для генерации подходящего изображения из любой формы входных данных, в идеале за один шаг. Модель можно рассматривать как своего рода «глобальный проектор», который проецирует любые входные данные на целевое распределение данных, в отличие от других существующих алгоритмов модели, и не ограничен конкретным входом.

** Компания Кай-Фу Ли, занимающаяся искусственным интеллектом, «Zero One Everything» с открытым исходным кодом, обвиняется в плагиате LLaMA**

Кай-Фу Ли (Kai-Fu Lee), председатель и генеральный директор Sinovation Works, в этом году основал стартап-компанию Zero One Everything, которая запустила две большие модели с открытым исходным кодом, Yi-34 B и Yi-6 B, утверждая, что они полностью открыты для академических исследований и бесплатных коммерческих приложений одновременно. Тем не менее, на домашней странице Hugging Face с открытым исходным кодом Yi-34 B разработчик ehartford усомнился в том, что модель использует архитектуру Meta LLaMA, с измененными только двумя именами тензоров: input_layernorm и post_attention_layernorm.

Кроме того, сегодня в интернете циркулирует круг друзей Цзя Янцина, бывшего главного научного сотрудника Alibaba по искусственному интеллекту, который говорит о том, что «новая модель крупного отечественного производителя — это именно архитектура LLaMA, но для того, чтобы представить разницу, номенклатура в коде была изменена с LLaMA на их название, а затем изменено название нескольких переменных».

Zero One Thing Response to Controversy: Разработанная большая модель основана на зрелой структуре GPT, и была проделана большая работа по пониманию модели и обучению

Согласно отчету Science and Technology Innovation Board Daily от 14 ноября, компания Кай-Фу Ли по искусственному интеллекту Zero One Everything с открытым исходным кодом была обвинена в том, что она полностью использовала архитектуру LLaMA и модифицировала только имена двух тензоров. В связи с этим Zero One Everything сказал: GPT — это зрелая архитектура, признанная индустрией, и Llama подытожил ее на GPT. Структурный дизайн модели НИОКР основан на зрелой структуре GPT, опирающейся на главные общественные достижения отрасли, поскольку разработка технологии больших моделей все еще находится на очень ранней стадии, структура, которая соответствует основному течению отрасли, более благоприятна для общей адаптации и будущих итераций. В то же время команда 0100000 World проделала большую работу по пониманию моделей и обучению, а также продолжает исследовать существенные прорывы на уровне структуры моделей.

Чжан Юэгуан, глава отдела производства камеры Мяо Я, ушел в отставку, а популярность приложений ИИ для интернет-знаменитостей пошла на убыль

Согласно сообщению Tech Planet от 13 ноября, Чжан Юэгуан, глава отдела камер Miao Ya в Ali Da Entertainment, покинул свой пост и участвовал в планировании проектов Alipay Spring Festival «Jiwufu» и «Xiuyixi», а также работал в Byte, Ali и других компаниях.

Камера Miao Ya - это продукт AIGC, который находится вне круга на уровне C-end, если вы загрузите более 20 фотографий, содержащих лица, заплатите 9,9 юаней, а затем выберете шаблон и форму, которые вам нравятся, вы можете сделать свой собственный «цифровой клон», чтобы получить фотоработу. Камера Miao Ya «доминировала» в списке прикладных продуктов в течение некоторого времени, но последующий рейтинг упал до конца. По состоянию на 13 ноября, последние данные Qimai показывают, что «социальный» список Miao Ya Camera для iOS занимает 64-е место. В настоящее время формирование долгосрочного спроса на продукцию АИГК стало сложной проблемой на рыночном уровне.

Стартап в области искусственного интеллекта Silo AI запускает языковую модель с открытым исходным кодом «Poro» для Европы, охватывающую 24 языка в ЕС

Silo AI, стартап в области искусственного интеллекта, базирующийся в Хельсинки, Финляндия, на этой неделе выпустил новую большую языковую модель с открытым исходным кодом «Poro», которая направлена на расширение возможностей многоязычного искусственного интеллекта европейских языков, сообщает VentureBeat. Poro является первой моделью с открытым исходным кодом, которая в конечном итоге будет охватывать все 24 официальных языка Европейского Союза. Модели были разработаны подразделением генеративного искусственного интеллекта SiloGen компании Silo AI и исследовательской группой TurkuNLP в Университете Турку.

Модель Poro 34B с 34,2 миллиардами параметров названа в честь финского слова, означающего «северный олень». Он был обучен на разделе многоязычного набора данных объемом 21 триллион токенов, который охватывает английский, финский и языки программирования, такие как Python и Java.

Питер Сарлин (Peter Sarlin), генеральный директор Silo AI, сказал, что Poro был разработан для решения основной проблемы обучения с превосходной производительностью для языков с ограниченными ресурсами в Европе, таких как финский. Используя межъязыковые методы обучения, модели могут использовать данные из языков с широкими ресурсами, таких как английский.

Rakuten Group сотрудничает с OpenAI для запуска платформы Rakuten AI для бизнеса

14 ноября Rakuten Group объявила о стратегическом сотрудничестве с OpenAI и запустила новую платформу искусственного интеллекта Rakuten AI for Business. Сообщается, что платформа поддерживает множество основных бизнес-функций, включая маркетинг, продажи, поддержку клиентов, операции, стратегическое планирование и проектирование, и в настоящее время доступна только по приглашениям, с планами расширения объема услуг в 2024 году и далее.

Исследование: компании, занимающиеся искусственным интеллектом, сталкиваются с кризисом истощения данных для обучения, высококачественные данные закончатся к 2026 году

Рита Матулионите, профессор права в области информационных технологий в Университете Маккуори в Австралии, отметила в статье в журнале The Conversation, что исследователи ИИ бьют тревогу по поводу нехватки данных уже почти год, о чем 14 ноября сообщил Webmaster's House. Согласно исследованию, проведенному группой прогнозирования искусственного интеллекта Epoch AI, проведенному в прошлом году, к 2026 году у компаний, занимающихся искусственным интеллектом, могут закончиться высококачественные текстовые обучающие данные, в то время как низкокачественные текстовые и графические данные могут быть исчерпаны в период между 2030 и 2060 годами.

Для компаний, работающих с ИИ, требующих больших объемов данных, обучение с использованием синтетических данных, генерируемых моделями ИИ, может оказаться нежизнеспособным решением. Исследования показали, что обучение модели ИИ для использования контента, созданного ИИ, может привести к внутреннему эффекту деформации модели, что сделает выходные данные запутанными и причудливыми. Столкнувшись с этой потенциальной проблемой, если не существует крупномасштабных ферм человеческого контента, решение может заключаться в партнерстве с данными. Это означает, что компании или учреждения, обладающие большим количеством высококачественных данных, заключают соглашения с компаниями, занимающимися искусственным интеллектом, об обмене данными в обмен на деньги.

Вьетнамский технологический единорог VNG планирует запустить сервис искусственного интеллекта, похожий на ChatGPT

Вьетнамский игровой стартап VNG планирует запустить сервис искусственного интеллекта, похожий на ChatGPT, адаптированный для вьетнамоязычных пользователей, о чем 14 ноября сообщило издание Nikkei Asia. Технологический единорог, поддерживаемый Tencent и Alibaba's Ant Financial Group, уже имеет приложение для чата, которое более популярно, чем Facebook на своем домашнем рынке, и недавно добавил функцию перевода. VNG заявляет, что следующим шагом будет добавление возможностей, генерируемых искусственным интеллектом, которые позволят пользователям делать все, от составления электронных писем до поиска ответов на запросы.

Источники сообщают, что OpenAI пытается переманить таланты Google в области искусственного интеллекта с помощью компенсационного пакета в размере 10 миллионов долларов

OpenAI ведет войну за таланты с Google, которая привлекает некоторых из лучших исследователей Google многомиллионными компенсационными пакетами, а также первоклассными техническими ресурсами, такими как чипы ускорителей искусственного интеллекта для проведения тестов, сообщает IT House со ссылкой на The Information.

AIGC Рекомендуемая литература:

"Выпущена самая мощная модель обучающего чипа H200!141 ГБ большой памяти, инференс ИИ до 90%, также совместим с H100"

Nvidia Lao Huang снова взорвалась новым поколением чипов GPUH200. На официальном сайте бесцеремонно было написано: «Самый мощный в мире графический процессор, созданный для искусственного интеллекта и суперкомпьютеров». Я слышал, что все AI-компании жалуются на нехватку памяти? На этот раз объем памяти составляет непосредственно 141 ГБ, что напрямую увеличено на 76% по сравнению с 80 ГБ у H100. Поскольку это первый графический процессор, оснащенный памятью HBM3e, пропускная способность памяти также была увеличена с 3,35 ТБ/с до 4,8 ТБ/с, то есть на 43%. Что это значит для ИИ?

"ChatGPT Маска "Grok", как это работает?

В настоящее время Grok все еще находится на ранней стадии бета-тестирования и доступен только небольшому количеству пользователей в США, и те, кто хочет участвовать, также могут подать заявку через веб-сайт xAI, но в ближайшем будущем Grok будет доступен всем пользователям «X Premium+» на платформе X. Так что же такого особенного в Grok по сравнению с ИИ-помощниками, такими как ChatGPT?

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить