AI New Intelligence Circle丨Daily Must Read : La puce Nvidia B100 AI sera lancée l’année prochaine, Alibaba Intelligent Information Business Group a publié un grand modèle de quark

Résumé : Alibaba Intelligent Information Business Group a officiellement publié un modèle complet de quarks de 100 milliards de paramètres auto-développé, qui sera appliqué à la recherche générale, à la médecine et à la santé, à l’éducation et à l’apprentissage, au bureau sur le lieu de travail et à d’autres scénarios. Nvidia a récemment révélé que le GPU B100 de l’architecture Blackwell lancé en 2024 battra les A100, H100 et H200 en termes de benchmarks de performances d’inférence GPT-3 175B, et que ses performances d’IA seront plus de deux fois supérieures à celles du GPU H200 de l’architecture Hopper.

Source de l’image : Générée par Unbounded AI

Actualités chaudes :

NVIDIA : le B100 sera lancé l’année prochaine, les performances de l’IA sont plus de deux fois supérieures à celles du H200

Selon un rapport du « Science and Technology Innovation Board Daily » du 14 novembre, Nvidia a récemment révélé que le GPU B100 de l’architecture Blackwell lancé en 2024 battra les A100, H100 et H200 en termes de benchmark de performances d’inférence GPT-3 175B, et que ses performances d’IA seront plus de deux fois supérieures à celles du GPU H200 de l’architecture Hopper. Le marché s’attend à ce que Nvidia confie TSMC aux GPU OEM Blackwell avec un processus de 3 nm, et Nvidia prévoit d’avancer le délai de production au deuxième trimestre 2024. Le GPU Blackwell sera le premier accélérateur HPC/AI de NVIDIA conçu avec des chiplets.

Alibaba Intelligent Information Business Group publie un grand modèle de quark de 100 milliards de paramètres

Selon un rapport de la Financial Associated Press du 14 novembre, le groupe d’affaires d’information intelligente d’Alibaba a officiellement publié un modèle complet de quark grand de 100 milliards de paramètres auto-développé, qui sera appliqué à la recherche générale, à la santé médicale, à l’éducation et à l’apprentissage, au bureau sur le lieu de travail et à d’autres scénarios, et l’application quark sera également entièrement mise à niveau à l’aide de ce grand modèle.

PDG d’OpenAI : Le modèle d’IA de nouvelle génération GPT-5 est déjà en cours d’entraînement et a besoin de plus de données

Selon un rapport d’AI New Intelligence du 14 novembre, le PDG d’OpenAI, Sam Altman, a récemment révélé les prochaines étapes d’OpenAI dans une interview avec FT. Altman a déclaré que la société développait la prochaine génération de modèle d’IA, GPT-5. Mais il ne s’est pas engagé à publier le calendrier. Altman dit que cela nécessitera plus de données pour s’entraîner, qui proviendront d’ensembles de données accessibles au public sur Internet ainsi que des données propriétaires de l’entreprise. OpenAI a récemment lancé un appel pour des ensembles de données à grande échelle, en particulier ceux qui ne sont « pas accessibles publiquement et facilement sur Internet aujourd’hui », en particulier des écrits ou des conversations de longue durée dans n’importe quel format.

Altman a également déclaré que pour entraîner ses modèles, OpenAI, comme la plupart des autres grandes entreprises d’IA, utilise les puces H100 avancées de Nvidia. Il a mentionné qu’il y avait eu de « sérieuses tensions » cette année en raison de la pénurie de puces de Nvidia. Cependant, alors que d’autres entreprises comme Google, Microsoft, AMD et Intel se préparent à lancer des puces d’IA rivales, la dépendance à l’égard de Nvidia pourrait ne pas durer longtemps.

En outre, malgré le succès d’OpenAI auprès des consommateurs, Altman a déclaré que la société cherchait à progresser vers la construction d’une intelligence artificielle générale. Il soutient que les grands modèles de langage (LLM), les modèles qui sous-tendent ChatGPT, sont « l’un des éléments essentiels de la construction de l’AGI, mais il y a beaucoup d’autres éléments en plus ». Il a également souligné l’importance de la langue en tant que compression de l’information, un facteur qu’il pense que des entreprises comme Google DeepMind négligent.

Google et l’UC Berkeley lancent une nouvelle approche d’IA générative, « Idempotent Generative Network », qui peut générer des images photoréalistes en une seule étape

Selon un rapport d’IT House du 14 novembre, Google s’est récemment associé à l’Université de Californie à Berkeley (UC Berkeley) pour développer une nouvelle méthode d’IA générative appelée « Idempotent Generative Network (IGN) » qui peut remplacer les modèles de diffusion.

En incluant les réseaux antagonistes génératifs (GAN), les modèles de diffusion et les modèles de cohérence publiés par OpenAI en mars de cette année, les modèles d’IA générative grand public actuels sont générés avec des entrées telles que du bruit aléatoire, des croquis ou des images à basse résolution ou autrement corrompues, mappées à des sorties (généralement des images naturelles) correspondant à une distribution de données cible donnée. Dans le cas d’un modèle de diffusion, la distribution des données cibles est apprise lors de l’entraînement, puis « débruitée » est effectuée en plusieurs étapes.

L’équipe de recherche de Google a mis au point un nouveau modèle génératif appelé Idempotent Generation Network (IGN) pour générer une image appropriée à partir de n’importe quelle forme d’entrée, idéalement en une seule étape. Le modèle peut être considéré comme une sorte de « projecteur global » qui projette toutes les données d’entrée sur la distribution de données cible, contrairement à d’autres algorithmes de modèle existants, et n’est pas limité à une entrée spécifique.

Le grand modèle open source Yi de la société d’IA « Zero One Everything » de Kai-Fu Lee est accusé d’avoir plagié LLaMA

Selon IT Home le 14 novembre, Kai-Fu Lee, président et PDG de Sinovation Works, a fondé cette année la start-up de grands modèles d’IA « Zero One Everything », qui a lancé deux grands modèles open source, Yi-34 B et Yi-6 B, prétendant être complètement ouverts à la recherche universitaire et aux applications commerciales gratuites en même temps. Cependant, sur la page d’accueil open-source de Yi-34 B, le développeur ehartford a remis en question le fait que le modèle utilise l’architecture de Meta LLaMA, avec seulement deux noms tenseurs modifiés, input_layernorm et post_attention_layernorm.

En outre, il existe aujourd’hui sur Internet un cercle d’amis de Jia Yangqing, l’ancien scientifique en chef de l’IA d’Alibaba, qui dit que « le nouveau modèle d’un grand fabricant national est exactement l’architecture de LLaMA, mais afin de représenter la différence, la nomenclature dans le code a été changée de LLaMA à leur nom, puis a changé le nom de plusieurs variables ».

Zero One Thing Responds to Controversy : Le grand modèle développé est basé sur la structure mature de GPT, et beaucoup de travail a été fait sur la compréhension du modèle et la formation

Selon un rapport du Science and Technology Innovation Board Daily du 14 novembre, le modèle open source de la société d’IA Zero One Everything de Kai-Fu Lee a été accusé d’utiliser entièrement l’architecture LLaMA et de ne modifier que les noms de deux tenseurs. À cet égard, Zero One Everything a déclaré : GPT est une architecture mature reconnue par l’industrie, et Llama l’a résumée sur GPT. La conception structurelle du modèle de R&D est basée sur la structure mature de GPT, s’appuyant sur les principales réalisations publiques de l’industrie, car le développement de la technologie des grands modèles en est encore à ses débuts, la structure qui est cohérente avec le courant dominant de l’industrie est plus propice à l’adaptation globale et à l’itération future. Dans le même temps, l’équipe de 0100000 World a beaucoup travaillé sur la compréhension des modèles et de la formation, et continue également d’explorer les percées essentielles au niveau de la structure des modèles.

Zhang Yueguang, le chef du produit de l’appareil photo Miao Ya, a démissionné, et la popularité des applications d’IA des célébrités sur Internet s’est refroidie

Selon un rapport de Tech Planet du 13 novembre, Zhang Yueguang, le chef du produit de caméra Miao Ya sous Ali Da Entertainment, a quitté son poste et a participé à la planification des projets « Jiwufu » et « Xiuyixi » du Festival de printemps d’Alipay, et a travaillé pour Byte, Ali et d’autres sociétés.

L’appareil photo Miao Ya est un produit AIGC qui est hors du cercle au niveau C-end, tant que vous téléchargez plus de 20 photos contenant des visages, payez 9,9 yuans, puis choisissez le modèle et la forme que vous aimez, vous pouvez créer votre propre « clone numérique », afin d’obtenir un travail photo. L’appareil photo Miao Ya a « dominé » la liste des produits d’application pendant un certain temps, mais le classement qui a suivi a chuté jusqu’au bout. En date du 13 novembre, les dernières données de Qimai montrent que la liste « sociale » iOS de Miao Ya Camera se classe 64e. À l’heure actuelle, la façon de former une demande à long terme pour les produits AIGC est devenue un problème difficile au niveau du marché.

La start-up d’IA Silo AI lance le modèle de langage open source « Poro » pour l’Europe, couvrant 24 langues dans l’UE

Silo AI, une start-up d’intelligence artificielle basée à Helsinki, en Finlande, a publié cette semaine un nouveau modèle de langage grand open source « Poro » qui vise à renforcer les capacités d’IA multilingue des langues européennes, a rapporté VentureBeat. Poro est le premier modèle open-source du projet à couvrir à terme les 24 langues officielles de l’Union européenne. Les modèles ont été développés par l’unité d’IA générative SiloGen de Silo AI et le groupe de recherche TurkuNLP de l’Université de Turku.

Avec 34,2 milliards de paramètres, le modèle Poro 34B tire son nom du mot finnois signifiant « renne ». Il a été entraîné sur une partition d’un ensemble de données multilingues de 21 trillions de jetons qui couvre l’anglais, le finnois et des langages de programmation tels que Python et Java.

Peter Sarlin, PDG de Silo AI, a déclaré que Poro a été conçu pour résoudre le défi principal de la formation avec des performances supérieures pour les langues à faibles ressources en Europe, telles que le finnois. En tirant parti des méthodes d’apprentissage interlinguistiques, les modèles sont capables d’exploiter les données provenant de langues à ressources élevées, telles que l’anglais.

Le groupe Rakuten s’associe à OpenAI pour lancer la plateforme Rakuten AI for Business

Le 14 novembre, le groupe Rakuten a annoncé une coopération stratégique avec OpenAI et a lancé une nouvelle plateforme d’intelligence artificielle, Rakuten AI for Business. Il est rapporté que la plateforme prend en charge une variété de fonctions commerciales essentielles, notamment le marketing, les ventes, le support client, les opérations, la planification stratégique et l’ingénierie, et qu’elle est actuellement disponible sur invitation uniquement, avec des plans pour étendre la portée des services en 2024 et au-delà.

Recherche : Les entreprises d’IA font face à une crise d’épuisement des données d’entraînement, les données de haute qualité seront épuisées d’ici 2026

Rita Matulionyte, professeure de droit des technologies de l’information à l’Université Macquarie en Australie, a noté dans un article du magazine The Conversation que les chercheurs en IA tirent la sonnette d’alarme sur les pénuries d’approvisionnement en données depuis près d’un an, comme l’a rapporté Webmaster’s House le 14 novembre. Selon une étude réalisée l’année dernière par le groupe de prédiction de l’intelligence artificielle d’Epoch AI, les entreprises d’IA pourraient manquer de données d’apprentissage textuel de haute qualité d’ici 2026, tandis que les données de texte et d’image de mauvaise qualité pourraient être épuisées entre 2030 et 2060.

Pour les entreprises d’IA avides de données, l’entraînement avec des données synthétiques générées par des modèles d’IA peut ne pas être une solution viable. Des recherches ont montré que l’entraînement d’un modèle d’IA à l’utilisation de contenu généré par l’IA peut entraîner un effet de déformation intrinsèque dans le modèle, ce qui rend la sortie déroutante et bizarre. Face à ce problème potentiel, à moins qu’il n’y ait des fermes de contenu humain à grande échelle, la solution peut résider dans des partenariats de données. Cela signifie que les entreprises ou les institutions disposant de données abondantes et de haute qualité concluent des accords avec des sociétés d’IA pour échanger des données en échange d’argent.

La licorne technologique vietnamienne VNG prévoit de lancer un service d’IA de type ChatGPT

La start-up vietnamienne de jeux VNG prévoit de lancer un service d’IA de type ChatGPT adapté aux utilisateurs vietnamiens, comme l’a rapporté Nikkei Asia le 14 novembre. La licorne technologique, soutenue par Tencent et Ant Financial Group d’Alibaba, dispose déjà d’une application de chat plus populaire que Facebook sur son marché domestique et a récemment ajouté une fonction de traduction. VNG affirme que la prochaine étape consistera à ajouter des capacités générées par l’IA qui permettront aux utilisateurs de tout faire, de la rédaction d’e-mails à la recherche de réponses aux requêtes.

Des sources affirment qu’OpenAI tente de débaucher les talents de Google en matière d’IA avec un package de rémunération de 10 millions de dollars

OpenAI est dans une guerre de talents avec Google, qui attire certains des meilleurs chercheurs de Google avec des programmes de rémunération de plusieurs millions de dollars, ainsi que des ressources technologiques de premier ordre telles que des puces d’accélération d’IA pour exécuter des tests, selon IT House, citant The Information.

Lectures recommandées par l’AIGC :

"La puce d’entraînement de modèle la plus puissante H200 a été lancée !Grande mémoire 141G, inférence AI jusqu’à 90%, également compatible avec H100"

Nvidia Lao Huang a de nouveau explosé avec une nouvelle génération de puces GPUH200. Le site officiel a déclaré sans ménagement : « Le GPU le plus puissant au monde, conçu pour l’IA et le supercalcul ». J’ai entendu dire que toutes les entreprises d’IA se plaignent du manque de mémoire ? Cette fois-ci, la grande mémoire est directement de 141 Go, ce qui est directement augmenté de 76% par rapport aux 80 Go du H100. En tant que premier GPU à être équipé de la mémoire HBM3e, la bande passante mémoire a également été augmentée de 3,35 To/s à 4,8 To/s, soit une augmentation de 43 %. Qu’est-ce que cela signifie pour l’IA ?

"Le ChatGPT « Grok » de Musk, comment ça marche ?

Actuellement, Grok est encore en version bêta précoce et n’est disponible que pour un petit nombre d’utilisateurs aux États-Unis, et ceux qui souhaitent participer peuvent également postuler via le site Web de xAI, mais dans un avenir proche, Grok sera disponible pour tous les utilisateurs « X Premium + » sur la plate-forme X. Alors, qu’est-ce que Grok a de si spécial par rapport aux assistants IA comme ChatGPT ?

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)