À l’ère du développement technologique rapide, ChatGPT d’OpenAI est sans aucun doute devenu une étoile brillante dans le domaine de l’intelligence artificielle. Cependant, avec l’augmentation du nombre de ses utilisateurs, un problème qui ne peut être ignoré est progressivement apparu : une pénurie de puissance de calcul. Il ne s’agit pas seulement d’un défi pour OpenAI, mais d’un problème pour l’ensemble du secteur de l’IA.
Dans cette analyse approfondie, nous explorerons les causes profondes de la pénurie de puissance de calcul et comment elle affecte le développement de grands modèles et l’avenir de l’industrie. Dans le même temps, nous explorerons également les moyens potentiels de résoudre ce problème, y compris le développement des GPU nationaux et leur impact possible sur le marché mondial.
La pénurie de puissance de calcul a frappé OpenAI
La pénurie de puissance de calcul a toujours été un problème épineux auquel OpenAI doit faire face dans son essor rapide. Récemment, ce problème a pris de l’importance en raison d’un incident très médiatisé. OpenAI a organisé un événement d’exposition à grande échelle surnommé le « Gala du Festival de printemps de la science et de la technologie », présentant les dernières réalisations de sa technologie, qui a attiré une grande attention dans le monde entier. En conséquence, un flot d’utilisateurs a afflué vers la plateforme d’OpenAI, en particulier son produit vedette, ChatGPT.
Cependant, il y a un énorme défi derrière cet engouement. La croissance explosive du nombre d’utilisateurs a rapidement dépassé la capacité de calcul d’OpenAI. Deux jours seulement après la conférence, un fait choquant est apparu : le serveur ChatGPT est tombé en panne. D’innombrables internautes ont signalé qu’ils ne pouvaient pas utiliser normalement les API fournies par ChatGPT et OpenAI.
Face à cette crise, OpenAI a dû prendre une décision qui a choqué le marché : suspendre l’inscription des nouveaux utilisateurs de ChatGPT Plus. Le coût économique de cette décision est énorme, avec 100 millions de nouveaux utilisateurs générant 2 milliards de dollars de revenus par mois pour OpenAI avec un abonnement mensuel de 20 dollars. Un tel avantage potentiel, mais devoir renoncer en raison du manque de puissance de calcul, est sans aucun doute un choix extrêmement passif.
En fait, la pénurie de puissance de calcul n’est pas qu’un phénomène récent. Depuis le lancement de ChatGPT, la question de la puissance de calcul est une ombre persistante. Par exemple, en avril, ChatGPT Plus a également été contraint de suspendre l’achat d’articles payants. Cela se produit de temps en temps, et cela semble être devenu une norme sur la route de la croissance d’OpenAI.
Ces événements révèlent un fait indiscutable : dans le contexte de l’évolution technologique actuelle, la puissance de calcul est devenue un goulot d’étranglement majeur limitant l’innovation technologique de l’IA et l’expansion des applications commerciales. Pour OpenAI, il ne s’agit pas seulement d’un défi technique, mais aussi stratégique. Comment trouver un équilibre entre la demande du marché en pleine expansion et les ressources informatiques limitées est devenu un problème difficile pour OpenAI. Ce défi ne concerne pas seulement les bénéfices à court terme de l’entreprise, mais aussi sa position à long terme sur le marché et son leadership technologique.
La famille du propriétaire n’a pas de surplus de grain
OpenAI a annoncé à plusieurs reprises que la puissance de calcul n’était pas suffisante.
Il faut savoir qu’OpenAI est une entreprise star avec de grands modèles, avec un financement énorme et un grand nombre de ressources informatiques. De plus, il existe également un « père d’or » Microsoft, qui fournit une gamme complète de support de puissance de calcul. Microsoft possède les deuxièmes plus grandes ressources de cloud computing au monde.
De ce point de vue, on peut dire qu’OpenAI est le « propriétaire » de la puissance de calcul. Mais la réalité est que la famille du propriétaire n’a pas de surplus de nourriture. Alors, pourquoi une entreprise avec un financement énorme et un soutien solide comme Microsoft s’est-elle retrouvée dans cette situation difficile ?
Nous devons reconnaître que la demande de puissance de calcul pour les grands modèles est sans précédent. Ces modèles sont basés sur des centaines de milliards de réseaux neuronaux, et chaque calcul est un énorme test de puissance de calcul. En termes simples, nous sommes maintenant confrontés à un tout nouveau niveau de besoins informatiques qui n’ont pas été égalés dans l’histoire du développement logiciel. Les ressources informatiques traditionnelles telles que les CPU ne suffisent pas ici, et le GPU, sur lequel il faut compter, est sans aucun doute la ligne de front de cette révolution technologique.
Le problème avec les GPU, cependant, est qu’ils ne sont pas seulement des produits technologiques émergents, mais qu’ils sont également confrontés au double défi de l’itération de la conception et des contraintes de capacité. Malgré la demande croissante de GPU dans le monde de la technologie, la capacité mondiale de fabrication de puces n’a pas suivi le rythme. Les systèmes existants de fabrication de semi-conducteurs, d’emballage et de test sont principalement conçus autour des processeurs, et pour les GPU émergents, ils ne sont évidemment pas entièrement adaptés. Cela signifie qu’il reste encore un long chemin à parcourir en termes d’augmentation de la capacité des GPU et d’adaptation aux nouveaux besoins technologiques.
La technologie GPU continue de progresser, chaque nouvelle génération s’efforçant d’améliorer les performances et l’efficacité, ce qui nécessite des investissements continus en R&D et en innovation technologique. Cependant, cette itération continue de la technologie signifie également une augmentation des coûts de R&D, ainsi qu’une augmentation de la complexité du processus de fabrication.
Outre la question de la capacité de production, le coût des GPU est également une question qui ne peut être ignorée. Pour construire un cluster de calcul GPU capable de prendre en charge le modélisme informatique à grande échelle, il faut non seulement de la technologie, mais aussi un énorme investissement en capital. Même pour un géant de la technologie comme OpenAI, il s’agit d’un fardeau important. Trouver un équilibre entre les coûts et les avantages est un choix difficile.
Si même OpenAI est aux prises avec la pénurie de puissance de calcul, qu’adviendra-t-il des autres entreprises ? Ce n’est pas seulement un défi pour OpenAI, mais aussi un défi pour l’ensemble du secteur de l’IA. Ce à quoi nous assistons, c’est à un énorme changement : un passage de l’informatique traditionnelle à l’informatique pilotée par l’IA. Dans cette transformation, la puissance de calcul est devenue le goulot d’étranglement le plus critique.
Nous ne pouvons pas ignorer le fait que cette pénurie ne s’est pas produite du jour au lendemain, mais qu’elle est le résultat d’un décalage entre les développements technologiques à long terme et la demande du marché. Les contraintes de production, le développement technologique et les problèmes de coût des puces GPU sont multiples, impliquant des chaînes d’approvisionnement mondiales, des innovations technologiques et des modèles économiques. Les exigences élevées en matière de puissance de calcul des applications de modèles volumineux posent des défis sans précédent aux architectures technologiques existantes, obligeant l’ensemble de l’industrie à repenser la façon de concevoir, de construire et d’optimiser les ressources informatiques.
Lorsque l’application B-end sera mise à l’échelle, le problème de la pénurie de puissance de calcul sera plus grave
Il y a une autre question qui est très importante, mais qu’il est facile de négliger.
Lorsque nous parlons de la pénurie de puissance de calcul, nous nous concentrons généralement sur l’expérience utilisateur actuelle du côté C. Cependant, ce n’est que la partie émergée de l’iceberg. Un problème encore plus grave, mais souvent négligé, se cache dans l’échelle des applications de la face B. À l’heure actuelle, bien que les grands modèles comme ChatGPT servent principalement les utilisateurs finaux de C, ce n’est que le début. Avec la croissance et la maturité progressives des applications B-end, nous serons confrontés à une augmentation sans précédent de la demande de puissance de calcul.
Sur le marché chinois, cette tendance commence déjà à émerger. Bien que des produits tels que Baidu Wenxin Yiyan et Ali Tongyi Qianwen soient actuellement principalement destinés aux utilisateurs finaux C, leur exploration des applications B-end est déjà en cours. À l’heure actuelle, la plupart de ces produits sont au stade du développement, mais une fois qu’ils entreront dans la phase commerciale à grande échelle, la situation sera complètement différente. La complexité de l’activité de la face B est beaucoup plus grande que celle de la face C. Du côté C, l’interaction de l’utilisateur avec le système est généralement aussi simple que l’exécution d’une requête ou d’une commande. Sur la face B, cependant, chaque processus métier peut impliquer des processus de traitement, d’analyse et de prise de décision plus complexes en matière de traitement des données. Ces processus nécessitent non seulement plus de ressources de calcul, mais ont également des exigences plus élevées en matière de qualité et de stabilité de la puissance de calcul.
Ce qui est plus remarquable, c’est que la consommation de puissance de calcul des services B-end ne se reflète pas seulement dans la complexité d’une seule interaction, mais aussi dans la fréquence des appels. Sur la face B, l’application de grands modèles a tendance à être continue et à haute fréquence, contrairement à l’interrogation et à l’utilisation occasionnelles sur la face C. Par exemple, dans des secteurs tels que la finance, la santé et la fabrication, les grands modèles doivent traiter en permanence de grandes quantités de données pour fournir une analyse en temps réel et une aide à la décision. Ce type de demande de calcul à haute fréquence et à charge élevée exerce une pression énorme sur la puissance de calcul.
Il est prévisible qu’avec la popularisation des grands modèles de la face B, sa demande de puissance de calcul dépassera rapidement celle de la face C. Ce changement est peut-être subtil, mais son impact est considérable. D’une part, la demande accrue de puissance de calcul stimulera le développement de technologies connexes, telles que des GPU plus efficaces et des architectures de calcul plus optimisées. D’autre part, cela aura également un impact significatif sur l’allocation des ressources, la structure des coûts et le modèle d’affaires de l’industrie dans son ensemble.
Au cours de ce processus, nous pourrions voir certaines entreprises forcées de quitter le marché parce qu’elles ne peuvent pas se permettre ce coût de puissance de calcul, ou nous pourrions voir certaines entreprises se démarquer avec des technologies avancées de gestion et d’optimisation de la puissance de calcul.
La Chine est confrontée à un double goulot d’étranglement en matière de puissance de calcul
À l’échelle mondiale, la pénurie de puissance de calcul est devenue un goulot d’étranglement majeur dans le développement de l’intelligence artificielle, et pour la Chine, ce défi est particulièrement grave. Les entreprises chinoises de modèles réduits à grande échelle doivent faire face non seulement à des pénuries mondiales de puissance de calcul (« catastrophes naturelles »), mais aussi à des contraintes d’approvisionnement uniques sur le marché (« catastrophes d’origine humaine »), ce qui rend les perspectives de développement de la Chine dans le domaine des grands modèles complexes et difficiles.
Nous devons reconnaître les limites des grandes entreprises modèles chinoises en matière de ressources informatiques. Alors que des entreprises telles que Baidu, Alibaba, ByteDance, Tencent et Huawei ont réalisé des réalisations remarquables dans le développement de grands modèles, les défis informatiques auxquels elles sont confrontées sont réels et urgents. À l’heure actuelle, en raison du manque général de développement de l’industrie mondiale des GPU, les entreprises chinoises ont rencontré des obstacles majeurs pour obtenir des ressources informatiques suffisantes. Ce type de problème de type « catastrophe naturelle » est la seule voie pour le développement technologique et la mise à niveau industrielle, et il faut du temps et d’énormes investissements pour le résoudre.
Ce qui est plus délicat, c’est que les entreprises chinoises de modèles à grande échelle sont également confrontées à des « catastrophes causées par l’homme » sur le marché international - en particulier les contraintes d’approvisionnement des géants internationaux tels que Nvidia sur le marché chinois. Cette restriction politique a directement affecté la capacité des entreprises chinoises à obtenir des puces GPU haut de gamme, exacerbant ainsi la pénurie de ressources informatiques. Cette double restriction a sans aucun doute ajouté des incertitudes et des défis supplémentaires au développement des entreprises modèles à grande échelle de la Chine.
À l’heure actuelle, bien que le nombre d’utilisateurs de produits tels que Wenxin Yiyan de Baidu et Tongyi Qianwen d’Alibaba n’ait pas atteint l’échelle des 100 millions de ChatGPT, cela ne signifie pas que les entreprises chinoises peuvent facilement faire face aux défis informatiques existants. Avec le développement de ces produits et l’expansion du marché, en particulier lorsqu’ils commenceront à être largement utilisés sur le marché des B-ends, la demande de puissance de calcul augmentera considérablement. À l’heure actuelle, le problème de la pénurie de puissance de calcul deviendra plus important, ce qui pourrait sérieusement limiter le développement de l’industrie des grands modèles réduits de la Chine.
À long terme, si la Chine ne peut pas faire face efficacement à ce double goulot d’étranglement informatique, alors le développement de son industrie de grands modèles pourrait être limité à un niveau bas. Cela affectera non seulement la compétitivité du marché intérieur, mais limitera également l’influence de la Chine dans le domaine de l’intelligence artificielle à l’échelle mondiale. Par conséquent, la résolution du problème de la pénurie de puissance de calcul est cruciale pour le développement futur de l’industrie chinoise des grands modèles, ce qui n’est pas seulement une question technique, mais aussi une question stratégique, liée à la position et à l’avenir de la Chine dans la compétition mondiale de l’IA.
Au milieu des défis de la double informatique auxquels la Chine est confrontée, il y a eu récemment des signes positifs encourageants, en particulier dans le développement de GPU domestiques. Les principales entreprises technologiques nationales telles que Baidu, Alibaba, 360, etc., ont commencé à coopérer avec des fabricants nationaux de GPU tels que Huawei.
L’essor des GPU nationaux est d’une grande importance pour résoudre le problème de la pénurie de puissance de calcul en Chine. Si ces GPU nationaux peuvent être comparables au leader de l’industrie NVIDIA en termes de performances, et que le goulot d’étranglement au niveau de la fabrication est efficacement résolu, cela apportera des opportunités sans précédent à l’industrie chinoise des grands modèles. Historiquement, une fois qu’une technologie nationale arrive à maturité, elle peut généralement entrer sur le marché à un prix plus compétitif. Cela signifie que si les GPU nationaux peuvent avoir du succès, ils sont susceptibles d’offrir des performances similaires, voire supérieures, à un prix bien inférieur à celui des marques internationales.
Cet avantage en termes de coûts permettra non seulement d’atténuer la pénurie actuelle de puissance de calcul, mais aura également le potentiel de révolutionner le paysage du marché. À l’heure actuelle, le prix élevé des GPU a été un facteur important limitant la popularité et l’application de la technologie des grands modèles. Si les GPU nationaux peuvent fournir une puissance de calcul haute performance à un prix inférieur, cela favorisera considérablement l’application de la technologie des grands modèles dans tous les domaines de la vie et accélérera le développement de la Chine dans le domaine de l’intelligence artificielle.
Plus important encore, ce développement pourrait permettre à la Chine de « transformer la défaite en victoire » dans la course mondiale à l’IA. En termes de puissance de calcul et d’applications de modèles à grande échelle, la Chine pourrait non seulement rattraper son retard, mais même dépasser des pays de premier plan tels que les États-Unis.
Bien sûr, tout cela n’en est qu’au début du développement, et le succès des GPU nationaux doit encore surmonter les défis techniques. Cependant, il y a eu des signes positifs que la Chine a pris des mesures solides sur la voie de l’autonomie informatique. Au cours des prochaines années, nous devrions assister à la maturité et à l’application à grande échelle de la technologie GPU nationale, et à la manière dont elle favorisera le développement rapide de l’industrie chinoise des grands modèles.
En résumé, dans le voyage d’exploration du défi mondial de la pénurie de puissance de calcul, nous avons non seulement été témoins de l’avancement continu des frontières technologiques, mais nous avons également fait l’expérience approfondie des défis complexes auxquels est confronté le développement de l’industrie. De l’histoire d’OpenAI au double dilemme des grandes entreprises chinoises modèles, en passant par l’essor de la technologie GPU nationale, tout cela révèle une vérité fondamentale : la puissance de calcul est devenue une ressource stratégique clé sur la voie du développement futur de l’intelligence artificielle. Il ne s’agit pas seulement d’une compétition au niveau technique, mais aussi d’un investissement et d’une mise en place des forces scientifiques et technologiques mondiales pour l’avenir.
En ce qui concerne l’avenir, avec les progrès technologiques et l’évolution des demandes du marché, nous avons des raisons de croire que le problème de la pénurie de puissance de calcul finira par être résolu. Dans ce processus, l’innovation, la coopération et l’ajustement stratégique seront les thèmes clés auxquels chaque participant devra faire face. En fin de compte, ce défi de la puissance de calcul définira l’avenir de la technologie de l’IA et façonnera notre monde numérique.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
OpenAI est paralysé, la technologie noire de la Chine peut-elle sauver l’IA mondiale ?
Source d’origine : Data Ape
À l’ère du développement technologique rapide, ChatGPT d’OpenAI est sans aucun doute devenu une étoile brillante dans le domaine de l’intelligence artificielle. Cependant, avec l’augmentation du nombre de ses utilisateurs, un problème qui ne peut être ignoré est progressivement apparu : une pénurie de puissance de calcul. Il ne s’agit pas seulement d’un défi pour OpenAI, mais d’un problème pour l’ensemble du secteur de l’IA.
Dans cette analyse approfondie, nous explorerons les causes profondes de la pénurie de puissance de calcul et comment elle affecte le développement de grands modèles et l’avenir de l’industrie. Dans le même temps, nous explorerons également les moyens potentiels de résoudre ce problème, y compris le développement des GPU nationaux et leur impact possible sur le marché mondial.
La pénurie de puissance de calcul a frappé OpenAI
La pénurie de puissance de calcul a toujours été un problème épineux auquel OpenAI doit faire face dans son essor rapide. Récemment, ce problème a pris de l’importance en raison d’un incident très médiatisé. OpenAI a organisé un événement d’exposition à grande échelle surnommé le « Gala du Festival de printemps de la science et de la technologie », présentant les dernières réalisations de sa technologie, qui a attiré une grande attention dans le monde entier. En conséquence, un flot d’utilisateurs a afflué vers la plateforme d’OpenAI, en particulier son produit vedette, ChatGPT.
Cependant, il y a un énorme défi derrière cet engouement. La croissance explosive du nombre d’utilisateurs a rapidement dépassé la capacité de calcul d’OpenAI. Deux jours seulement après la conférence, un fait choquant est apparu : le serveur ChatGPT est tombé en panne. D’innombrables internautes ont signalé qu’ils ne pouvaient pas utiliser normalement les API fournies par ChatGPT et OpenAI.
Face à cette crise, OpenAI a dû prendre une décision qui a choqué le marché : suspendre l’inscription des nouveaux utilisateurs de ChatGPT Plus. Le coût économique de cette décision est énorme, avec 100 millions de nouveaux utilisateurs générant 2 milliards de dollars de revenus par mois pour OpenAI avec un abonnement mensuel de 20 dollars. Un tel avantage potentiel, mais devoir renoncer en raison du manque de puissance de calcul, est sans aucun doute un choix extrêmement passif.
En fait, la pénurie de puissance de calcul n’est pas qu’un phénomène récent. Depuis le lancement de ChatGPT, la question de la puissance de calcul est une ombre persistante. Par exemple, en avril, ChatGPT Plus a également été contraint de suspendre l’achat d’articles payants. Cela se produit de temps en temps, et cela semble être devenu une norme sur la route de la croissance d’OpenAI.
Ces événements révèlent un fait indiscutable : dans le contexte de l’évolution technologique actuelle, la puissance de calcul est devenue un goulot d’étranglement majeur limitant l’innovation technologique de l’IA et l’expansion des applications commerciales. Pour OpenAI, il ne s’agit pas seulement d’un défi technique, mais aussi stratégique. Comment trouver un équilibre entre la demande du marché en pleine expansion et les ressources informatiques limitées est devenu un problème difficile pour OpenAI. Ce défi ne concerne pas seulement les bénéfices à court terme de l’entreprise, mais aussi sa position à long terme sur le marché et son leadership technologique.
La famille du propriétaire n’a pas de surplus de grain
OpenAI a annoncé à plusieurs reprises que la puissance de calcul n’était pas suffisante.
Il faut savoir qu’OpenAI est une entreprise star avec de grands modèles, avec un financement énorme et un grand nombre de ressources informatiques. De plus, il existe également un « père d’or » Microsoft, qui fournit une gamme complète de support de puissance de calcul. Microsoft possède les deuxièmes plus grandes ressources de cloud computing au monde.
De ce point de vue, on peut dire qu’OpenAI est le « propriétaire » de la puissance de calcul. Mais la réalité est que la famille du propriétaire n’a pas de surplus de nourriture. Alors, pourquoi une entreprise avec un financement énorme et un soutien solide comme Microsoft s’est-elle retrouvée dans cette situation difficile ?
Nous devons reconnaître que la demande de puissance de calcul pour les grands modèles est sans précédent. Ces modèles sont basés sur des centaines de milliards de réseaux neuronaux, et chaque calcul est un énorme test de puissance de calcul. En termes simples, nous sommes maintenant confrontés à un tout nouveau niveau de besoins informatiques qui n’ont pas été égalés dans l’histoire du développement logiciel. Les ressources informatiques traditionnelles telles que les CPU ne suffisent pas ici, et le GPU, sur lequel il faut compter, est sans aucun doute la ligne de front de cette révolution technologique.
Le problème avec les GPU, cependant, est qu’ils ne sont pas seulement des produits technologiques émergents, mais qu’ils sont également confrontés au double défi de l’itération de la conception et des contraintes de capacité. Malgré la demande croissante de GPU dans le monde de la technologie, la capacité mondiale de fabrication de puces n’a pas suivi le rythme. Les systèmes existants de fabrication de semi-conducteurs, d’emballage et de test sont principalement conçus autour des processeurs, et pour les GPU émergents, ils ne sont évidemment pas entièrement adaptés. Cela signifie qu’il reste encore un long chemin à parcourir en termes d’augmentation de la capacité des GPU et d’adaptation aux nouveaux besoins technologiques.
La technologie GPU continue de progresser, chaque nouvelle génération s’efforçant d’améliorer les performances et l’efficacité, ce qui nécessite des investissements continus en R&D et en innovation technologique. Cependant, cette itération continue de la technologie signifie également une augmentation des coûts de R&D, ainsi qu’une augmentation de la complexité du processus de fabrication.
Outre la question de la capacité de production, le coût des GPU est également une question qui ne peut être ignorée. Pour construire un cluster de calcul GPU capable de prendre en charge le modélisme informatique à grande échelle, il faut non seulement de la technologie, mais aussi un énorme investissement en capital. Même pour un géant de la technologie comme OpenAI, il s’agit d’un fardeau important. Trouver un équilibre entre les coûts et les avantages est un choix difficile.
Si même OpenAI est aux prises avec la pénurie de puissance de calcul, qu’adviendra-t-il des autres entreprises ? Ce n’est pas seulement un défi pour OpenAI, mais aussi un défi pour l’ensemble du secteur de l’IA. Ce à quoi nous assistons, c’est à un énorme changement : un passage de l’informatique traditionnelle à l’informatique pilotée par l’IA. Dans cette transformation, la puissance de calcul est devenue le goulot d’étranglement le plus critique.
Nous ne pouvons pas ignorer le fait que cette pénurie ne s’est pas produite du jour au lendemain, mais qu’elle est le résultat d’un décalage entre les développements technologiques à long terme et la demande du marché. Les contraintes de production, le développement technologique et les problèmes de coût des puces GPU sont multiples, impliquant des chaînes d’approvisionnement mondiales, des innovations technologiques et des modèles économiques. Les exigences élevées en matière de puissance de calcul des applications de modèles volumineux posent des défis sans précédent aux architectures technologiques existantes, obligeant l’ensemble de l’industrie à repenser la façon de concevoir, de construire et d’optimiser les ressources informatiques.
Lorsque l’application B-end sera mise à l’échelle, le problème de la pénurie de puissance de calcul sera plus grave
Il y a une autre question qui est très importante, mais qu’il est facile de négliger.
Lorsque nous parlons de la pénurie de puissance de calcul, nous nous concentrons généralement sur l’expérience utilisateur actuelle du côté C. Cependant, ce n’est que la partie émergée de l’iceberg. Un problème encore plus grave, mais souvent négligé, se cache dans l’échelle des applications de la face B. À l’heure actuelle, bien que les grands modèles comme ChatGPT servent principalement les utilisateurs finaux de C, ce n’est que le début. Avec la croissance et la maturité progressives des applications B-end, nous serons confrontés à une augmentation sans précédent de la demande de puissance de calcul.
Sur le marché chinois, cette tendance commence déjà à émerger. Bien que des produits tels que Baidu Wenxin Yiyan et Ali Tongyi Qianwen soient actuellement principalement destinés aux utilisateurs finaux C, leur exploration des applications B-end est déjà en cours. À l’heure actuelle, la plupart de ces produits sont au stade du développement, mais une fois qu’ils entreront dans la phase commerciale à grande échelle, la situation sera complètement différente. La complexité de l’activité de la face B est beaucoup plus grande que celle de la face C. Du côté C, l’interaction de l’utilisateur avec le système est généralement aussi simple que l’exécution d’une requête ou d’une commande. Sur la face B, cependant, chaque processus métier peut impliquer des processus de traitement, d’analyse et de prise de décision plus complexes en matière de traitement des données. Ces processus nécessitent non seulement plus de ressources de calcul, mais ont également des exigences plus élevées en matière de qualité et de stabilité de la puissance de calcul.
Ce qui est plus remarquable, c’est que la consommation de puissance de calcul des services B-end ne se reflète pas seulement dans la complexité d’une seule interaction, mais aussi dans la fréquence des appels. Sur la face B, l’application de grands modèles a tendance à être continue et à haute fréquence, contrairement à l’interrogation et à l’utilisation occasionnelles sur la face C. Par exemple, dans des secteurs tels que la finance, la santé et la fabrication, les grands modèles doivent traiter en permanence de grandes quantités de données pour fournir une analyse en temps réel et une aide à la décision. Ce type de demande de calcul à haute fréquence et à charge élevée exerce une pression énorme sur la puissance de calcul.
Il est prévisible qu’avec la popularisation des grands modèles de la face B, sa demande de puissance de calcul dépassera rapidement celle de la face C. Ce changement est peut-être subtil, mais son impact est considérable. D’une part, la demande accrue de puissance de calcul stimulera le développement de technologies connexes, telles que des GPU plus efficaces et des architectures de calcul plus optimisées. D’autre part, cela aura également un impact significatif sur l’allocation des ressources, la structure des coûts et le modèle d’affaires de l’industrie dans son ensemble.
Au cours de ce processus, nous pourrions voir certaines entreprises forcées de quitter le marché parce qu’elles ne peuvent pas se permettre ce coût de puissance de calcul, ou nous pourrions voir certaines entreprises se démarquer avec des technologies avancées de gestion et d’optimisation de la puissance de calcul.
La Chine est confrontée à un double goulot d’étranglement en matière de puissance de calcul
À l’échelle mondiale, la pénurie de puissance de calcul est devenue un goulot d’étranglement majeur dans le développement de l’intelligence artificielle, et pour la Chine, ce défi est particulièrement grave. Les entreprises chinoises de modèles réduits à grande échelle doivent faire face non seulement à des pénuries mondiales de puissance de calcul (« catastrophes naturelles »), mais aussi à des contraintes d’approvisionnement uniques sur le marché (« catastrophes d’origine humaine »), ce qui rend les perspectives de développement de la Chine dans le domaine des grands modèles complexes et difficiles.
Nous devons reconnaître les limites des grandes entreprises modèles chinoises en matière de ressources informatiques. Alors que des entreprises telles que Baidu, Alibaba, ByteDance, Tencent et Huawei ont réalisé des réalisations remarquables dans le développement de grands modèles, les défis informatiques auxquels elles sont confrontées sont réels et urgents. À l’heure actuelle, en raison du manque général de développement de l’industrie mondiale des GPU, les entreprises chinoises ont rencontré des obstacles majeurs pour obtenir des ressources informatiques suffisantes. Ce type de problème de type « catastrophe naturelle » est la seule voie pour le développement technologique et la mise à niveau industrielle, et il faut du temps et d’énormes investissements pour le résoudre.
Ce qui est plus délicat, c’est que les entreprises chinoises de modèles à grande échelle sont également confrontées à des « catastrophes causées par l’homme » sur le marché international - en particulier les contraintes d’approvisionnement des géants internationaux tels que Nvidia sur le marché chinois. Cette restriction politique a directement affecté la capacité des entreprises chinoises à obtenir des puces GPU haut de gamme, exacerbant ainsi la pénurie de ressources informatiques. Cette double restriction a sans aucun doute ajouté des incertitudes et des défis supplémentaires au développement des entreprises modèles à grande échelle de la Chine.
À l’heure actuelle, bien que le nombre d’utilisateurs de produits tels que Wenxin Yiyan de Baidu et Tongyi Qianwen d’Alibaba n’ait pas atteint l’échelle des 100 millions de ChatGPT, cela ne signifie pas que les entreprises chinoises peuvent facilement faire face aux défis informatiques existants. Avec le développement de ces produits et l’expansion du marché, en particulier lorsqu’ils commenceront à être largement utilisés sur le marché des B-ends, la demande de puissance de calcul augmentera considérablement. À l’heure actuelle, le problème de la pénurie de puissance de calcul deviendra plus important, ce qui pourrait sérieusement limiter le développement de l’industrie des grands modèles réduits de la Chine.
À long terme, si la Chine ne peut pas faire face efficacement à ce double goulot d’étranglement informatique, alors le développement de son industrie de grands modèles pourrait être limité à un niveau bas. Cela affectera non seulement la compétitivité du marché intérieur, mais limitera également l’influence de la Chine dans le domaine de l’intelligence artificielle à l’échelle mondiale. Par conséquent, la résolution du problème de la pénurie de puissance de calcul est cruciale pour le développement futur de l’industrie chinoise des grands modèles, ce qui n’est pas seulement une question technique, mais aussi une question stratégique, liée à la position et à l’avenir de la Chine dans la compétition mondiale de l’IA.
Au milieu des défis de la double informatique auxquels la Chine est confrontée, il y a eu récemment des signes positifs encourageants, en particulier dans le développement de GPU domestiques. Les principales entreprises technologiques nationales telles que Baidu, Alibaba, 360, etc., ont commencé à coopérer avec des fabricants nationaux de GPU tels que Huawei.
L’essor des GPU nationaux est d’une grande importance pour résoudre le problème de la pénurie de puissance de calcul en Chine. Si ces GPU nationaux peuvent être comparables au leader de l’industrie NVIDIA en termes de performances, et que le goulot d’étranglement au niveau de la fabrication est efficacement résolu, cela apportera des opportunités sans précédent à l’industrie chinoise des grands modèles. Historiquement, une fois qu’une technologie nationale arrive à maturité, elle peut généralement entrer sur le marché à un prix plus compétitif. Cela signifie que si les GPU nationaux peuvent avoir du succès, ils sont susceptibles d’offrir des performances similaires, voire supérieures, à un prix bien inférieur à celui des marques internationales.
Cet avantage en termes de coûts permettra non seulement d’atténuer la pénurie actuelle de puissance de calcul, mais aura également le potentiel de révolutionner le paysage du marché. À l’heure actuelle, le prix élevé des GPU a été un facteur important limitant la popularité et l’application de la technologie des grands modèles. Si les GPU nationaux peuvent fournir une puissance de calcul haute performance à un prix inférieur, cela favorisera considérablement l’application de la technologie des grands modèles dans tous les domaines de la vie et accélérera le développement de la Chine dans le domaine de l’intelligence artificielle.
Plus important encore, ce développement pourrait permettre à la Chine de « transformer la défaite en victoire » dans la course mondiale à l’IA. En termes de puissance de calcul et d’applications de modèles à grande échelle, la Chine pourrait non seulement rattraper son retard, mais même dépasser des pays de premier plan tels que les États-Unis.
Bien sûr, tout cela n’en est qu’au début du développement, et le succès des GPU nationaux doit encore surmonter les défis techniques. Cependant, il y a eu des signes positifs que la Chine a pris des mesures solides sur la voie de l’autonomie informatique. Au cours des prochaines années, nous devrions assister à la maturité et à l’application à grande échelle de la technologie GPU nationale, et à la manière dont elle favorisera le développement rapide de l’industrie chinoise des grands modèles.
En résumé, dans le voyage d’exploration du défi mondial de la pénurie de puissance de calcul, nous avons non seulement été témoins de l’avancement continu des frontières technologiques, mais nous avons également fait l’expérience approfondie des défis complexes auxquels est confronté le développement de l’industrie. De l’histoire d’OpenAI au double dilemme des grandes entreprises chinoises modèles, en passant par l’essor de la technologie GPU nationale, tout cela révèle une vérité fondamentale : la puissance de calcul est devenue une ressource stratégique clé sur la voie du développement futur de l’intelligence artificielle. Il ne s’agit pas seulement d’une compétition au niveau technique, mais aussi d’un investissement et d’une mise en place des forces scientifiques et technologiques mondiales pour l’avenir.
En ce qui concerne l’avenir, avec les progrès technologiques et l’évolution des demandes du marché, nous avons des raisons de croire que le problème de la pénurie de puissance de calcul finira par être résolu. Dans ce processus, l’innovation, la coopération et l’ajustement stratégique seront les thèmes clés auxquels chaque participant devra faire face. En fin de compte, ce défi de la puissance de calcul définira l’avenir de la technologie de l’IA et façonnera notre monde numérique.