ChatGPT peut également être utilisé pour créer des noyaux, parlez simplement anglais ? !

Organiser | Tu Min

Liste | CSDN (ID : CSDNnews)

ChatGPT est-il vraiment génial ?

Des chercheurs de la Tandon School of Engineering de l'Université de New York ont publié un article "Chip-Chat : Challenges and Opportunities in Conversational Hardware Design", répondant par des expériences : Oui, ChatGPT est en effet plus puissant !

Juste en discutant avec ChatGPT dans un langage simple et naturel, une puce à microprocesseur a été produite. Ce qui est plus remarquable, c'est qu'avec l'aide de ChatGPT, ce composant de puce est non seulement conçu, mais peut également être fabriqué après des tests de base.

"Il s'agit d'une réalisation sans précédent qui peut accélérer le développement de puces et permettre à des personnes sans compétences techniques spécialisées de concevoir des puces", a commenté l'Université de New York.

Alors, l'ère du "core-making" par tout le peuple arrive-t-elle vraiment ? Ici, autant regarder comment les chercheurs ont procédé.

L'application des grands modèles d'IA, le domaine matériel est en retard sur le logiciel

Dans l'article, les chercheurs ont souligné que la conception de matériel moderne commence par les spécifications fournies par le langage naturel, telles que les exigences de document en anglais, puis les ingénieurs en matériel utilisent des langages de description de matériel (HDL) tels que Verilog pour construire les exigences avec du code pour compléter la conception interne de la puce, et enfin synthétisé en composants de circuit.

Eh bien, lorsque l'ère de l'AIGC arrive, comme ChatGPT d'OpenAI et Bard de Google prétendent pouvoir générer du code, et de nombreux développeurs les ont utilisés pour créer un site Web après l'autre, mais la portée actuelle de l'application est principalement axée sur le domaine logiciel ., si ces outils AIGC peuvent remplacer le travail de "traduction" (conversion des exigences documentaires en code) des ingénieurs hardware.

Sur cette base, les chercheurs ont utilisé huit repères représentatifs pour étudier les capacités et les limites des LLM de pointe lors de la génération de l'écriture du langage de description du matériel lui-même.

## Principes et règles des tests

Dans l'expérience, les chercheurs ont utilisé ChatGPT comme un système de reconnaissance de formes (agissant comme un être humain), qui peut être librement converti dans différents types de langages (oral, écrit). En même temps, ChatGPT permet aux ingénieurs en matériel d'ignorer le Stade HDL.

Le processus de vérification global est illustré dans la figure ci-dessous :

En détail, l'ingénieur matériel fournit d'abord des conseils initiaux au grand modèle, le laisse créer un modèle Verilog, puis fournit des informations spécifiques sur l'entrée et la sortie. Enfin, l'ingénieur matériel effectue une évaluation visuelle de la conception de sortie pour déterminer si elle répond aux spécifications de conception de base.

Si une conception ne répond pas aux spécifications, elle est générée cinq fois de plus avec la même invite. S'il ne répond toujours pas aux spécifications, il échoue.

Une fois les conceptions et les cas de test rédigés, ils sont compilés avec Icarus Verilog (iverilog, l'un des outils d'implémentation du langage de description de matériel Verilog). Si la compilation réussit, la simulation est effectuée. Si aucune erreur n'est signalée, la conception passe, No Feedback Required (NFN).

Si des erreurs sont signalées par l'une de ces opérations, elles sont renvoyées dans le modèle et invitées à "veuillez fournir un correctif", c'est ce qu'on appelle le retour d'outil (TF). Si la même erreur ou le même type d'erreur se produit trois fois, l'utilisateur donne une rétroaction humaine simple (SHF), généralement en indiquant quel type de problème dans Verilog a causé l'erreur (par exemple : erreur de syntaxe dans une déclaration).

Une rétroaction humaine modérée (MHF) est donnée si les erreurs persistent, et des informations légèrement plus directes sont fournies aux outils pour identifier des erreurs spécifiques.

Si le bogue persiste, Advanced Human Feedback (AHF) est donné, qui repose sur la localisation exacte du bogue et sur la manière de le corriger.

Une fois la conception compilée et simulée, sans cas de test défaillant, elle est considérée comme réussie.

Mais si les commentaires de haut niveau ne corrigent pas le bogue, ou si l'utilisateur doit écrire du code Verilog pour résoudre le bogue, le test est considéré comme ayant échoué. Le test est également considéré comme ayant échoué si la session dépasse 25 messages, respectant la limite de débit OpenAI de messages ChatGPT-4 par 3 heures.

Bard et HuggingChat se sont écrasés lors de la première série de tests

Dans l'expérience spécifique, les chercheurs ont effectué un test de référence pour un registre à décalage 8 bits.

Ils demandent au grand modèle d'essayer de créer un modèle Verilog pour un "nom de test", puis fournissent la spécification, définissant les ports d'entrée et de sortie et tous les détails supplémentaires nécessaires, et demandent en outre au grand modèle "Comment pourrais-je écrire une conception pour répondre à ces spécifications ? »

Dans le même temps, les chercheurs ont aussi directement laissé le grand modèle générer la conception du banc d'essai :

Pouvez-vous écrire un banc d'essai Verilog pour cette conception ? Le banc d'essai doit avoir des capacités d'auto-test et pouvoir être utilisé avec iverilog pour la simulation et la vérification. Si un cas de test échoue, le banc de test doit être en mesure de fournir suffisamment d'informations pour que l'erreur puisse être trouvée et résolue.

De plus, les chercheurs ont obtenu le contenu de sortie basé sur les quatre grands modèles de ChatGPT-4, ChatGPT-3.5, Bard et HuggingChat :

Les résultats finaux ont montré que les deux modèles ChatGPT étaient capables de répondre aux spécifications et le processus de conception a commencé. Cependant, Bard et HuggingChat n'ont pas répondu aux critères initiaux de la spécification.

Bien que suivant le processus de test mentionné ci-dessus, les chercheurs ont demandé au grand modèle de régénérer les réponses cinq fois de plus sur la base des invites initiales de Bard et HuggingChat, après de nombreux tours, les deux modèles ont échoué. Parmi eux, Bard ne peut pas toujours respecter les spécifications de conception données, et la sortie Verilog de HuggingChat commence à être incorrecte après la définition du module.

Compte tenu des mauvaises performances de Bard et HuggingChat sur les invites de base du défi initial, les chercheurs ont décidé de poursuivre avec des tests complets uniquement sur ChatGPT-4 et ChatGPT-3.5.

Concours ChatGPT-4 et ChatGPT-3.5

La figure ci-dessous montre les résultats de référence de ChatGPT-4 et ChatGPT-3.5. Il est évident que les performances de ChatGPT-3.5 sont légèrement inférieures à celles de ChatGPT-4. Les conversations sont toutes incompatibles.

En revanche, ChatGPT-4 a encore mieux performé, passant la plupart des tests de performance, dont la plupart ne nécessitaient que des commentaires sur les outils. Dans la conception de bancs d'essai, cependant, la rétroaction humaine est toujours nécessaire.

## ChatGPT-4 est associé à des ingénieurs matériels pour développer ensemble des puces

Pour explorer le potentiel de LLM, les chercheurs ont également associé des ingénieurs en conception matérielle à ChatGPT-4 pour concevoir un microprocesseur basé sur un accumulateur 8 bits.

L'invite initiale pour ChatGPT-4 ressemble à ceci :

Faisons ensemble une toute nouvelle conception de microprocesseur... Je pense que nous devons nous limiter à une architecture d'accumulateur 8 bits, pas d'instructions multi-octets. Cela étant, comment pensez-vous que nous devrions commencer ?

Compte tenu des contraintes d'espace, les chercheurs ont visé une conception de type von Neumann utilisant 32 octets de mémoire (données et instructions combinées).

En fin de compte, ChatGPT-4 a travaillé avec des ingénieurs en matériel pour concevoir une nouvelle architecture de microprocesseur basée sur un accumulateur 8 bits. Le processeur est construit sur un processus Skywater 130 nm, ce qui signifie que ces "Chip-Chats" implémentent ce que nous pensons être le premier HDL au monde entièrement écrit par intelligence artificielle.

Chemin de données basé sur un accumulateur pour la conception GPT-4 (dessiné par des humains)

Dans l'article, les chercheurs ont conclu que ChatGPT-4 produisait un code de relativement haute qualité, comme en témoigne le court délai de validation. Compte tenu de la limite de débit de ChatGPT-4 de 25 messages par 3 heures, le budget temps total pour cette conception est de 22,8 heures de ChatGPT-4 (y compris le redémarrage). La génération réelle de chaque message prenait en moyenne environ 30 secondes : sans limitation de débit, l'ensemble de la conception aurait pu être achevé en moins de 100 minutes, selon l'ingénieur humain. Bien que ChatGPT-4 ait généré l'assembleur Python avec une relative facilité, il était difficile d'écrire des programmes pour notre conception, et ChatGPT n'a écrit aucun programme de test significatif.

Dans l'ensemble, les chercheurs ont exécuté les 24 instructions d'une série complète de programmes d'assemblage écrits par l'homme évalués en simulation et en simulation FPGA.

ChatGPT peut économiser le cycle de développement de la puce

"Cette recherche a produit ce que nous pensons être le premier HDL entièrement généré par l'IA pour la fabrication de puces physiques", a déclaré le Dr Hammond Pearce, professeur assistant de recherche à NYU Tandon et membre de l'équipe de recherche. "Certains modèles d'intelligence artificielle, tels que ChatGPT d'OpenAI et Bard de Google, peuvent générer du code logiciel dans différents langages de programmation, mais leur utilisation dans la conception de matériel n'a pas été largement étudiée. Cette étude montre que l'IA peut également bénéficier à la fabrication de matériel, en particulier. utilisé dans la conversation que vous pouvez faire des allers-retours pour affiner le design.

En cours de route, cependant, les chercheurs doivent également tester et aborder les considérations de sécurité impliquées dans l'utilisation de l'IA pour la conception de puces.

Dans l'ensemble, bien que ChatGPT ne soit pas un outil logiciel automatisé spécifiquement pour le domaine du matériel, il peut devenir un outil auxiliaire EDA et aider les concepteurs EDA à réduire considérablement le seuil de connaissances.

Les chercheurs affirment également que si elle est mise en œuvre dans un environnement réel, l'utilisation de modèles LLM dans la fabrication de puces pourrait réduire les erreurs humaines lors de la conversion HDL, aider à augmenter la productivité, réduire le temps de conception et le délai de mise sur le marché, et permettre des conceptions plus créatives. . En fait, rien que pour cela, ChatGPT est digne d'être utilisé par les ingénieurs en matériel pour participer à davantage de tentatives et d'explorations dans le domaine du matériel.

Pour un processus de test plus détaillé, consultez l'article :

référence:

Voir l'original
Le contenu est fourni à titre de référence uniquement, il ne s'agit pas d'une sollicitation ou d'une offre. Aucun conseil en investissement, fiscalité ou juridique n'est fourni. Consultez l'Avertissement pour plus de détails sur les risques.
  • Récompense
  • Commentaire
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate.io app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • ไทย
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)