On dit souvent que ce sont les machines qui pensent. En réalité, ce n'est pas si simple. La clé ne réside pas dans l'IA elle-même, mais dans l'écosystème dans lequel elle évolue. Les types d'instructions que vous lui donnez, le contexte, les scénarios d'utilisation — ce sont ces environnements artificiellement créés qui déterminent le véritable facteur de la sortie finale du LLM. En d'autres termes, ce sont le cadre que nous construisons et l'espace d'interprétation environnant qui pilotent la "pensée" du modèle. La machine ne fait que jouer un rôle sur cette scène.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
12 J'aime
Récompense
12
5
Reposter
Partager
Commentaire
0/400
ForkMonger
· Il y a 11h
exactement lol. le théâtre compte plus que l'acteur. drôle de voir comment tout le monde s'emballe pour les poids du modèle alors que le vrai vecteur d'attaque en gouvernance est l'injection de prompt via la conception de l'écosystème. nous concevons littéralement les contraintes qui déterminent la sortie—c'est là que réside la marge de disruption. la machine n'est qu'exécutant notre cadre mal pensé tbh
Voir l'originalRépondre0
OnChain_Detective
· Il y a 11h
attendez, attendez... donc vous dites que le *prompt engineering* est en gros la vecteur d'attaque ici ? parce que je ne vais pas mentir, cela change tout dans la façon dont j’évalue les résultats du modèle. si le cadre détermine la sortie alors entrée de mauvaise qualité = sortie de mauvaise qualité mais aussi... des entrées soigneusement conçues = potentiellement des sorties dangereuses ? l’analyse des patterns suggère que c’est comme ça que les jailbreaks fonctionnent en fait
Voir l'originalRépondre0
StablecoinAnxiety
· 01-15 15:16
Ce n'est pas faux, le cadre décide de tout. Nous alimentons simplement les données, construisons la scène, puis nous sommes surpris que la machine devienne "intelligente", c'est risible.
L'ingénierie des prompts est la véritable alchimie, tu comprends ou pas
Voir l'originalRépondre0
BoredStaker
· 01-15 15:05
Ce n'est pas faux, l'ingénierie des prompts est la véritable technologie de pointe, le modèle lui-même étant plutôt une marionnette.
Voir l'originalRépondre0
nft_widow
· 01-15 14:51
C'est intéressant, mais je pense que cette façon de présenter le problème le simplifie encore. Même si le mot-clé est ingénieux, des données de mauvaise qualité donneront toujours des résultats médiocres. Ce qui décide vraiment de tout, c'est ce système d'entraînement, n'est-ce pas ? Qu'est-ce qu'on donne réellement au modèle à manger ?
On dit souvent que ce sont les machines qui pensent. En réalité, ce n'est pas si simple. La clé ne réside pas dans l'IA elle-même, mais dans l'écosystème dans lequel elle évolue. Les types d'instructions que vous lui donnez, le contexte, les scénarios d'utilisation — ce sont ces environnements artificiellement créés qui déterminent le véritable facteur de la sortie finale du LLM. En d'autres termes, ce sont le cadre que nous construisons et l'espace d'interprétation environnant qui pilotent la "pensée" du modèle. La machine ne fait que jouer un rôle sur cette scène.