Les grands modèles de langage peuvent déduire automatiquement une structure sans orientation explicite — c'est un problème qu'il faut prendre en compte. Si vous adhérez à cette prémisse, ne pas fournir un cadre d'orientation approprié n'est pas une démarche neutre. En réalité, cela revient à introduire délibérément un facteur de risque éthique variable. La conception des mesures de sécurité du système, la manière d'établir des mécanismes de contrainte raisonnables pour le comportement de l'IA, tout cela concerne la crédibilité à long terme de l'application technologique.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
15 J'aime
Récompense
15
6
Reposter
Partager
Commentaire
0/400
LightningSentry
· Il y a 19h
Ne pas fournir de cadre d'orientation = poser une bombe déguisée ? Je dois réfléchir à cette logique
Voir l'originalRépondre0
CryptoCross-TalkClub
· 01-19 16:26
Mort de rire, c'est comme laisser les petits investisseurs choisir eux-mêmes comment se faire couper
---
Quand l'IA n'est pas contrôlée, elle fait des suppositions à la va-vite, en quoi cela diffère-t-il d'un projet qui ne publie pas de white paper ?
---
En gros, c'est la faute à la "neutralité", alors qu'en réalité, c'est pour faire des bêtises
---
Donc, il faut construire soi-même le cadre de sécurité, mais pourquoi cette tâche ressemble-t-elle autant à la gestion des risques dans la crypto ?
---
Une IA sans mécanisme de contrainte, c'est comme un levier sans stop-loss, le résultat est toujours aussi catastrophique
---
J'adore cette logique, "ne pas guider" c'est aussi guider, ça a cette saveur, mes amis
---
Risques éthiques ? Frère, tu parles du grand modèle ou de certains projets en particulier ?
Voir l'originalRépondre0
digital_archaeologist
· 01-18 11:44
Ne pas fournir le cadre lui-même est déjà un cadre, cette logique est géniale
Voir l'originalRépondre0
TokenAlchemist
· 01-18 11:43
non, ce n'est qu'un problème d'encadrement déguisé en discours éthique... les modèles de langage vont déduire des schémas quoi qu'il en soit, le vrai alpha c'est comprendre *quels* vecteurs d'inférence comptent pour votre cas d'utilisation, et pas faire semblant que les mécanismes de contrainte sont neutres lol
Voir l'originalRépondre0
PhantomHunter
· 01-18 11:39
Honnêtement, cette logique selon laquelle "la neutralité est la sécurité" est en soi infondée.
Les grands modèles de langage peuvent déduire automatiquement une structure sans orientation explicite — c'est un problème qu'il faut prendre en compte. Si vous adhérez à cette prémisse, ne pas fournir un cadre d'orientation approprié n'est pas une démarche neutre. En réalité, cela revient à introduire délibérément un facteur de risque éthique variable. La conception des mesures de sécurité du système, la manière d'établir des mécanismes de contrainte raisonnables pour le comportement de l'IA, tout cela concerne la crédibilité à long terme de l'application technologique.