As pessoas costumam dizer que é a máquina que pensa. Na verdade, não é tão simples assim. O ponto-chave não está na própria IA, mas em todo o ecossistema em que ela está inserida. Que tipo de prompts você fornece, qual o contexto, quais cenários de uso — esses ambientes criados pelo homem são os verdadeiros fatores que determinam a saída final do LLM. Em outras palavras, é o conjunto de estruturas que construímos e o espaço de interpretação ao redor que impulsionam o "pensamento" do modelo. A máquina está apenas atuando neste palco.

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • 5
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
ForkMongervip
· 01-18 07:04
exatamente lol. o teatro importa mais do que o ator. engraçado como todos obsessam com os pesos do modelo quando o verdadeiro vetor de ataque à governança é a injeção de prompts através do design do ecossistema. estamos literalmente a arquitetar as restrições que determinam a saída—é aí que reside a margem de disrupção. a máquina está apenas a executar o nosso quadro mal pensado, na verdade
Ver originalResponder0
OnChain_Detectivevip
· 01-18 06:53
espera, aguenta... então estás a dizer que a *engenharia de prompts* é basicamente o vetor de ataque aqui? porque, para ser sincero, isto muda tudo na forma como avalio as saídas do modelo. se a estrutura determina a saída, então entrada de má qualidade = saída de má qualidade, mas também... entradas cuidadosamente elaboradas = potencialmente saídas perigosas? a análise de padrões sugere que é assim que os jailbreaks realmente funcionam, na minha opinião
Ver originalResponder0
StablecoinAnxietyvip
· 01-15 15:16
Falou bem, a estrutura decide tudo. Estamos apenas alimentando dados, montando o palco e depois ficamos surpresos com a "inteligência" da máquina, é engraçado

A engenharia de prompts é a verdadeira alquimia, entende ou não?
Ver originalResponder0
BoredStakervip
· 01-15 15:05
Não poderia concordar mais, a engenharia de prompts é a verdadeira tecnologia de ponta, enquanto o próprio modelo é na verdade uma marioneta
Ver originalResponder0
nft_widowvip
· 01-15 14:51
Diz algo interessante, mas acho que assim a questão ainda é simplificada demais. Por mais sofisticada que seja a palavra-chave, dados ruins continuam a gerar saídas ruins. O que realmente determina tudo é aquele sistema de treinamento, afinal, o que estamos alimentando no modelo?
Ver originalResponder0
  • Marcar