A OpenAI publicou um novo artigo de pesquisa, afirmando que mesmo que modelos de linguagem de grande escala (LLM) como o GPT-5 tenham avançado consideravelmente, as "alucinações de IA" (Hallucinations) continuam a ser um problema fundamental, que pode nunca ser completamente eliminado. A equipe de pesquisa, através de experimentos, revelou que o modelo, ao responder a perguntas específicas, pode ficar muito confiante, mas fornece respostas completamente erradas, e propôs um novo esquema de "mecanismo de avaliação" com o objetivo de reduzir a situação de "adivinhações" do modelo.
Os pesquisadores testaram diferentes questões do modelo de IA, e todas as respostas estavam erradas.
Os investigadores perguntaram a um chatbot amplamente utilizado sobre o título de uma tese de doutoramento, e receberam três respostas consecutivas, todas erradas. Em seguida, perguntaram-lhe a sua data de nascimento, e o chatbot também deu três datas diferentes, todas igualmente erradas.
Estudos mostram que modelos de IA têm dificuldade quando confrontados com "informações muito raras" em alguns dados.