No dia 5 de setembro de 2025, a OpenAI divulgou um estudo inovador chamado “Why language models hallucinate”. O trabalho mostra que parte das respostas falsas (“alucinações”) do ChatGPT ocorre porque os modelos são treinados para dar respostas com confiança mesmo quando não têm certeza, um reflexo do próprio processo estatístico de avaliação.
Essa descoberta ajuda a entender como a IA funciona e abre caminho para novas estratégias que tornem os sistemas mais transparentes e confiáveis para empresas e usuários.
🔗Fonte: OpenAI – estudo “Why language models hallucinate” disponível no site oficial.
Informações nacionais e internacionais.


















