Les chercheurs expliquent que les hallucinations proviennent d’une erreur de classification binaire, lorsque les LLM classent les nouvelles observations dans l’une des deux catégories.
La raison pour laquelle les hallucinations persistent est que les LLM sont « optimisés pour être de bons examinateurs et deviner en cas d’incertitude améliore la performance de l’examen », selon le rapport.
Cliquez ici pour lire l’article
OpenAI explique pourquoi l’IA invente parfois des choses plutôt que de dire : « je n’en sais rien » …

