OpenAI explique pourquoi l’IA invente parfois des choses plutôt que de dire : « je n’en sais rien » …

OpenAI explique pourquoi l’IA invente parfois des choses plutôt que de dire : « je n’en sais rien » ...

Les chercheurs expliquent que les hallucinations proviennent d’une erreur de classification binaire, lorsque les LLM classent les nouvelles observations dans l’une des deux catégories.
La raison pour laquelle les hallucinations persistent est que les LLM sont « optimisés pour être de bons examinateurs et deviner en cas d’incertitude améliore la performance de l’examen », selon le rapport.
Cliquez ici pour lire l’article