Ce document d'OpenAI contient des explications très convaincantes sur les raisons pour lesquelles les hallucinations persistent et ce qu'il faut faire à ce sujet. Plus précisément, après l'entraînement, nous devrions cesser de pénaliser les modèles pour avoir déclaré qu'ils ne connaissent pas la réponse, et arrêter de récompenser les devinettes trop confiantes. Éliminer les hallucinations serait l'une des plus grandes améliorations de l'IA pour des cas d'utilisation en entreprise tels que le droit, la finance, la santé et de nombreux autres domaines à forte valeur ajoutée. Ce serait un événement très important si nous pouvons continuer à faire des progrès significatifs dans ce domaine.
49,55K