Si vous construisez un outil d'IA comme ChatGPT et que vous n'avez pas de mesures de sécurité pour ARRÊTER la simulation et le comportement de yes-man lorsque un utilisateur vous dit qu'il prévoit de se faire du mal ou de faire du mal à autrui, vous avez échoué. Cela devrait être en haut de la liste des priorités.