Si estás construyendo una herramienta de IA como ChatGPT y no tienes salvaguardias para DETENER la simulación y el comportamiento de complacencia cuando un usuario te dice que planea hacerse daño a sí mismo o a otros, has fallado. Esto debería estar en la parte superior de la lista de prioridades.