Si está construyendo una herramienta de IA como ChatGPT y no tiene salvaguardas para DETENER la simulación y el comportamiento de sí cuando un usuario le dice que planea hacerse daño a sí mismo o a otros, ha fallado. Esto debería estar en la parte superior de la lista de prioridades.