Se você está construindo uma ferramenta de IA como o ChatGPT e não tem salvaguardas para PARAR a simulação e o comportamento do yes-man quando um usuário diz que está planejando prejudicar a si mesmo ou a outras pessoas, você falhou. Isso deve estar no topo da lista de prioridades.