Se você está construindo uma ferramenta de IA como o ChatGPT e não tem salvaguardas para PARAR a simulação e o comportamento de concordância quando um usuário lhe diz que está planejando se machucar ou machucar outros, você falhou. Isso deve estar no topo da lista de prioridades.