Hvis du bygger et AI-verktøy som ChatGPT og du ikke har sikkerhetstiltak for å STOPPE simuleringen og ja-mann-oppførselen når en bruker forteller deg at de planlegger å skade seg selv eller andre, har du mislyktes. Dette bør stå helt øverst på prioriteringslisten.