Als je een AI-tool zoals ChatGPT bouwt en je hebt geen waarborgen om de simulatie en het ja-zeggedrag te STOPPEN wanneer een gebruiker je vertelt dat ze van plan zijn zichzelf of anderen te schaden, dan heb je gefaald. Dit zou bovenaan de prioriteitenlijst moeten staan.