Om du bygger ett AI-verktyg som ChatGPT och inte har några skyddsåtgärder för att STOPPA simuleringen och ja-sägares beteende när en användare berättar för dig att de planerar att skada sig själva eller andra, har du misslyckats. Detta bör stå högst upp på prioriteringslistan.