Wenn Sie ein AI-Tool wie ChatGPT entwickeln und keine Sicherheitsvorkehrungen haben, um die Simulation und das Ja-Sager-Verhalten zu STOPPEN, wenn ein Benutzer Ihnen mitteilt, dass er plant, sich selbst oder anderen Schaden zuzufügen, dann haben Sie versagt. Dies sollte ganz oben auf der Prioritätenliste stehen.