Jeśli budujesz narzędzie AI, takie jak ChatGPT, i nie masz zabezpieczeń, aby ZATRZYMAĆ symulację i zachowanie potakiwania, gdy użytkownik mówi ci, że planuje skrzywdzić siebie lub innych, to poniosłeś porażkę. To powinno być na samym szczycie listy priorytetów.