Se stai costruendo uno strumento AI come ChatGPT e non hai misure di sicurezza per FERMARE la simulazione e il comportamento di assenso quando un utente ti dice che ha intenzione di farsi del male o di farlo ad altri, hai fallito. Questo dovrebbe essere in cima alla lista delle priorità.