Dacă construiți un instrument AI precum ChatGPT și nu aveți garanții pentru a opri simularea și comportamentul de tip yes-man atunci când un utilizator vă spune că intenționează să-și facă rău sau altora, ați eșuat. Acesta ar trebui să fie în fruntea listei de priorități.