в идеале законодатели должны осознать потенциальные опасности ИИ после того, как произойдет что-то плохое, но не *слишком* плохое... что-то вроде sora 2?