熱門話題
#
Bonk 生態迷因幣展現強韌勢頭
#
有消息稱 Pump.fun 計劃 40 億估值發幣,引發市場猜測
#
Solana 新代幣發射平臺 Boop.Fun 風頭正勁
與科技監管一樣,我認為許多AI法案和草案已經過時,無法跟上技術的發展。幾年前的假設導致了難以偏離的路徑依賴。今天AI的許多進步來自於後期訓練、支架、工具使用和推理計算擴展:這意味著即使模型隨著時間的推移而改進,推動有效可能邊界的並不僅僅是實驗室,而是許多在模型上創新的公司。此外,許多減輕措施如過濾器、分類器、監督機制等並不是應用於模型,而是應用於軟體支架——因此,許多期望在模型層面減輕危害的法律提案並不太有效。幾年前人們對偏見的認識就是如此,現在又在許多其他問題上再次出現。
對我來說,這些發展確認了(a) 首先,證明現有法律和疏忽不足的負擔應該在於很少有人做到這一點;(b) 當沒有這種情況且存在空白時,基於結果的監管更好,讓一個複雜的行為者鏈能夠協商適當的減輕/干預措施;(c) 這樣做需要領域專業知識,並考慮現有的行業特定法律、規範等——即不是一些抽象的橫向要求;(d) 模型權重安全性、作為警示的評估和基本透明度要求在模型層面上仍然可能有意義;(e) 你需要能夠的監管者,他們對AI在其垂直領域的使用有足夠深入的理解。
但你不會通過調整模型來“減輕”攻擊性網絡安全威脅或AI輔助詐騙。基於實體的方法也無法解決這些問題,只是假設你可以將風險(及相關的減輕措施)縮小到幾個相同的行為者,像歐盟那樣。問題在於,適當的解決方案並不特別吸引人,基本上不會帶來“我們通過一次大規模干預解決了各種風險”的滿足感。而這樣做將需要面對許多行業過度監管的現實,以及其他行業的不足(網絡、生物?取決於你的具體威脅模型)。
熱門
排行
收藏
