本文作者是斯坦福大學(Stanford University)網絡政策中心(Cyber policy Center)國際政策主任、歐盟委員會(European Commission)特別顧問
幾乎每天都有關于如何監管人工智能的新提議:研究機構、安全部門、模仿國際原子能機構(IAEA)打造“人工智能領域的IAEA”……這個名單還在不斷變長。所有這些建議都反映出人們迫切希望做些什么,即使對于應該“做些什么”并沒有達成共識。當然,這個問題關系到很多方面,從就業和歧視到國家安全和民主。但是,鑒于政治領導人對人工智能知之甚少,他們真的能制定出必要的政策嗎?
這并不是對政府人員知識空白的低級抨擊。就連技術專家也對大型語言模型(LLMs)的行為模式抱有嚴重疑問。今年早些時候,紐約大學(NYU)教授薩姆?鮑曼(Sam Bowman)發表了《關于大型語言模型要知道的八件事》(Eight Things to Know about Large Language Models)一文,這篇令人瞠目結舌的文章揭示這些模型的行為往往難以預測,專家們也沒有可靠的技術來指導它們。
您已閱讀27%(478字),剩余73%(1293字)包含更多重要信息,訂閱以繼續探索完整內容,并享受更多專屬服務。