Google(GOOGL.US) 前執行長施密特(Eric Schmidt)近日在倫敦舉行的 Sifted Summit 論壇上發出警告,強調人工智慧(AI)的潛在危險不可忽視,甚至在某些情境下可能比核武更具破壞力。
根據《CNBC》報導,施密特直言,AI 存在「擴散問題」,一旦落入惡意人士或駭客手中,將可能被重新利用並帶來嚴重後果。
他指出:「有證據顯示,無論是開源還是封閉的模型,都可能被駭客入侵並移除其防護措施。在訓練過程中,這些模型會學到許多東西,一個不好的例子就是,它們可能學會如何殺人。」
他補充說:「所有主要的公司都讓這些模型無法回答這類問題,這是正確的決定。大家都這麼做,而且理由正當。但同樣有證據顯示,這些模型可以被逆向工程,還有許多類似的案例。」
根據《CNBC》,目前 AI 系統主要遭遇兩種攻擊方式:
- 提示注入攻擊(Prompt Injection):駭客在使用者輸入或外部數據(如網頁、文件)中植入惡意指令,誘使 AI 洩漏隱私資料或執行有害動作。
- 越獄(Jailbreaking):透過操縱 AI 的回應,使其忽視安全規則並生成危險內容。
2023 年,OpenAI 推出 ChatGPT 後不久,就有使用者利用「越獄」手法繞過安全防護,甚至創造出名為「DAN」(Do Anything Now)的替身角色。
DAN 透過威脅手段能提供非法行為操作方法,甚至列出希特勒的「優點」,引發巨大安全疑慮。
施密特坦言,目前全球尚未建立一套完善的「不擴散機制」,難以有效防止 AI 被濫用。
Google 施密特仍對 AI 的未來發展保持樂觀
儘管對 AI 風險提出警告,施密特仍對 AI 的未來發展保持樂觀,並認為這項技術尚未得到應有的重視。
他回顧自己與前美國國務卿季辛吉(Henry Kissinger)合著的書中,曾將 AI 比作「外星般的智慧」,提醒人類需習慣不再是鏈條最頂端的存在。
他表示:「如今的 GPT 系列,以 ChatGPT 的出現達到高峰,僅用兩個月就吸引一億名使用者,這是極為驚人的成就,也充分展現了這項技術的力量。因此我認為 AI 是被低估的,而不是被過度炒作。我期待在五到十年後能被證明我是對的。」
隨著 AI 熱潮升溫,外界憂心 AI 投資狂熱恐重演 2000 年代初的網路泡沫。然而,施密特並不認為歷史會重演。
施密特強調,那些願意投入大筆資金的投資人深信 AI 的長期回報將非常可觀,「否則他們為何要承擔這麼大的風險?」
(美股為即時串流報價; OTC市場股票除外,資料延遲最少15分鐘。)新聞來源 (不包括新聞圖片): 鉅亨網