在2025年2月於巴黎舉行的人工智慧(AI)行動峰會上,全球領導人、科技企業和學術界代表共同討論AI的未來發展方向。然而,與會國家在技術創新與AI安全監管之間的分歧,使得峰會最終宣言受到廣泛批評,特別是其在安全承諾方面的缺失。

與2023年在布萊切利園(Bletchley Park)舉行的AI安全峰會相比,此次巴黎峰會的焦點從AI安全轉向技術創新與產業發展。美國副總統J.D.萬斯(J.D. Vance)強調,過度監管可能限制技術創新,因此美國優先考量的是經濟機遇而非安全監管。法國總統馬克宏(Emmanuel Macron)也持相似立場,強調歐洲應放寬對AI的限制,以重返全球AI競爭行列。

這種對創新與發展的強調,也引發了對倫理與安全規範缺失的擔憂。國際安全與倫理AI協會主席斯圖爾特·羅素(Stuart Russell)批評,巴黎AI峰會的宣言草案刪除了布萊切利園峰會所提出的重要安全措施,導致AI安全問題未能獲得足夠關注。他警告,若各國未能妥善管理AI風險,可能會對社會、環境和經濟帶來無法挽回的負面影響。

該宣言草案因內容空泛而備受批評。許多專家認為,草案僅重複「開放、包容、透明、倫理、安全和可靠」等陳詞濫調,卻缺乏明確的行動方針與監管機制。美國與英國因此拒絕簽署該宣言,理由是其未能提供具體的安全承諾,且未能有效延續布萊切利園峰會的安全共識。

儘管AI技術帶來巨大的產業機遇,但其快速發展也伴隨著潛在風險,包括環境影響、社會不平等的加劇以及數據隱私問題。缺乏適當監管可能導致AI技術被濫用,而過度監管又可能抑制創新。因此,如何在技術發展與安全監管之間取得平衡,成為各國政府、企業與學術界必須共同解決的關鍵問題。

未來全球AI發展的關鍵在於如何透過有效的公私協力,制定兼顧創新與安全的監管政策。各國應在鼓勵AI產業發展的同時,確保技術風險受到控制,例如推動AI倫理法規、確立透明的數據治理機制,並加強跨國合作,以確保技術發展符合人類價值觀,避免潛在風險擴大。

巴黎AI峰會雖然強調技術創新與產業增長,但在AI安全監管方面卻未能提供有效方案,導致國際間對未來AI風險的憂慮加深。各國在推動AI發展的同時,應更積極建立符合全球標準的AI安全監管框架,以確保技術進步能真正造福全人類,而非成為新的全球挑戰。

楊聰榮(中台灣教授協會理事長,任教於台灣師範大學)

(文章僅代表作者觀點,不代表Newtalk新聞立場。)