日前 Google 員工曾連署上書,要求 Google 執行長桑德爾·皮蔡退出與美國國防部合作執行的 Project Maven ,雖然高層在後續回應中,說明參與計畫的內容旨在挽救生命,但近日電子前線基金會 (EFF) 就表示,情況完全不如 Google 高層所說明的那樣,指出 Google 不僅提供 TensorFlow API,還將公司中最先進的機器學習以及工程人員,直接派往協助美國國防部。

根據電子前線基金會 (EFF) 的發文,他們引述美國國防部的文章與文件,並指出該影像分析技術被經常性的用於反叛以及反恐任務,他們說:「如果我們理解正確,Google 會標記無人機拍攝到的物體以及人物來供軍方審查,並在某些情形下,這些目標會成為軍方發射導彈襲擊的目標。」

他們表示,人工智慧在非軍事用途上的透明度、風險以及責任制度,都還沒有達到一定的共識,這時候就貿然將其投入軍事用途,是非常危險的行為。而目前人工智慧技術仍處於難以控制的階段,往往在某些意料之外的情況下失效,若是這些狀況出現在軍事行動上,將可能造成更大的問題,甚至使衝突升級。

對此,EFF 認為人工智慧應用於軍事上,有四個重要的問題要先解決,第一問題,是否應該建立具有約束力的國際組織,來限制人工智慧的軍事用途?EFF表示現行的結構令人感到不安,利用人工智慧來做目標識別,是一個需要制定法律規範的行為。

第二個則是這些人工智慧的應用是否經過可信的研究或是部署,來減緩會導致任何危險狀況發生的問題與機率。以及第三負責相關開發的軍事承包機構,能否保證不將人工智慧應用在自主攻擊性武器上,或確保任何防禦性的自主武器,都經過精密的設計,來避免意外傷害發生。

最後的第四點,他們認為有必要建立獨立的倫理委員會,並且以公開透明的方式進行責任監督,並且具備否決計畫的權利。

儘管 Project Maven 並未對外公開細節,但該計畫已經成為這項議題的起點,然而就 EFF 所觀察, Google 高層無論對公司員工或是社會大眾,都沒能夠以公開透明的態度來處理此事。而除了 Google 以外,南韓科學技術院(KAIST)也傳出與韓華系統正在開發相關軍用AI,目前也已有多達 30 多國聯合聲明抵制,並預計在日內瓦舉辦的聯合國會議上,提出約束自主性武器的相關議題。

延伸閱讀:

抵制開發軍用AI Google3100名員工連署上書

傳南韓開發戰爭AI 馬斯克警告:機器人會是不朽的獨裁者