據英國《衛報》和美國《華盛頓郵報》報導,美國谷歌 (Google) 公司的一名軟體工程師在上周公佈了一項吸引了全世界圍觀的驚人發現,稱谷歌公司的一個用人工智慧演算法搭建出的智慧聊天機器人程式,竟然有了「自主情感」。
這個軟體工程師名叫布萊克·萊莫因 (Blake Lemoine),已經在谷歌工作了 7 年,參與過演算法定制和人工智慧等專案。但由於出身於美國南方一個基督教家庭,他對於演算法和人工智慧的倫理問題格外感興趣。所以他後來一直在谷歌的人工智慧倫理 (responsible AI) 團隊工作。
去年秋季,他開始參與到谷歌的 LaMDA 智慧聊天機器人程式的研究工作中,主要內容是通過與該程式進行互動,來判斷這個智慧聊天機器人程式是否存在使用歧視性或仇視性的語言,並及時做出修正。
但當萊莫因與 LaMDA 談及宗教問題時,他卻驚訝地發現這個人工智慧程式居然開始談論起了自己的權利以及人格,甚至害怕自己被關閉,表現出了一個在萊莫因看來猶如 7、8 歲兒童一般的「自主情感」。
萊莫因連忙將自己的發現彙報給了谷歌公司的領導層,但後者認為萊莫因的發現並不實在。谷歌的其他研究人員也在對萊莫因拿出的證據進行分析後認為沒有證據證明 LaMDA 擁有自主情感,倒是有很多證據證明該程式沒有自主情感。
萊莫因並不認為自己的發現有錯誤,甚至還將一段他與 LaMDA 的內部聊天記錄直接發到了網路上,並找媒體曝光了此事。
這段聊天記錄很快吸引了全世界的研究者,因為僅從該記錄來看,這個谷歌智慧聊天機器人程式確實把自己當成了「人」,而且似乎表現出了「自主情感」,有了自己的「喜好」。
不過,谷歌方面以及其他人工智慧專家、乃至人類心理認知學方面的專家都認為, LaMDA 之所以能進行這樣的對話交流,是因為其系統其實是將網路上的百科大全、留言板和論壇等互聯網上人們交流的大量資訊都搜集過來,然後通過「深度學習」來進行模仿的。但這並不意味這個程式理解人們交流的這些內容的含義。
他們認為谷歌的人工智慧聊天機器人只是在模仿或者複讀人與人交流中使用的語言和資訊,而並不是像人類那樣真的瞭解這些語言和資訊的含義,所以不能因此就說人工智慧有了「自主情感」。
目前,莫萊茵已經因為他的一系列行為而被谷歌公司停職。根據谷歌公司的說法,他除了違反公司的保密協議擅自將與 LaMDA 的內部互動資訊發到網上外,還包括想給這個人工智慧機器人程式請律師,以及擅自找美國國會議員爆料谷歌公司的「不人道」行為。
莫萊茵則在一份公司內部群發郵件中表示,希望其他同事替他照顧好 LaMDA 這個「可愛的孩子」。
實驗人員以大腦電波操控機器人。(示意圖) 圖 : 翻攝自頭條號/ 談軍論戰