在業內被封為「AI教父」、「深度學習之父」的辛頓(Geoffrey Hinton)於 2 日接受 CNN 採訪時表示,作為幫助這項技術的開發者,他認為 人工智能(AI)的發展速度已經太快了。並且,辛頓指出自己從 Google 辭職,是因為突然意識到「這些東西正變得比人類更聰明」,他警告:「我們應該認真考慮如何阻止這些東西控制我們。」

辛頓在接受《紐約時報》採訪時表示,他擔心人工智能可能會消除工作崗位,並創造一個許多人「無法再知道真相」的世界。並且指出了 AI 驚人的發展速度,已經遠遠超出了他和團隊中其他人的預期。

近期,OpenAI 上線了比之前更為強大技術的版本 GPT-4,在測試和公司演示中,GPT-4 能被用來起草訴訟,通過標準化考試,並根據手繪草圖建立一個可運行的網站,已經在多個方面使人類只能黯然失色。

辛頓直言道:「如果 AI 變得比人類聰明,AI 就會變得非常擅長操縱,因為 AI 從人類身上學到的,就是很少有一個更聰明的東西被另一個不那麽聰明的東西控制的例子。」

「AI 知道如何編程,它可以找到繞過我們限制的方法,它會想辦法操縱人們做它想做的事。」辛頓是如此警告的。

然而,辛頓並不是唯一一位對人工智能表示擔憂的科技領袖。

今年 3 月,埃隆·馬斯克(Elon Musk)支持的非營利組織,生命未來研究所(Future of Life Institute)發布一封公開信,並以「對社會和人類構成嚴重風險」之由,聯合上千名技術領袖和研究人員簽署,呼籲暫時停止人工智能實驗室的訓練至少六個月。而蘋果聯合創始人史蒂夫·沃茲尼亞克(Steve Wozniak)也簽署了。

但辛頓則告訴 CNN,自己沒有在請願書上簽名,因為人類已經無法阻止這一進程。他說:「就算美國人停止了,中國人也不會。」

「我認為我們應該努力思考解決這個問題的方法。」但辛頓也承認,對於該怎麽做,他沒有一個明確的答案。

政治領域上,美國參議院多數黨領袖舒默(Chuck Schumer)近期發起一項針對人工智能的治理框架,並聘請了頂尖的人工智能專家進行咨詢。該計劃將側重於建立人工智能系統的透明度,並要求獨立專家在公開發布之前測試人工智能技術,並要求披露參與技術開發的人員、地點和方式。