馬斯克 (Elon Musk)、蘋果聯合創始人 Steve Wozniak、圖靈獎得主 Yoshua Bengio 等上千名行業高管和專家簽署了一封公開信,呼籲所有AI 實驗室立即暫停對比GPT-4 更強大的AI 系統的訓練至少6 個月。並表示,這種暫停應該是公開的和可驗證的,且包括所有關鍵參與者。如果不能迅速實施這種暫停,政府應介入並暫停。
這封由非營利組織未來生命研究所(Future of Life Institute) 發表的信中,詳細闡述了具有強大競爭能力的AI 系統可能會給人類社會和文明帶來的風險。
大量研究以及一些頂級AI 實驗室的結果表明,具有人類競爭智能的AI 系統可能對社會和人類構成深遠的風險。正如被廣泛認可的 Asilomar AI 原則中所述,高級AI 可能代表地球生命史上的深刻變化,應以相應的謹慎和資源進行規劃和管理。不幸的是,這種級別的規劃和管理並沒有發生;儘管最近幾個月AI 實驗室陷入了一場失控的競賽,以開發和部署更強大的數字思維,但沒有人—— 甚至他們的創造者都無法理解、預測、或可靠地控制。
當代人工智能係統現在在一般任務上已經具備了與人類競爭的能力。我們必須捫心自問:我們是否應該讓機器用宣傳和謊言充斥我們的信息渠道?我們應該自動化所有的工作,包括有成就感的工作嗎?我們是否應該發展最終可能在數量上超過我們、智慧上超越我們、淘汰並取代我們的非人類思維?我們應該冒險失去對我們文明的控制嗎?這樣的決定絕不能委託給未經選舉的技術領袖。 只有當我們確信它們的影響是積極的並且它們的風險是可控的時候,才應該開發強大的人工智能係統。這種信心必須有充分的理由,並隨著系統潛在影響的大小而增加。 OpenAI 最近關於通用人工智能的聲明指出,“在某些時候,在開始訓練未來系統之前進行獨立審查可能很重要,並且對於最先進的努力來說,同意限制用於創建新模型的計算的增長速度。” 我們同意。那一點就是現在。
公開信建議AI 實驗室和獨立專家應該利用這次暫停,共同開發和實施一套用於高級AI 設計和開發的共享安全協議,並由獨立的外部專家嚴格審核和監督。 “這些協議應確保遵守它們的系統是安全的,無可置疑”。
與此同時,AI 開發人員必須與政策制定者合作,以顯著加快開發強大的AI 治理系統。至少應包括:
- 專門負責AI 的全新的有能力的監管機構;
- 監督和跟踪高能力的AI 系統和大型算力池;
- 註明出處和水印系統,幫助區分真實和合成、以及跟踪模型洩露;
- 健全的審計和認證生態系統;
- 對人工智能造成的傷害進行責任認定;
- 為人工智能安全技術研究提供強大的公共資金;
- 以及資源充足的機構來應對人工智能將造成的巨大的經濟和政治破壞(尤其是對民主的破壞)。
“讓我們享受一個漫長的AI 夏天,而不是毫無準備地陷入秋天。”
信中並沒有詳細說明GPT-4 所揭示的危險,但包括簽署這封信的紐約大學的 Gary Marcus 在內的研究人員長期以來一直認為,聊天機器人是偉大的騙子,有可能成為虛假信息的超級傳播者。但也有不同意見者,作家Cory Doctorow 就將人工智能行業比作”pump and dump”計劃,認為人工智能係統的潛力和威脅都被大量誇大了。
一些外媒也認為,這份公開信不太可能對人工智能研究的當前氛圍產生任何影響。因為谷歌和微軟等科技公司急於部署新產品,往往會把一些對安全和道德的擔憂視而不見。但這也表明,越來越多的人反對現在這種“ship it now and fix it later”的方法;這種反對派意見有可能進入政治領域,供實際的立法者考慮。
值得一提的是,微軟公司聯合創始人比爾·蓋茨近日也在他的個人博客中暢談了ChatGPT 和生成式人工智能對教育、醫療、生產力提升、公平等等方面的影響,並聲稱,GPT 是其一生中見到的兩項最具革命性技術之一。
“我對這一刻同樣興奮。這項新技術可以幫助世界各地的人們改善生活。與此同時,世界需要製定道路規則,讓人工智能的任何缺點都遠遠超過它的好處,讓每個人都能享受這些好處,無論他們住在哪裡,無論他們有多少錢。人工智能時代充滿機遇和責任。”
針對這一呼籲暫停GPT-5 研發的聯名公開信,360 創始人周鴻禕今天也在微博發表了自己的意見稱,“我自己是做安全的,但我堅定地認為,不發展才是最大的不安全。”
周鴻禕認為,這不影響中國發展自己的大語言模型,包括360 在內的一些中國公司已經展示了自己的作品,實事求是來說,離GPT-4 的水平還有兩年差距。現在擔心風險為時尚早。
且“不管你願不願意,GPT 都將引領一場新的工業革命,意義超越互聯網和iPhone 的發明。它將帶來生產力的大幅提升,進而提升國家競爭力。中國一定要迎頭趕上。”