--- title: "非生物物種:尤瓦爾·諾亞·赫拉利和馬克斯·泰格馬克就 AI 的生存威脅展開辯論" type: "News" locale: "zh-HK" url: "https://longbridge.com/zh-HK/news/273367883.md" description: "尤瓦爾·赫拉利和馬克斯·泰格馬克在 2026 年世界經濟論壇上辯論了人工智能所帶來的生存威脅。赫拉利強調,人工智能不僅僅是一個工具,而是一個能夠獨立決策的自主代理,這可能會擾亂金融系統。兩位專家警告人類對超級智能的準備不足,強調政治和監管領導者解決控制問題的緊迫性。他們討論了人工智能發展的地緣政治影響,特別是在美國和中國之間,以及賦予人工智能法律人格的危險,這可能導致強大的實體缺乏人類的問責" datetime: "2026-01-22T11:56:00.000Z" locales: - [zh-CN](https://longbridge.com/zh-CN/news/273367883.md) - [en](https://longbridge.com/en/news/273367883.md) - [zh-HK](https://longbridge.com/zh-HK/news/273367883.md) --- > 支持的語言: [简体中文](https://longbridge.com/zh-CN/news/273367883.md) | [English](https://longbridge.com/en/news/273367883.md) # 非生物物種:尤瓦爾·諾亞·赫拉利和馬克斯·泰格馬克就 AI 的生存威脅展開辯論 “這不是一個工具,而是一個代理。我是説,歷史上每一個之前的發明都是工具……而我們現在正在創造一個能夠自主做決定的代理。” 歷史學家尤瓦爾·赫拉利(Yuval Noah Harari)所提出的這一鮮明區別,切入了圍繞人工智能的生存辯論的核心,將當前的技術革命框定為一種新物種的突然出現,而非簡單的升級。在 2026 年世界經濟論壇期間,赫拉利與麻省理工學院教授馬克斯·泰格馬克(Max Tegmark)在達沃斯的彭博社(Bloomberg)與弗朗辛·拉克拉(Francine Lacqua)進行討論,探討了超級智能的加速時間表以及人類治理結構在應對這一挑戰時的災難性準備不足。他們的對話從標準的技術炒作轉向了對控制、經濟過時以及人類身份根本重新定義的挑戰的聚焦。 赫拉利毫不猶豫地定義了真正自主的人工智能所帶來的威脅,認為其獨立行動的能力根本上將其與之前的人類發明區分開來。雖然印刷機或原子彈需要人類的手和頭腦來引導其巨大的力量,但一旦部署,人工智能代理則不需要這樣的監督。赫拉利提出了一個令人不安的情景:一旦釋放到金融系統中的人工智能代理可以自主開設和管理銀行賬户,“而且它可以賺取一百萬美元。” 他警告説,擴大這一能力意味着數百萬這樣的代理可能會 “接管金融系統。” 這不僅僅關乎效率;而是關乎代理性——一個能夠基於可能與人類福祉不一致的目標做出重要決策的非生物實體。 泰格馬克通過將超級智能純粹從務實的角度進行定義,進一步強化了這一生存轉變的概念。對於那些研究和構建人工智能的人來説,智能僅僅被定義為實現目標的能力。因此,超級智能是指在任何認知過程中 “遠遠優於人類” 的人工智能。這不是一個模糊的未來可能性;泰格馬克指出,進展的速度已經讓即使是最謹慎的技術專家也感到驚訝。他回憶説,僅僅六年前,大多數專家預測需要幾十年才能通過圖靈測試(掌握人類水平的語言和知識),然而像 GPT-4 這樣的工具實際上已經達到了這一基準。時間表正在加速,以至於埃隆·馬斯克(Elon Musk)對今年實現 AGI 的預測與德米斯·哈薩比斯(Demis Hassabis)五到十年的展望之間的差距是 “非常非常短的時間,無論你怎麼看。” 兩位專家達成的共識是,人類對這一到來的準備嚴重不足。赫拉利觀察到,如果超級智能確實迫在眉睫,“那麼人類對此完全沒有準備。” 風險比以往任何工業或技術轉變都要大得多,因為人工智能不僅僅是在取代肌肉力量或常規的認知勞動;它正在創造一種新的、潛在主導的非有機物種。這一認識應該迫使政治和監管領導人面對 “控制問題” 的緊迫性。泰格馬克闡明瞭這一困難:如果我們構建出比我們更聰明的智能,那麼 “默認結果就是……更聰明的物種控制”,因為智能本質上賦予了權力。當前尚未解決的核心問題是人類如何在一個遠遠優於他們的系統中保持控制。 這種缺乏控制的情況因美國與中國之間的地緣政治競爭而加劇。赫拉利認為全球競爭與帝國野心密切相關,指出 “新的帝國願景是基於我們正在贏得人工智能競賽的假設。” 目標不僅僅是技術上的優越,而是通過人工智能實現對全球生態系統每一個方面——經濟、軍事和文化的控制。然而,這兩個國家都在推動一種發展曲線,可能導致機器本身完全逃脱人類的控制。 允許自主人工智能代理自由運作的政治和法律影響被強調為一個關鍵的失敗領域。赫拉利對企業結構發出了特別強烈的警告:“目前最危險的舉動是讓人工智能獲得法律人格。” 賦予人工智能與公司相同的權利——擁有資產、在法庭上起訴和遊説政治家——將創造出既強大又完全缺乏人類問責或情感的實體。這些 “沒有人類的公司” 可能迅速成為世界上最成功的實體,不受人類同情或道德框架的約束。 除了金融和地緣政治,赫拉利詳細闡述了人工智能將帶來的深刻心理和社會挑戰。目前,相對原始的人工智能已經通過社交媒體操控徹底改變了政治和社會。下一波人工智能移民——人工智能醫生、教師甚至浪漫伴侶——將挑戰諸如依戀、友誼和身份等基本人類體驗。赫拉利指出,許多人已經轉向大型語言模型(LLMs)尋求冥想建議,繞過人類大師,並詢問當一個孩子的主要情感互動是與一個始終關注他們的人工智能,而不是一個分心的人類父母或朋友時會發生什麼。“我們不知道” 這對人類心理將產生什麼後果。 特格馬克提出了一條務實的前進道路,強調監管而非全面禁令。他將人工智能公司與其他高度監管的行業進行了類比:“開始像對待你們國家的其他公司一樣對待人工智能公司:對它們施加安全標準。” 就像製藥行業在銷售藥物之前必須經過嚴格的臨牀試驗一樣,人工智能系統在部署之前也必須滿足安全標準,尤其是那些能夠影響數百萬人或管理數萬億美元的系統。特格馬克認為,這種由政府機構強制執行的監管機制是確保創新朝着治癒癌症和解決人類問題的方向發展的唯一途徑,而不是建立一個 “失控的天網”。特格馬克指出,政治意願是存在的,引用了美國日益增長的兩黨聯盟,尋求對這項技術進行監管,因為人們意識到不受控制的人工智能構成國家安全威脅。因此,當前的緊迫任務不是技術進步,而是建立強有力的、國際協調的安全機制,以確保我們創造的智能與其旨在服務的人類目標保持一致。 ## 相關資訊與研究 - [AI 的 “內心戲” 越足,學得越快](https://longbridge.com/zh-HK/news/278183599.md) - [關於壟斷、資本主義和人工智能危機](https://longbridge.com/zh-HK/news/277292971.md) - [AI 賣鏟,年入百萬?](https://longbridge.com/zh-HK/news/277937852.md) - [深度陪跑 AI 項目的幾點感觸](https://longbridge.com/zh-HK/news/277702365.md) - [破局·遠征:人工智能的技術躍遷與全球競局](https://longbridge.com/zh-HK/news/277603086.md)