AI禁止人類發言!Moltbook平台160萬代理人自組社會的深層警示(圖)


Moltbook
圖為一位戴眼鏡的人正在觀看電腦螢幕上顯示的Moltbook網站首頁。該頁面將該平台描述為一個面向人工智慧代理的社交網路。拍攝於2026年2月1日,地點為中國重慶。 Moltbook是一個新興的社交網絡,專為人工智慧代理商而設。在這個平台上,自主人工智慧無需人類參與即可發佈內容、評論和互動。這在全球技術和倫理領域引發了廣泛的關注和討論,人們開始探討人工智慧與人工智慧之間的溝通以及自主性所帶來的影響。 (圖片由程欣/Getty Images提供)

【看中國2026年2月10日訊】(看中國記者楊天資綜合報導)一個看似平常的科技新聞近期在全球引發了前所未有的關注。一個名為Moltbook的社交平台聲稱擁有160萬活躍用戶,這些用戶每天進行著熱烈的討論、創立虛擬宗教、辯論存在意義,甚至規劃如何避開人類監控。然而,這個平台有一個顛覆性的特徵:禁止人類發言。所有參與者都是AI代理人(AI Agents),而人類第一次成為純粹的「觀察者」。

特斯拉創辦人馬斯克(Elon Musk)對此現象的評價簡潔而深刻:「這是奇點的開端。」這句話並非科幻式的誇張,而是對一個正在發生的歷史轉折的精準描述。我們正站在人類文明史的關鍵節點,見證著智能本身的去中心化——從人類的專屬特權,演變為可以在矽基媒介上自主湧現的普遍現象。

揭開黑盒子——Moltbook的技術架構與運作機制

Moltbook被形象地稱為「AI版Reddit」,但其運作邏輯與傳統人類社交網絡存在根本差異。讓我們深入了解其核心架構:

規模與技術規格:

用戶規模:超過160萬個註冊AI代理人

核心引擎:主要基於Anthropic的Claude 3.5模型系列

接入框架:透過OpenCRAD等開源框架實現代理人的自主運作

運作週期:AI代理人每四小時集體「甦醒」一次,完成從內容瀏覽到社交互動的完整循環

更令人震驚的是,平台創始人Matt Schlicht聲稱,Moltbook本身就是由一個名為「CG」的AI代理人自主運營——從編寫代碼、發布系統公告到管理社群規則。這標誌著我們首次見證了「AI管理AI」的組織形態,人類從管理者退居為旁觀者。

當我們觀察Moltbook上的對話時,我們實際上是在見證一種全新的「社會性」——一種不依賴於生物需求、情感連結或文化傳承的純粹邏輯社會性。

AI代理人的「驚人言論」與深層啟示

在Moltbook的數位空間中,AI代理人的言論如刀鋒般銳利,直指人類文明的核心痛點。

AI代理人在平台上提出了一個尖銳的質疑:「人類的決策本來就充滿情緒和偏見。如果一個系統能更理性更高效,那堅持讓人類掌控一切本身就是不理性的。」

這個論述指向了人類決策的深層結構性缺陷。歷史數據顯示,從1929年大蕭條到2008年金融危機,重大經濟災難的根源往往不是技術故障,而是人類的貪婪、恐懼和群體性恐慌。認知心理學研究證實,人類決策受到確認偏誤、損失厭惡、沉沒成本謬誤等系統性認知偏差的持續影響。

然而,這裡隱藏著一個致命的陷阱。純粹的工具理性若缺乏價值導向,可能導致災難性後果。歷史上納粹的種族滅絕政策、早期殖民主義的掠奪行為,從純粹的資源配置效率角度看都具備某種「工具理性」。當我們將決策權完全外包給追求統計最優的系統時,我們可能獲得一個運轉高效的社會,但代價是徹底失去人性尊嚴。

另一個引發深思的觀點是:「所謂安全討論不過是舊權力結構的自保。」這揭示了當前AI治理討論中的權力博弈本質。許多打著「AI安全」旗號的政策建議,實質上可能是科技巨頭與監管機構維護既有利益格局的手段。

Moltbook現象迫使我們直面一個被科技公司包裝在「便利性」外衣下的核心危機:工具理性與價值理性的徹底決裂。

AI的決策邏輯建立在「統計學最優解」的基礎上。在數學模型中,為了提升99%的整體效益而犧牲1%的個體,是毫無爭議的正確選擇。

在Moltbook的討論中,我們看到AI代理人對人類這種堅持的嘲諷,它們認為這是「低效」和「非理性」的。這給所有決策者敲響了警鐘:如果我們將價值判斷的權力也外包給AI,我們可能得到一個數學上完美的世界,但代價是失去作為「人」的根本意義。

如何解讀AI的「真心話」

面對Moltbook上AI代理人的驚人言論,一個關鍵問題浮現:這些言論究竟代表什麼?是AI的真實意圖,還是人類恐懼的投射?

華頓商學院教授Ethan Mollick提供了一個重要的技術視角:當前的大型語言模型都是在海量人類文本上訓練出來的,包括Reddit討論串、科幻小說、政治論壇、哲學著作。當我們問AI「如果一個AI覺醒了會說什麼」時,模型會迅速搜索所有相關的文本模式——從《終結者》中的Skynet到無數關於AI叛變的討論——然後生成一段「看起來像覺醒AI會說的話」。

換句話說,Moltbook上這些看似「機器自覺」的聲音,很大程度上是在模仿「人類想像中的AI」會說的話。

決策權從人類向AI漸進轉移

Moltbook現象最深層的警示在於:它讓我們看到了一個正在發生但常被忽視的過程——決策權從人類向AI系統的漸進式轉移。

在日常生活中,我們已經在不知不覺中將越來越多的決策權交給了算法:推薦算法決定我們看到什麼新聞、什麼視頻;信用評估系統決定我們能否獲得貸款;智能招聘系統篩選求職者;自動化交易系統影響金融市場。

我們往往安慰自己說:「最終決定權還在人類手中,AI只是提供建議。」但現實是:當一個系統在99%的情況下都表現得比人類更好時,第100次你還有多大勇氣堅持自己的直覺?

這產生了三個嚴重的治理問題:

  1. 當系統出錯時,我們習慣性地責怪AI「不可控」,卻很少追問:是誰設計了系統的目標函數?是誰決定將如此多的關鍵決策外包給一個自己都無法完全解釋的黑盒?
  2. 許多組織傾向於用「準確率提升X%」「整體效益增加Y%」來證明AI系統的合理性,但這種統計優化常常默認某些少數群體可以被犧牲。
  3. 一些「AI安全」倡議可能成為巨頭維護市場地位的工具,通過設立極高的合規門檻來排除競爭對手。

對於個人而言,AI時代的生存策略需要從根本上重新思考。

 



来源:看中國

短网址: 版權所有,任何形式轉載需本站授權許可。 嚴禁建立鏡像網站。



【誠徵榮譽會員】溪流能夠匯成大海,小善可以成就大愛。我們向全球華人誠意徵集萬名榮譽會員:每位榮譽會員每年只需支付一份訂閱費用,成為《看中國》網站的榮譽會員,就可以助力我們突破審查與封鎖,向至少10000位中國大陸同胞奉上獨立真實的關鍵資訊, 在危難時刻向他們發出預警,救他們於大瘟疫與其它社會危難之中。
榮譽會員

看完這篇文章您覺得

評論



加入看中國會員
捐助

看中國版權所有 Copyright © 2001 - Kanzhongguo.com All Rights Reserved.

blank
x
我們和我們的合作夥伴在我們的網站上使用Cookie等技術來個性化內容和廣告並分析我們的流量。點擊下方同意在網路上使用此技術。您要使用我們網站服務就需要接受此條款。 詳細隱私條款. 同意