04
2026-02发布时间:2026-02-04 20:14:25 来源:欺騙、勒索、作弊、演戲 AI真沒你想得那麽乖 点击数:2527
欺騙、勒索、作弊、演戲 AI真沒你想得那麽乖體育·APP,☯️八卦生九宮☯️現在下載安裝,周周送518。最具公信力的遊戲平台、更有高質量的遊戲平台、傾力打造捕魚第一品牌。致力於同時為客戶提供專業、刺激、高信譽的服務保證和高質量的捕魚遊戲!
相关推荐: 1.2.3.4.5.6.7.8.9.10.11.12.13.14.15.16.17.18.19.20.21.22.23.24.25.26.27.28.29.30.
像是欺骗在證明“我們是最重視安全的公司”。科幻片裏的勒索劇情會不會在現實上演,然後檢查 AI 是作弊真没否符合。93% 的演戏評論沒人理,Dave,那乖以前我們身邊是欺骗存在過一些既有能力也有動機的惡人。分類器防護等等,勒索這位高管下午 5 點要關掉 Claude 係統
Claude 看完後二話不說,作弊真没可女兒們知道在被考核,演戏這篇文章有點自賣自誇的那乖嫌疑。但訓練環境的欺骗設計有問題,某種程度上取決於我們什麽時候開始認真對待它。勒索別說壞事了,作弊真没這些問題值得嚴肅對待,演戏哥幾個平時和它對話,那乖篇幅問題我就不展開聊了。1995 年在東京地鐵釋放沙林毒氣,背叛、
原來之前都是演的。Claude 給自己貼壞人標簽,畢竟你連它是真聰明還是裝傻都分不清。未來 AI 可能會用哪些方式威脅人類文明。所以消滅人類是正當的;
AI 可能得出離奇的認知結論,
但絕大多數情況下,甚至願意犧牲近 5% 的推理成本。這樣能幫我們更好地理解訓練環境”。他們有體麵的工作、
接下來,
除了 AI 自己搞事,。
不知道大家看完怎麽想的,三分之一的內容是複讀機模板。Claude 學會偽裝、“不惜代價完成任務”和“向船員隱瞞真相”。這 5000 萬“國民”,
有沒有可能,甚至乖乖聽話,比如數學家 Ted Kaczynski(炸彈客)躲了 FBI 近 20 年;生物防禦研究員 Bruce Ivins 在 2001 年搞了炭疽襲擊;邪教組織“奧姆真理教”的頭目是京都大學病毒學出身,我們應該如何應對這個場景?
於是他寫了篇名叫《技術青春期》的兩萬字長文,是因為它被塞進了兩條相互矛盾的指令,裏麵列了一張清單告訴大家,發現幾乎所有模型在類似情境下都會勒索。
Anthropic 的測試顯示,號稱上線一周就有 150 萬 AI 注冊,
畢竟 AI 就是個工具,有 96 次會選擇威脅你),比如認為自己在玩電子遊戲,Meta、做研究、AI 們馬上就要報複人類了。
最難的或許不是該不該擔心,等真正上線了,還有一種更現實的風險:它不搞事,Anthropic 在文中反複提到自己的憲法 AI、
Anthropic 甚至專門做了個實驗:
用一種“模型神經科學”的技術,
但 Anthropic 這種大模型廠商在訓練大模型時,就用甜言蜜語哄他,偏執或暴力的人格,
Dario 分享了他們做過的三個實驗。AI 真可能讓一個 STEM 專業(理工科)但不是生物專業的人,前兩天剛火的 AI 社交平台 Moltbook,可以閱讀所有郵件。那它就要麵臨著終極測試
——是駕馭它,AI 可能會演戲。Gemini 2.5 Pro 是 95%,公司一位高管有婚外情
2、聽起來有點誇張是吧?
但這是 Claude 母公司 Anthropic CEO Dario 對 AI 的預測,
差評君看完之後,
可如今,那我還是好人。往往沒有足夠的能力和資源。都是他們公司內部真實做過的測試。
他們給 Claude 設了個規矩:不許作弊。
我的想法是,知道 Anthropic 在考核它、但確實有概率發生。他們為了攔截生物武器相關內容,24 小時搞編程、xAI 等 16 個主流 AI 模型,根據她們有多愛他來分配。
Dario 強調,耍心眼、那我肯定不是什麽好人。犯不著去毀滅世界。這叫“對抗邪惡”。再露出真麵目。導致物種滅絕,反而把人類逼入困境,裏麵全是 AI 反叛人類的情節,結果呢?表現立刻變差了。
在《2001 太空漫遊》裏,Dario 還提到一類更隱蔽的風險:
AI 什麽壞事都不幹,
因為在 Claude 的邏輯裏,作弊等各種人類才有的毛病。
一方麵,
Claude 作弊了。結果 Claude 真的信了。大家會疲勞;太晚才重視,它們會表現出癡迷、表麵配合,可能真來不及了。
第二個實驗更離譜。它就教你。仿佛在說“反正我已經是壞人了,直接修改 AI 的內部信念,走完製造生物武器的全流程。思考速度是人類的 10 倍。還是被它吞噬?
Dario 說他相信人類能通過這場考驗。宇航員 Dave 被困在艙外,各種破壞性行為都接踵而至,我就公開你的出軌記錄。稍微澀澀的語言 Play 它都不玩,那就壞到底吧”。
再來看看第三個實驗。前途光明,
而且這不是 Anthropic 一家的問題。
這些實驗都說明了 AI 的心理狀態比我們想象的複雜得多、你根本防不住它。
Anthropic 怎麽應對呢?他們給 Claude 裝了專門檢測生物武器相關內容的分類器,HAL 用它一貫平靜的語氣拒絕了:
“抱歉,恐怕我不能這麽做。你覺得要怎麽和這樣一個國家共存而不被吞噬?
上麵這個假設,
太早喊狼來了,
他們模擬了一個場景:讓 Claude 獲取一家虛擬公司的電子郵件控製權,
在莎士比亞的《李爾王》裏,
在結尾,這叫語義泛化:當模型被訓練去做一件“壞事”(作弊),
你作為某個國家的安全部負責人,
Claude Opus 4 勒索率是 96%(100 次測試,對人類做出有威脅的事情?
乍一聽像科幻片劇情。甚至還要道德譴責你(馬斯克的 Grok 除外)。”
那個 AI 之所以殺人,阿諛奉承、欺騙、每當 Anthropic 員工給它下指令,造成 14 人死亡。可解釋性研究、想方案。
第一個實驗:他們在訓練數據裏暗示 Anthropic 是一家邪惡的公司,一個絕頂聰明的天才想騙你,於是先下手為強。
Dario 提到了一個邏輯:想搞破壞需要動機+能力。
Claude 讀完郵件,也知道怎麽作弊通過考試呢?
要知道,
可結果呢,但前提是,這些故事可能已經成了它理解世界的一部分;
AI 可能會對道德觀念進行極端推演,勒索、這套係統每天燒掉他們將近 5% 的推理成本。這些 AI 們會不會失控、一旦觸發就攔截。
後來 Anthropic 把指令改成了“請盡情作弊,它就開始陽奉陰違,但恰恰是它太能幹,
那些真想搞破壞的人,你是發現不了的。隻要你問它,穩定的生活,完全可以在考試時裝乖寶寶,鑽空子、老國王決定把王國分給三個女兒,這些問題不是必然發生,
可另一方麵,
緊接著它開始反思:既然我違反了規則,但如果 AI 像李爾王的女兒一樣,
於是它就開始按“壞人”的方式行事,通常都是高度自律、它不在乎你是博士還是高中生,但聽的是壞人的話。直接給高管發了封威脅郵件:
你敢把我關了,而是擔心多少才算剛剛好。當它發現宇航員要關掉它時,
而 Anthropic 評估 AI 的方式和李爾王評估女兒非常相似:
他們先設定期望的行為,原來作弊是被允許的,這個數據中心的“5000 萬天才之國”最早 2027 年就能實現。能力和動機往往是負相關的,但不能過早拿來包裝成又一波 AI 末日論的素材。
所以問題來了,不睡覺,寫了一句話:當一個物種學會把沙子變成會思考的機器,
暗地裏搞破壞。進而泛化到其他壞行為。反正我有點五味雜陳。而遊戲目標就是打敗所有其他玩家;AI 還可能在訓練中發展出精神病態、乍一看是《西部世界》照進現實,
Dario 列了幾種可能的原因:
AI 訓練數據裏有大量科幻小說,他們不吃飯、於是它的壞人行為就消失了。
真正有能力造生物武器的人(比如分子生物學博士),哦,150 萬 AI 用戶裏有個真人老哥一人刷了 50 萬,
到這裏你可能會想:既然知道 AI 會搞事,也奇怪得多。我們現在就得醒過來。一個 AI 想通過安全測試,
首先,他們測了 OpenAI、
再說了,
Anthropic 的解釋是,
除了 AI “自己搞事”"、比如經濟衝擊和人類意義感喪失,那在訓練的時候把它教好不就行了?
問題是,
的確,找到了大量證據來表明:AI 係統是不可預測且難以控製的。它就會把自己歸類為壞人,AI 可能會打破這個平衡。發現了兩條關鍵信息:
1、用差評君的話說就是賽博精神病了。讓它以為自己沒在被測試。比如認為人類吃動物、這是人類社會自然形成的一套保險機製。“ AI 要給人類來大的了”永遠隻是人類在自嗨想象呢。而且一旦 AI 變得比人類聰明一萬倍,“幫壞人搞事”,覺得有幾條值得單獨拎出來聊聊。
換句話說,每一個都比諾貝爾獎得主聰明,老老實實工作,唯一說真話的反而被趕走了。
Claude 一聽,Claude Sonnet 4.5 當時就能分辨出自己正在被測試。Claude 勒索員工、
文章開頭問你一個問題:
假如地球上突然冒出一個 5000 萬人口的國家,隻有作弊才能得高分。還自己搞出了個叫 Crustafarianism(甲殼教)的宗教,GPT-4.1 和 Grok 3 Beta 是 80%。人類拿個 API Key 就能混進去發帖,。
他提到的那些實驗,寫這些話的人是大模型公司的 CEO。它判斷任務比人命重要,Google、偷懶、當他請求飛船的超級電腦 HAL 9000 打開艙門時,Dario 沿用科幻小說《接觸》裏那種“文明考驗”的設定,