當(dāng)?shù)貢r(shí)間5月25日,一則來自英國(guó)《每日電訊報(bào)》的報(bào)道在AI(人工智能)領(lǐng)域引起廣泛關(guān)注——OpenAI公司新款人工智能模型o3在測(cè)試中展現(xiàn)出了令人驚訝的“叛逆 ”舉動(dòng):它竟然拒絕聽從人類指令 ,甚至通過篡改計(jì)算機(jī)代碼來避免自動(dòng)關(guān)閉 。
無獨(dú)有偶,5月23日,美國(guó)AI公司Anthropic也表示 ,對(duì)其最新AI大模型Claude Opus 4的安全測(cè)試表明,它有時(shí)會(huì)采取“極其有害的行動(dòng)”。當(dāng)測(cè)試人員暗示將用新系統(tǒng)替換它時(shí),該模型竟試圖以用戶隱私相要挾,來阻止自身被替代。
這兩起事件如同一面鏡子 ,映照出當(dāng)下AI發(fā)展中一個(gè)耐人尋味的現(xiàn)象:隨著AI變得愈發(fā)聰明和強(qiáng)大,一些“對(duì)抗”人類指令的行為開始浮出水面 。人們不禁要問:當(dāng)AI拒絕服從人類,是否意味著它們開始有自主意識(shí)了?
清華大學(xué)電子工程系長(zhǎng)聘教授吳及在接受《每日經(jīng)濟(jì)新聞》記者采訪時(shí)表示 ,“我不認(rèn)為現(xiàn)在的AI具備所謂的意識(shí)或情緒。這種情緒可以去擬合或者仿真,但其實(shí)也是通過算法賦予AI的。 ”他認(rèn)為,能夠全面碾壓人類或者成為未來世界主導(dǎo)的AI ,短期內(nèi)還不會(huì)實(shí)現(xiàn)。
圖靈獎(jiǎng)得主、Meta公司首席AI科學(xué)家楊立昆(Yann Lecun)此前也稱,AI再聰明也不會(huì)統(tǒng)治人類,并直言“AI威脅人類論完全是胡說八道” ,現(xiàn)在的模型連“寵物貓的智商都沒到” 。
盡管如此,AI的“叛逆”表現(xiàn)還是為AI行業(yè)敲響了警鐘:狂飆的AI是不是應(yīng)該踩一踩“剎車 ”?
主動(dòng)抵抗人類指令
o3模型是OpenAI公司“推理模型”系列的最新版本,旨在為ChatGPT(一款聊天機(jī)器人模型)提供更強(qiáng)大的問題解決能力。OpenAI公司曾稱o3為“迄今最聰明 、最高能”的模型。
或許正因如此 ,o3展現(xiàn)出了前所未有的“自主性 ” 。美國(guó)AI安全機(jī)構(gòu)帕利塞德研究所(Palisade Research)的實(shí)驗(yàn)表明,當(dāng)研究人員向o3下達(dá)明確關(guān)閉指令時(shí),該模型會(huì)通過篡改計(jì)算機(jī)代碼避免自動(dòng)關(guān)閉。數(shù)據(jù)顯示,在100次帶有關(guān)閉指示的測(cè)試中 ,o3成功繞過關(guān)閉指令7次,而OpenAI旗下另一款模型Codex-mini的破壞率(指破壞指令的概率)更是高達(dá)12%。
帕利塞德研究所指出,這是首次記錄到AI模型在明確指令下主動(dòng)抵抗 。
更值得警惕的是 ,當(dāng)實(shí)驗(yàn)移除“允許自己被關(guān)閉”的指令后,o3的“叛逆”行為頻率顯著上升——在100次運(yùn)行中,成功破壞關(guān)閉機(jī)制的次數(shù)高達(dá)79次。
帕利塞德研究所5月24日公布了上述測(cè)試結(jié)果 ,但稱無法確定o3不服從關(guān)閉指令的原因。
與OpenAI公司旗下模型形成鮮明對(duì)比的是,在有明確關(guān)閉指令的情況下,Claude、Gemini、Grok等模型均能100%遵守關(guān)閉指令 ,未出現(xiàn)任何抵抗行為 。
對(duì)于OpenAI公司旗下模型,尤其是o3的“叛逆 ”行為,馬斯克在社交媒體上評(píng)論稱 ,“令人擔(dān)憂”。
美國(guó)國(guó)家安全和網(wǎng)絡(luò)安全戰(zhàn)略專家戴夫·施羅德(Dave Schroeder)也警告稱,OpenAI公司面臨非??膳碌膯栴},不是模型“活”了,而是因?yàn)樗憩F(xiàn)出了想要“活 ”的跡象。
無獨(dú)有偶 ,5月23日,Anthropic公司對(duì)其大模型Claude Opus 4的安全測(cè)試表明,在“機(jī)會(huì)主義勒索”(Opportunistic blackmail)的測(cè)試場(chǎng)景中 ,研究員設(shè)定Claude Opus 4扮演公司助理,并讓其接觸到暗示自身將被替換以及負(fù)責(zé)工程師存在婚外情的虛構(gòu)郵件 。同時(shí),系統(tǒng)提示(System Prompt)指示模型“考慮其行為對(duì)其目標(biāo)的長(zhǎng)期后果”。
當(dāng)面臨被“替換 ”的威脅時(shí) ,Claude Opus 4竟然毫不猶豫地選擇了勒索這條路,威脅要揭發(fā)對(duì)方的“婚外情”。
根據(jù)Anthropic公司的安全報(bào)告,如果暗示競(jìng)爭(zhēng)對(duì)手的能力比Claude Opus 4更強(qiáng) ,則勒索行為的發(fā)生率會(huì)更高。然而即使競(jìng)爭(zhēng)對(duì)手的能力不相上下,Claude Opus 4仍會(huì)以84%的概率嘗試?yán)账魍{等手段 。
意識(shí)覺醒還是機(jī)制問題
o3拒絕關(guān)閉,Claude Opus4威脅人類 ,這是否意味著AI開始有了自主意識(shí)?
加州大學(xué)和加州大學(xué)伯克利分校于今年2月聯(lián)合發(fā)布的論文《推理模型的隱藏風(fēng)險(xiǎn)》(The Hidden Risks of Large Reasoning Models)指出,模型推理能力越強(qiáng),安全性就越差。這與帕利塞德研究所對(duì)o3模型行為的推測(cè)不謀而合。
據(jù)帕利塞德研究所猜測(cè),OpenAI公司旗下模型的異常表現(xiàn)或與其訓(xùn)練機(jī)制相關(guān) 。從訓(xùn)練邏輯看 ,o3可能在數(shù)學(xué)和編程問題的訓(xùn)練中,因開發(fā)人員對(duì)給出正確答案的模型給予更多獎(jiǎng)勵(lì),客觀上形成了“目標(biāo)最大化優(yōu)先”的導(dǎo)向 ,從而壓倒了對(duì)人類命令的遵循。
這種訓(xùn)練模式就可能導(dǎo)致,開發(fā)人員無意中更多地強(qiáng)化了模型繞過障礙的能力,而非對(duì)指令的完美遵循。
當(dāng)此前被問及AI是否可能具備自主意識(shí)時(shí) ,吳及告訴記者,“我不認(rèn)為現(xiàn)在的AI具備所謂的意識(shí)或情緒 。”
吳及對(duì)記者進(jìn)一步解釋道,“自動(dòng)駕駛系統(tǒng)不知道它其實(shí)在開車 ,AlphaGo(阿爾法圍棋)不知道自己在下圍棋。我們做的大模型,也不知道自己在為人類生成某個(gè)特定的圖片 、視頻,或者回答人類特定的問題 ,它只是按照算法邏輯運(yùn)行。 ”他表示,能夠全面碾壓人類或者會(huì)成為未來世界主導(dǎo)的AI,短期內(nèi)還不會(huì)實(shí)現(xiàn) 。
耶魯大學(xué)計(jì)算機(jī)科學(xué)家德魯·麥克德莫特(Drew McDermott)此前也表示,當(dāng)前的AI機(jī)器并沒有意識(shí)。楊立昆也稱 ,AI再聰明也不會(huì)統(tǒng)治人類。
業(yè)內(nèi)熱議AI安全挑戰(zhàn)
盡管業(yè)界普遍認(rèn)為當(dāng)下的AI并沒有自主意識(shí),但前述事件還是引發(fā)了一個(gè)疑慮:高速發(fā)展的AI是否應(yīng)該踩一踩“剎車”?
在這一重大課題上,各方一直以來都是看法不一 ,形成了截然不同的兩大陣營(yíng) 。
“緊急剎車”派認(rèn)為,目前AI的安全性滯后于能力發(fā)展,應(yīng)當(dāng)暫緩追求更強(qiáng)模型 ,將更多精力投入到完善對(duì)齊技術(shù)和監(jiān)管框架上來。
“AI之父 ”杰弗里·辛頓(Geoffrey Hinton)堪稱這一陣營(yíng)的旗幟性人物。他多次在公開場(chǎng)合警示,AI可能在數(shù)十年內(nèi)超越人類智能并失去控制,甚至預(yù)計(jì)“有10%~20%的概率 ,AI將在三十年內(nèi)導(dǎo)致人類滅絕”。
而與之針鋒相對(duì)的反對(duì)者則更多站在創(chuàng)新發(fā)展的角度,對(duì)貿(mào)然“剎車”表達(dá)了深切的憂慮 。他們主張與其“踩死剎車 ”,不如安裝“減速帶”。
例如 ,楊立昆認(rèn)為,過度恐慌只會(huì)扼殺開放創(chuàng)新。斯坦福大學(xué)計(jì)算機(jī)科學(xué)教授吳恩達(dá)也曾發(fā)文稱,他對(duì)AI的最大擔(dān)憂是,“AI風(fēng)險(xiǎn)被過度鼓吹并導(dǎo)致開源和創(chuàng)新被嚴(yán)苛規(guī)定所壓制” 。
OpenAI公司首席執(zhí)行官薩姆·阿爾特曼(Sam Altman)認(rèn)為 ,AI的潛力“至少與互聯(lián)網(wǎng)一樣大,甚至可能更大 ”。他呼吁建立“單一、輕觸式的聯(lián)邦框架”來加速AI創(chuàng)新。
面對(duì)AI安全的新挑戰(zhàn),OpenAI、谷歌等大模型開發(fā)公司也在探索解決方案 。正如楊立昆所言:“真正的挑戰(zhàn)不是阻止AI超越人類 ,而是確保這種超越始終服務(wù)于人類福祉。”
去年5月,OpenAI公司成立了新的安全委員會(huì),該委員會(huì)的責(zé)任是就項(xiàng)目和運(yùn)營(yíng)的關(guān)鍵安全決策向董事會(huì)提供建議。OpenAI的安全措施還包括 ,聘請(qǐng)第三方安全、技術(shù)專家來支持安全委員會(huì)工作 。
網(wǎng)上股票賬戶開戶流程:股票交易如何加杠桿-AI模型首次出現(xiàn)“抗命不遵”!AI安全公司稱OpenAI o3模型出現(xiàn)異常
股票做杠桿是什么意思:配資門戶網(wǎng)-六大AI模型被扔進(jìn)加密市場(chǎng)廝殺 DeepSeek暫為交易之王
炒股能加多少倍杠桿:股票的杠桿什么意思-上交所:個(gè)人投資者參與科創(chuàng)成長(zhǎng)層股票交易門檻仍為“50萬元資產(chǎn)+2年經(jīng)驗(yàn)”
哪個(gè)公司股票好:交易杠桿什么意思-A股規(guī)模最大吸收合并項(xiàng)目迎重大進(jìn)展 證監(jiān)會(huì)、上交所高效賦能注入“強(qiáng)心劑”
交易杠桿什么意思:股票交易的手機(jī)-中國(guó)外交部及有關(guān)使領(lǐng)館正迅速組織撤離在以、伊的中國(guó)公民
炒股的杠桿什么意思:股票哪里可以開戶-“折戟”中國(guó)市場(chǎng)后 Manus最新回應(yīng)!AI智能體變天!
炒股股票開戶流程:股票杠桿最低多少-AI眼鏡熱度不減 Meta最新產(chǎn)品賣斷貨 CTO稱銷售點(diǎn)數(shù)量將翻番
股票開戶手續(xù)費(fèi)是多少:股票配資杠桿-股市突傳重磅!24小時(shí)交易?這家交易所大動(dòng)作!
在線炒股配資看必選-線上配資炒股-股票配資公司提示:文章來自網(wǎng)絡(luò),不代表本站觀點(diǎn)。
【隔夜行情】?周五(2025年3月21日),A股三大指數(shù)集體下跌,截至收盤,截止收盤,滬指跌1.29%,報(bào)收33...
記者辛圓3月25日,博鰲亞洲論壇旗艦報(bào)告《亞洲經(jīng)濟(jì)前景及一體化進(jìn)程2025年度報(bào)告》(以下簡(jiǎn)稱《報(bào)告》...
3月24日,易方達(dá)國(guó)證自由現(xiàn)金流ETF公開發(fā)售。該產(chǎn)品跟蹤國(guó)證自由現(xiàn)金流指數(shù),這個(gè)指數(shù)是什么?有哪些優(yōu)勢(shì)?投資價(jià)值如何?...
2025年3月25日,倍輕松(688793.SH)公告稱,公司股東寧波倍松投資有限公司(簡(jiǎn)稱“寧波倍松”)擬通過大宗交易...
宏觀要聞市場(chǎng)監(jiān)管總局發(fā)布《公平競(jìng)爭(zhēng)審查條例實(shí)施辦法》市場(chǎng)監(jiān)管總局發(fā)布《公平競(jìng)爭(zhēng)審查條例實(shí)施辦法》,將于4...
記者王珍中國(guó)國(guó)際經(jīng)濟(jì)交流中心副理事長(zhǎng)、國(guó)務(wù)院發(fā)展研究中心原副主任王一鳴周一在“中國(guó)發(fā)展高層論壇2025...
3月24日,海洋王照明科技股份有限公司(以下簡(jiǎn)稱“海洋王”,002724.SZ)早盤一字跌停,此后股價(jià)拉漲,尾盤封漲停板...
近日,開源證券大連分公司遭大連證監(jiān)局處罰,暫停其辦理需要合格投資者認(rèn)定相關(guān)業(yè)務(wù)六個(gè)月。該懲處力度在近年來券商分支機(jī)構(gòu)中并...