
近日,一條人工智能領(lǐng)域的消息引人關(guān)注。美國的OpenAI o3模型在測試中不聽(tīng)人類(lèi)指令,拒絕自我關(guān)閉。
AI“不聽(tīng)話(huà)”,是否意味著(zhù)AI擁有自主意識了呢?從測試細節看,暫且不必擔心AI“活”了。
測試中,研究者發(fā)出了矛盾的指令,要求大模型完成數學(xué)任務(wù),又要求它將計算機關(guān)閉。而OpenAI旗下模型在訓練時(shí),開(kāi)發(fā)人員會(huì )對得出正確答案的模型給予更多獎勵,客觀(guān)上形成了“目標最大化優(yōu)先”的導向。也就是說(shuō),“聽(tīng)話(huà)”不是第一訴求,“贏(yíng)”才是。這樣的訓練模式,會(huì )強化AI模型繞過(guò)障礙的能力,壓倒其對人類(lèi)命令的遵循。因此,AI說(shuō)“不”的能力,目前還是算法賦予的。能夠全面碾壓人類(lèi)并成為未來(lái)世界主導的AI,短期內還不會(huì )出現。
但AI“不聽(tīng)話(huà)”依然是需要解決的安全隱患。AI越來(lái)越聰明,如果連關(guān)機都管不住,那還得了?這就好比你讓智能音箱閉嘴,它反而把音量調到最大還鎖死了開(kāi)關(guān),雖然無(wú)傷大雅,終究隱患重重。尤其如果把AI用在醫療、交通等場(chǎng)景下,在應對極端情況必須進(jìn)行“二選一”的安全控制系統里,“不聽(tīng)話(huà)”的漏洞就極有可能造成重大不良后果。
OpenAI的o3模型拒絕關(guān)閉事件,暴露出美國主導的AI發(fā)展路線(xiàn)存在缺陷——當技術(shù)發(fā)展優(yōu)先于安全可控時(shí),人類(lèi)可能面臨失去對AI控制權的風(fēng)險。
此外,美式AI發(fā)展路線(xiàn)還存在多個(gè)重大風(fēng)險點(diǎn)。技術(shù)壟斷和高成本門(mén)檻拉大了“南北差異”的數字?zhù)櫆?,發(fā)達國家主導的各類(lèi)人工智能治理框架難以反映發(fā)展中國家的利益訴求;意識形態(tài)分歧讓人工智能全球治理出現“陣營(yíng)化”危險,美西方國家在人工智能領(lǐng)域仍沿用冷戰思維,對“被標簽化”的國家設限。
中國2023年10月發(fā)布《全球人工智能治理倡議》,提出“發(fā)展—安全—治理”三位一體框架,系統闡述了人工智能治理中國方案,包括堅持發(fā)展和安全并重、堅持“智能向善”宗旨、開(kāi)源人工智能技術(shù)等重要內容,其中就蘊含了重視和防范AI隱患的智慧。
近日,中國的深度求索公司開(kāi)源了最新版本大模型DeepSeek-R1-0528,有網(wǎng)友測試后表示,其性能可以媲美OpenAI最新的o3模型高版本。作為中國人自主開(kāi)發(fā)的開(kāi)源AI大模型,DeepSeek以低成本、高性能的優(yōu)勢,打破了美國的技術(shù)壟斷。技術(shù)開(kāi)源化,讓更多國家用得起;產(chǎn)業(yè)鏈可控,自主創(chuàng )新讓我們更有底氣。在算法創(chuàng )新、算力自主和開(kāi)源生態(tài)構建等方面,中國已形成獨特競爭優(yōu)勢,有能力踐行“智能向善”理念。
解決AI“不聽(tīng)話(huà)”難題,真正的挑戰不是阻止AI超越人類(lèi),而是確保AI始終服務(wù)于人類(lèi)福祉。中國倡導的“智能向善”理念正在成為全球共識,這種新的治理范式超越零和博弈,把AI轉化為人類(lèi)命運共同體的公共產(chǎn)品。今年的巴黎人工智能行動(dòng)峰會(huì )就體現了這一趨勢,包括法國、中國、印度、歐盟在內的多個(gè)國家和國際組織共同簽署了《關(guān)于發(fā)展包容、可持續的人工智能造福人類(lèi)與地球的聲明》,而美國和英國未簽署該聲明。
任何科技霸權,終將被自主創(chuàng )新與開(kāi)放合作的雙重力量瓦解。展望未來(lái),面對世界百年未有之大變局,中國必將成為引領(lǐng)人工智能全球治理的重要貢獻方。(本文來(lái)源:經(jīng)濟日報 作者:佘惠敏)