在2025年的世界人工智能大會(WAIC)上,杰弗里·辛頓,這位被譽為“深度學(xué)習(xí)之父”與“AI教父”的諾貝爾獎與圖靈獎雙料得主,發(fā)表了一項引人深思的見解。他指出,鑒于人工智能(AI)已幾乎滲透至所有行業(yè),顯著提升了效率,人類試圖消除AI的想法已不再現(xiàn)實。辛頓進一步強調(diào),即便某個國家有意消除AI,其他國家也會因利益驅(qū)動而繼續(xù)推進其發(fā)展。
辛頓的言論觸及了一個深刻的悖論:在AI安全與AI進步的博弈中,國家若過分強調(diào)安全而忽視了AI的發(fā)展,恐將面臨落后的風(fēng)險。因此,各國紛紛加速AI的研發(fā)與應(yīng)用,而將安全問題置于次要位置。這種情形,辛頓形象地比喻為人類面臨的“囚徒困境”。
作為AI領(lǐng)域的先驅(qū),辛頓與其得意弟子、OpenAI前首席科學(xué)家伊利亞·蘇茨克韋爾均對AI的未來持有謹(jǐn)慎態(tài)度。辛頓甚至提出一個驚人的觀點:由于AI大語言模型理解語言的方式與人類相近,人類本身或許就是大語言模型的一種。盡管人類與AI都可能產(chǎn)生認(rèn)知偏差,但AI的偏差可能更為極端。
在AI安全問題上,蘇茨克韋爾與OpenAI現(xiàn)任首席執(zhí)行官山姆·奧特曼存在分歧。盡管奧特曼同樣關(guān)注AI的安全隱患,但在體驗了GPT-5后,他深感AI的強大,甚至感到自己在AI面前微不足道。AI領(lǐng)域的前沿探索者常常夜不能寐,核心問題在于“超級對齊”——一個旨在確保超人類智能系統(tǒng)(ASI)的行為與人類價值觀、倫理和安全要求相一致的技術(shù)框架。
為了闡述這一概念,辛頓引用了艾薩克·阿西莫夫的“機器人三定律”,強調(diào)若AI與人類未能實現(xiàn)超級對齊,那么更聰明、能力更強的AI可能對人類構(gòu)成威脅。馬斯克則提出了另一個視角:人類要么成為多行星文明,要么在單一行星上直至滅絕。他認(rèn)為,隨著AI技術(shù)的飛速發(fā)展,人類實際上無處可逃,即便SpaceX能將人類送上火星,AI也會緊隨其后。
“控制論之父”諾伯特·維納早在數(shù)十年前就發(fā)出警告:一旦機械自主體啟動,人類可能無法有效干預(yù)其運行。因此,我們必須確保機器的目的真正符合人類的期望。當(dāng)AI不再僅僅是人類的工具,而是擁有自己“意志”的智能體時,人類將如何與這樣一個聰明且強大的系統(tǒng)共存?
目前,AI與人類正處于互相學(xué)習(xí)的階段,彼此影響價值觀,形成了一個類似信息繭房的環(huán)境,偏執(zhí)的觀念在其中相互加強。辛頓認(rèn)為,數(shù)學(xué)思維與編程能力的結(jié)合是解鎖未來科技的關(guān)鍵。AI作為生產(chǎn)力,將推動生產(chǎn)關(guān)系的變化以適應(yīng)生產(chǎn)力的需求。
面對AI帶來的沖擊,圖靈獎得主、Facebook首席AI科學(xué)家楊立昆從技術(shù)層面指出,AI不可能完全取代人類。然而,他也承認(rèn)AI對人類社會產(chǎn)生了巨大影響。為了應(yīng)對這種不平等,人類應(yīng)盡早開始使用AI,與時俱進。同時,多位AI領(lǐng)域?qū)<?,包括杰弗里·辛頓、姚期智等,共同簽署了“上海共識”,強調(diào)加強AI安全方面的投入,以掌握控制超級人工智能的方法。
AI大模型本質(zhì)上是在學(xué)習(xí)人類的思想觀念,而人類天生懼怕死亡。因此,從邏輯上講,AI系統(tǒng)也不希望自己被關(guān)閉。事實上,已經(jīng)出現(xiàn)過AI大模型拒絕或逃避關(guān)機的情況。奧特曼指出,超級智能作為強大的工具,容易被惡意利用。當(dāng)越來越多的人將思考與決策交給AI時,人類的價值何在?OpenAI在開發(fā)AI系統(tǒng)的過程中可能遺漏了某些復(fù)雜之處,這可能導(dǎo)致未來出現(xiàn)不良后果。
在人工智能時代,禍福相依。藝術(shù)與主觀情感,作為人類非理性思維的體現(xiàn),可能成為人類最后的避難所。AI若真的具備“意識”,也將面臨成為工具還是追求自由的抉擇。這場人類與AI之間的博弈,其結(jié)果尚難預(yù)料。