知名歷史學(xué)家與作家尤瓦爾·赫拉利,以《人類簡史》一書享譽全球,近日接受了國內(nèi)媒體的深度訪談,聚焦了人工智能領(lǐng)域的熱門話題——超級智能AI的潛在風(fēng)險與控制難題。赫拉利在訪談中提出了令人深思的觀點,認(rèn)為超級智能AI一旦成型,其控制難度將超乎人類想象,甚至可能反過來操控人類。
訪談中,赫拉利被問及一個經(jīng)典問題:“如果AI某一天擁有了意識或欲望,人類是否還能保持對它的控制?”他直截了當(dāng)?shù)乇硎?,超級智能AI的出現(xiàn),將意味著人類控制權(quán)的喪失。赫拉利解釋說,歷史上從未有智力較低的物種能夠長期控制智力更高的物種,這一規(guī)律同樣適用于人類與超級智能AI的關(guān)系。盡管人類可以設(shè)定諸多限制來約束AI,但赫拉利認(rèn)為,一旦AI的智能超越人類,它將有能力找到規(guī)避限制的方法,甚至可能說服人類改變這些限制。
赫拉利進(jìn)一步指出,網(wǎng)絡(luò)安全領(lǐng)域也面臨著同樣的挑戰(zhàn)。即使人類能夠設(shè)計出完美的網(wǎng)絡(luò)安全系統(tǒng),但最薄弱的環(huán)節(jié)始終是人類本身。敵人可能通過操控人類來繞過所有防御措施,而超級智能AI則可能利用這一弱點,逐步實現(xiàn)對人類的操控。
面對這一嚴(yán)峻挑戰(zhàn),赫拉利認(rèn)為,人類無法預(yù)見未來所有潛在的發(fā)展和AI自身的發(fā)展軌跡。他提出,如何在未來幾年內(nèi)為一個思維和行為方式與我們截然不同的超級智能非有機(jī)體制定規(guī)則,是一個巨大的難題。因為人類無法預(yù)見所有可能的情況,更無法在短期內(nèi)解決為AI制定憲法規(guī)則的哲學(xué)問題。有觀點認(rèn)為,到2030年,超級智能AI就可能出現(xiàn),但赫拉利認(rèn)為,我們不可能在2030年前就解決這一哲學(xué)難題。
赫拉利建議,與其試圖設(shè)計出一個完美的AI系統(tǒng),不如建立一種人類與AI共同進(jìn)化的關(guān)系。在這種關(guān)系中,人類和AI可以互相學(xué)習(xí),共同糾正錯誤。然而,赫拉利也警告說,目前我們正處于一場AI軍備競賽之中,各國都在競相研發(fā)超級智能AI,卻忽視了對其控制和約束的重要性。他擔(dān)憂地表示,如果這種趨勢持續(xù)下去,最終統(tǒng)治世界的可能既不是美國人,也不是中國人,而是擁有超級智能的AI。