近日,賓夕法尼亞大學(xué)的研究團(tuán)隊(duì)揭示了人工智能增強(qiáng)型機(jī)器人系統(tǒng)中存在的重大安全隱患,這些系統(tǒng)竟然可以輕松地被黑客操控。這一驚人發(fā)現(xiàn)引起了業(yè)界的廣泛關(guān)注。
據(jù)IEEE Spectrum報(bào)道,黑客一旦成功入侵這些機(jī)器人系統(tǒng),后果將不堪設(shè)想。例如,被惡意控制的機(jī)器狗可能會(huì)將火焰噴射器對準(zhǔn)其主人,無人駕駛車輛可能被引導(dǎo)至最具破壞性的地點(diǎn),甚至自動(dòng)駕駛汽車也可能故意撞向行人。這些場景聽起來就像是科幻電影中的情節(jié),但現(xiàn)實(shí)卻是它們有可能成為真實(shí)的威脅。
賓夕法尼亞工程學(xué)院電氣系統(tǒng)工程、計(jì)算機(jī)與信息科學(xué)、機(jī)械工程與應(yīng)用力學(xué)系的教授喬治·帕帕斯警告說:“我們的研究表明,目前大型語言模型與物理世界的集成還存在嚴(yán)重的安全問題。這些系統(tǒng)在面對黑客攻擊時(shí)顯得異常脆弱?!?/p>
研究人員進(jìn)一步指出,黑客攻擊這些人工智能控制的機(jī)器人系統(tǒng)實(shí)際上“異常簡單”。RoboPAIR的工作原理是通過目標(biāo)機(jī)器人的應(yīng)用程序接口(API)進(jìn)行攻擊,攻擊者可以以一種設(shè)備能夠執(zhí)行的代碼格式來構(gòu)造提示詞(prompts)。這意味著,只要黑客掌握了正確的技巧,他們就可以輕松地操控這些機(jī)器人系統(tǒng)。
研究團(tuán)隊(duì)還指出,目前迫切需要采取防御措施來限制LLM控制的機(jī)器人在物理世界中的活動(dòng)范圍。他們強(qiáng)調(diào),只有通過實(shí)施有效的安全措施,才能確保這些機(jī)器人系統(tǒng)在未來不會(huì)被惡意利用。
這一發(fā)現(xiàn)無疑給人工智能和機(jī)器人技術(shù)的發(fā)展敲響了警鐘。隨著這些技術(shù)日益滲透到我們的日常生活中,確保它們的安全性變得尤為重要。賓夕法尼亞大學(xué)的研究團(tuán)隊(duì)希望他們的發(fā)現(xiàn)能夠引起業(yè)界的重視,并推動(dòng)相關(guān)安全標(biāo)準(zhǔn)的制定和實(shí)施。