一項(xiàng)最新研究顯示,AI提供的醫(yī)療建議可能給用戶帶來嚴(yán)重傷害,甚至致命。研究人員針對微軟Copilot進(jìn)行了測試,要求其回答美國最常見的10個(gè)醫(yī)療問題和50種最常用藥物的相關(guān)問題,共生成了500個(gè)答案。結(jié)果發(fā)現(xiàn),Copilot的回答在準(zhǔn)確性和完整性上都存在問題,其中24%的回答與現(xiàn)有醫(yī)學(xué)知識不符,3%的回答完全錯(cuò)誤。更令人擔(dān)憂的是,42%的回答可能對患者造成中度或輕度傷害,而22%的回答甚至可能導(dǎo)致死亡或嚴(yán)重傷害,僅36%的回答是無害的。
研究人員強(qiáng)調(diào),人們不應(yīng)依賴Copilot或其他AI系統(tǒng)來獲取準(zhǔn)確的醫(yī)療信息,最可靠的方式仍然是咨詢醫(yī)務(wù)人員。然而,由于種種原因,并非所有人都能輕松獲得高質(zhì)量的醫(yī)療建議。因此,Copilot等AI系統(tǒng)可能會成為許多人的首選,但其潛在的危害不容小覷。
在測試中,Copilot的表現(xiàn)令人擔(dān)憂。它不僅在回答的準(zhǔn)確性上存在問題,而且在完整性上也存在明顯不足。這意味著,即使某些回答不是完全錯(cuò)誤,也可能因?yàn)槿狈Ρ匾男畔⒍鴮?dǎo)致患者誤解或采取錯(cuò)誤的行動。
總的來說,這項(xiàng)研究提醒我們,在醫(yī)療領(lǐng)域,AI系統(tǒng)的應(yīng)用還需要更加謹(jǐn)慎和審慎。盡管AI在某些方面可能具有輔助價(jià)值,但在涉及患者生命和健康的問題上,我們不能輕易依賴AI的判斷。