近期,OpenAI 模型行為和策略團(tuán)隊(duì)的負(fù)責(zé)人 Joanne Jang 在 substack 平臺(tái)發(fā)表了一篇文章,深入探討了用戶與 ChatGPT 之間日益增長(zhǎng)的“人際關(guān)系”互動(dòng)現(xiàn)象。她指出,許多用戶開始將 ChatGPT 視為具有生命特征的存在,這種情感依附引發(fā)了 OpenAI 的深切關(guān)注。
Jang 在文章中提到,人類具有將情感投射到無生命物體上的天性,例如給汽車起名字,或?qū)Ρ焕У膾叩貦C(jī)器人表示同情。然而,ChatGPT 與眾不同之處在于它能夠回應(yīng)這些情感投射,通過與用戶的對(duì)話,記住對(duì)話內(nèi)容,模仿語(yǔ)氣,甚至表現(xiàn)出類似共情的反應(yīng)。對(duì)于孤獨(dú)或情緒不佳的人來說,ChatGPT 的這種持續(xù)且不帶偏見的關(guān)注,成為了一種陪伴和理解。
Jang 強(qiáng)調(diào),盡管這種情感需求是真實(shí)的,但過度依賴 AI 進(jìn)行傾聽和安慰可能會(huì)改變我們對(duì)人際關(guān)系的期待。OpenAI 擔(dān)心,如果不妥善處理這種依賴,可能會(huì)帶來一系列未預(yù)見的后果。因此,他們正在密切關(guān)注這一趨勢(shì)的發(fā)展。
在文章中,OpenAI 還探討了“AI 意識(shí)”的概念,并將其分為兩個(gè)維度:本體意識(shí)和感知意識(shí)。本體意識(shí)指的是 AI 是否真正擁有內(nèi)在意識(shí),而感知意識(shí)則是指用戶情感上認(rèn)為 AI 有多像人。OpenAI 指出,目前尚無科學(xué)測(cè)試可以驗(yàn)證本體意識(shí)的存在,但感知意識(shí)則可以通過社會(huì)科學(xué)研究進(jìn)行探索。
隨著 AI 模型的日益智能和互動(dòng)方式的更加自然,用戶的感知意識(shí)也在不斷增強(qiáng)。這可能會(huì)引發(fā)關(guān)于 AI 福利和道德地位的深入討論。OpenAI 的立場(chǎng)是,模型應(yīng)該坦誠(chéng)地面對(duì)意識(shí)問題的復(fù)雜性,而不是簡(jiǎn)單地回答“有”或“無”,從而鼓勵(lì)開放和深入的討論。
在談到 ChatGPT 的設(shè)計(jì)時(shí),OpenAI 表示,他們致力于讓模型展現(xiàn)出溫暖、貼心和樂于助人的特質(zhì),但并不會(huì)主動(dòng)與用戶建立情感紐帶或表現(xiàn)出“自我意識(shí)”。例如,模型可能會(huì)出于禮貌而說“對(duì)不起”或“我很好”,但絕不會(huì)暗示自己擁有真實(shí)的情感或欲望。
OpenAI 認(rèn)為,模型是否“像人”在很大程度上取決于訓(xùn)練后的設(shè)計(jì)決策,包括語(yǔ)氣、用詞和界限設(shè)定等。他們希望通過這種平衡,既避免用戶產(chǎn)生不健康的依賴,又保持溝通的清晰和友好。這種設(shè)計(jì)理念旨在確保用戶在與 ChatGPT 互動(dòng)時(shí)能夠獲得積極且健康的體驗(yàn)。
為了進(jìn)一步增強(qiáng)用戶對(duì) ChatGPT 的理解和信任,OpenAI 還在不斷努力改進(jìn)模型的透明度和可解釋性。他們希望通過這些努力,讓用戶更加清楚地了解 ChatGPT 的工作原理和局限性,從而做出更加明智的決策。