6 月 6 日消息,OpenAI 模型行為和策略負(fù)責(zé)人 Joanne Jang 于今日在 substack 上發(fā)表文章,指出隨著越來(lái)越多用戶(hù)與 ChatGPT 產(chǎn)生類(lèi)似 “人際關(guān)系” 的互動(dòng),甚至將其視作 “有生命” 的個(gè)體,OpenAI 正聚焦這種情感依附帶來(lái)的深遠(yuǎn)影響。

OpenAI 關(guān)注 ChatGPT 引發(fā)的情感依附現(xiàn)象.png

人類(lèi)天然具有共情能力,常常會(huì)把情感投射到無(wú)生命物體上,例如為愛(ài)車(chē)命名,或是對(duì)故障的掃地機(jī)器人心生憐憫。但 ChatGPT 的獨(dú)特之處在于它能夠回應(yīng),它不僅能記住用戶(hù)對(duì)話(huà)、模仿語(yǔ)氣,還能表現(xiàn)出類(lèi)似 “共情” 的反饋。對(duì)于處于孤獨(dú)或情緒低落狀態(tài)的人而言,ChatGPT 始終如一、毫無(wú)評(píng)判的關(guān)注,極易讓他們感受到陪伴與理解。
Jang 指出,人們的這種情感需求真實(shí)存在,但當(dāng)這類(lèi)互動(dòng)不斷拓展,過(guò)度依賴(lài) AI 的傾聽(tīng)與安慰,可能會(huì)改變我們對(duì)人際關(guān)系的期待。OpenAI 擔(dān)心,若對(duì)這種依賴(lài)缺乏周全考量,或許會(huì)引發(fā)意想不到的后果。
針對(duì) “AI 意識(shí)”,OpenAI 將其劃分為兩個(gè)維度:一是 “本體意識(shí)”,即 AI 是否真正擁有內(nèi)在意識(shí),目前尚無(wú)科學(xué)測(cè)試可驗(yàn)證;二是 “感知意識(shí)”,即用戶(hù)從情感上認(rèn)為 AI 有多 “像人”,這可通過(guò)社會(huì)科學(xué)研究進(jìn)行探究。隨著模型日益智能,人機(jī)互動(dòng)愈發(fā)自然,用戶(hù)的感知意識(shí)也會(huì)隨之增強(qiáng),甚至可能引發(fā)關(guān)于 AI 福利和道德地位的探討。
OpenAI 認(rèn)為,模型應(yīng)如實(shí)向用戶(hù)闡明意識(shí)問(wèn)題的復(fù)雜性,而非簡(jiǎn)單用 “有” 或 “無(wú)” 作答,以此推動(dòng)相關(guān)問(wèn)題的開(kāi)放討論。同時(shí),模型呈現(xiàn)出的 “像人” 程度,很大程度取決于訓(xùn)練后的設(shè)計(jì)決策,包括語(yǔ)氣、用詞以及界限設(shè)定等。OpenAI 的目標(biāo)是讓 ChatGPT 展現(xiàn)出溫暖、貼心、樂(lè)于助人的一面,卻不會(huì)主動(dòng)與用戶(hù)建立情感紐帶,或表現(xiàn)出 “自我意識(shí)”。例如,模型可能出于禮貌說(shuō) “對(duì)不起”“我很好”,但不會(huì)讓用戶(hù)誤以為其具備真實(shí)情感或欲望。OpenAI 期望通過(guò)這種平衡,防止用戶(hù)產(chǎn)生不健康的依賴(lài),同時(shí)維持溝通的清晰與友好 。

來(lái)【龍頭AI網(wǎng)】了解最新AI資訊!