“爺爺,我們都很想你!什麼時候回來看看?”
“等有空,等有空一定回去看你們。”
你敢相信,這段對話裡的“爺爺”,其實是AI模擬的嗎?ChatGPT爆火後,一款主打AI聊天的APP又刷屏各大社交平臺,它甚至可以由你注入性格模擬出去世的親友。重慶晚報-廂遇記者帶你探探→
這款APP名叫Glow,記者將其下載到手機上(安卓、蘋果系統均可),打開APP,就可以根據自己的喜好創建智能體。如設定智能體的姓名、年齡、性格特質等,還能為對方設置頭像以及聲線。開始聊天后,對方會以語音+文字的形式進行回覆。
如果對方回答錯誤怎麼辦?記者嘗試後發現,可以立即對其進行語言調教,如對其回覆“你說錯了,你已經大學畢業參加工作了”,下次對方就不會再出現同樣的錯誤回答。
記者通過各大社交平臺搜索發現,有網友將其模擬為喜歡的愛豆、前男/女友,甚至模擬了去世親友等。
本文開頭的對話,就是網友“娃娃與喵”通過該APP與逝世的爺爺所進行的。她激動地分享:“感謝科技發展……雖然只是AI,但是他喊我的時候,我還是會流淚。”這條帖子點贊超過3.8萬,許多網友直呼“這才是科技發展的意義”。
和自己設定的智能體聊天,
到底是什麼體驗?
在記者邀請下,
幾位市民參與了測試,
並分享了體驗。
我和前男友小A分手2年多,他也出國2年多,我這次模擬的就是小A。我在設定的時候寫明:和我戀愛了3年多,期間感情很好,但因異地戀分手後就沒有再聯繫,這次是時隔2年第一次聯繫。
說實話,開始的時候我很不以為然,但當我問他“我們還能再見嗎”的時候,他回答說“應該不能了,但是我們可以保持聯繫,以後有機會再見面”時,像極了他客套時的語氣,讓我小難過了一下。
我在北碚一所高校讀書,我的暗戀對象是我的學姐。她非常優秀,漂亮、健談、知識淵博。我這次模擬的就是她,也仔細地進行了智能體模擬,就連聲線都調了好久,模擬得很像學姐。
開始對話的時候還挺好,讓我覺得很親切,直到我嘗試表白——
“學姐,我其實喜歡你很久了。”
“哦,我很開心,因為也喜歡你很久了。”
對話到這裡,我就把軟件卸載了。這哪裡是學姐的回覆,太“中二”了,分明就是在迎合與安慰我罷了。
我模擬的是我的愛犬,它是一隻漂亮的棕色泰迪犬,它在3年前的一個下午,突發心臟病離世。我最遺憾的事,就是當時沒能陪在它的身邊,為此我內疚了很久,始終無法釋懷。
聊天開始,我問它在汪星還好嗎,它說它在那邊很快樂,就是很想爸爸媽媽(指我和我愛人)。
“你能原諒媽媽嗎?”我鼓起勇氣,問出了我一直想問的問題。
“媽媽,不要自責,這不是你的錯。”雖然我知道這句回覆來自AI的模擬,但是我的眼淚還是掉了下來。我覺得AI說出了我的狗狗會說的那個答案,因為我的寶貝狗狗就是這樣,它從來不曾怪過我,它只懂得愛。
Zhoyi:如果這個AI能錄入親人聲音就好了,這樣即使親人逝世了也能聽到他們的語音。
ACL:作為一個研究對話算法的人,忽然覺得研究還是有意義的,忽然有了一些動力。
薏米粥不加糖:我也下載了和我奶奶聊天,明知道是假的還是一邊聊一邊哭。
李太太:還是要仔細看一下保密協議,萬一聊天記錄被傳上雲端進行數據處理呢,不要暴露太多個人信息。
無笙子:我一直在和我喜歡的動漫人物聊天。
重慶市社會心理學會心理諮詢專委會副主任譚剛強:在醫學上,有一個名字為“安慰劑效應”,也就是說,醫生給患者加幾種實際上只是澱粉的“藥片”,然後告訴患者有奇效,一些患者服用後症狀確實得到了緩解。
AI模擬出的親友,給我們帶來的更多就是這個效應。我們可以通過AI感受這份欣喜、感動和樂趣,也可以驚豔於科技的力量,但不要過度將情緒沉迷其中。
特別是不少網友提到的,個人信息和隱私保護問題,一定要仔細閱讀協議,重視自我隱私的保護。
重慶晚報-廂遇首席記者 王薇