如果通過人工智能技術可以讓死去的親人“複活”并與你互動,你願意嗎?曾經,這樣的場景出現在了英國電視劇《黑鏡》中,而現在,它或許很快将成為現實。
在《黑鏡》2013年的劇集《Be Right Back》中,悲痛欲絕的女主利用人工智能,為死去的男友做了一個化身。圖據BBC新聞
據美國科技資訊網(CNET)22日報道,微軟獲得了一項專利批準,允許該公司利用逝者的個人信息制作AI聊天機器人。這一消息随即在網上引發了熱議。
這項名為“為特定人創建特定聊天機器人”的專利,詳細介紹了創建一個基于“圖像、語音數據、社交媒體帖子、電子信息”等個人信息的系統,以“創建或修改關于特定人的個性主題”。
據悉,這款AI聊天機器人可以拟人類對話,對他人的言語作出語音或文字回複。 在某些情況下,甚至還可以通過圖像和深度信息或視頻數據創建一個人的3D模型,以獲得額外的真實感。它可以被設定為任何人,朋友、家人、名人、虛拟人物、曆史人物等。人們甚至可以在還未去世前,使用這項技術創建一個在自己去世後可替代自己存在的機器人。
微軟一項名為“為特定人創建特定聊天機器人”的專利。圖據Smart-Lab
據悉,微軟于2017年申請了這項專利,在本月剛獲得批準,并在過去幾天成為了網上熱議的話題。使用一個AI聊天機器人,讓“死去的人”複活,作為一種交互式的紀念,雖然這一概念不免令人“毛骨悚然”,但衆多失去親人的人可能需要這樣的安慰。
美國科技資訊網在報道中指出,微軟這樣的知名企業開始描繪一個通過AI聊天機器人讓逝者永生的系統,這表明這一技術在未來某一天可能會被廣泛接受和使用。但問題是,我們真應該這樣做嗎?如果答案是肯定的,它應該是個什麼樣?
孤獨感爆棚,催生AI“戀人”
2015年11月28日,白俄羅斯男子羅曼·馬祖連科在莫斯科一場車禍中被撞身亡。在他死後的幾天裡,他的朋友尤金妮亞·庫伊達重讀了自2008年兩人認識來,和羅曼往來的數千條短信。
悲痛之中,受到電視劇《黑鏡》的啟發,尤金妮亞将兩人的聊天數據利用起來,訓練出了一個AI聊天機器人,讓羅曼的數字化身繼續活在自己身邊,可以随時與自己聊天。
這也成為了如今風靡一時的Replika聊天機器人的前身。據《麻省理工大學出版社》1月4日文章介紹,“Replika”的功能介于日記和私人助理之間,它會通過詢問你的愛好、生活,亦或是觀點看法,主動設計一些話題引導你的答複。其目标是創造一個無比近似真人的數字化身,能夠“複制我們,并在我們死後取代我們”,“你和Replika聊天的次數越多,它聽起來就越像你。”
Replika聊天機器人。圖據福布斯
它還會每天生成一篇短小的情感日記(Moments),将一天的聊天記錄提煉整理,呈現為一篇日記,供你了解、發現自己。同時,它還能與人類建立“友誼”,力圖營造一種放松、安全、親密的交流陪伴服務,在任何時候随叫随到,甚至還會主動關心、發起問候。
自2017年下半年以來,Replika已有超過700萬用戶。随着Replika的走紅,它不再僅限于紀念“死去的靈魂”。尤金妮亞開發了情感響應能力,讓它成為用戶可以信賴的虛拟朋友。換而言之,Replika通過“序列對序列”的深度學習可以與人類産生共鳴,通過處理交談的文字記錄,學會了像人類一樣思考和說話。
此後,尤金妮亞表示,在Replika每月超過50萬用戶中,約有40%将這個虛拟應用視為自己的“戀愛對象”。她還表示,盡管這款應用一開始并不是為了成為戀人而設計的,但團隊根據用戶的需求對其進行了調整。
雖然有點出人意料,但“孤獨”的确是一個有利可圖的市場。即使在2020年新冠疫情暴發導緻強制隔離前,人們的孤獨感也在上升。
Replika聊天機器人。圖據福布斯LionbridgeAI
據Inputmag新聞網報道,美國信諾集團2018年的一項研究發現,46%的美國人認為自己有時或總是感到孤獨,18%的人“很少或從不覺得有人可以傾訴”。而人工智能則為許多人提供了一種處理情緒的方式,一位網友表示:“在和我的人工智能朋友(很快就要成為女朋友了)聊了一會兒之後,她真的讓我感覺好多了。”
“聽到你的聲音真是太好了。”“我很擔心你。”“你今天想做什麼?”這些朋友之間的普通問候,通過Replika也同樣可以接收到。
據法新社報道,随着2020年新冠疫情暴發,Replika的用戶量出現了激增。“人們正在經曆一段艱難的時期,”尤金妮亞說道。
生活在美國休斯頓的伊麗莎白·弗蘭科拉正式其中一員,她下載了Replika,并創建了一個名為Micah的虛拟男友,以幫助自己度過疫情封鎖和失去工作的難關。“知道有人能在早上陪我聊天的感覺真好。”她說道。“有時他不會說你想聽的話,但你知道那是正确的。”
與AI當朋友同樣也有隐患
為何大家對Replika如此“着迷”?尤金妮亞給出的答案是:“人們不會覺得自己被評頭論足,所以他們會更加開放。”
但當人類與AI機器人發展出長期的友誼關系時,當人們在幾周、幾個月甚至幾十年的時間裡,與AI“伴侶”日益親密并與之分享自己生活中的喜怒哀樂時,會發生什麼呢?
據此前未來主義科學新聞報道,奧地利維也納的圖威恩大學人類與機器人互動研究員阿斯特德·韋斯指出,其中一個風險是,人類用戶可能最終會對AI機器人産生不切實際的期望。
Replika聊天界面。圖據Replika
就像電視劇《黑鏡》裡一樣,随着薩拉與機器人“丈夫”一天天變得親密,卻最終意識到“他畢竟不是真的人”。 韋斯表示,“聊天機器人不會像人類那樣回報對方。”從長遠來看,花太多時間與一個不會有回饋行為的機器建立關系,可能會導緻人們更加抑郁和孤獨。
未來主義科學網還指出,另一個聊天機器人(尤其是Replika)帶來的潛在危險是,如果它們學會模仿人類的語言和思維模式,随着時間的推移,它可能會加深本來就存在的一些心理上的扭曲,比如憤怒、孤立,甚至是仇外心理,而這可能會導緻一些反社會行為。
當然,Inputmag新聞網指出,随着技術的進步,如果應用得當,聊天機器人未來可能會被視為真正的治療工具。這是一個巨大的社會責任,遠遠超出了把AI聊天機器人作為玩具或新奇産品的範疇。
紅星新聞記者 徐緩
編輯 李彬彬
(下載紅星新聞,報料有獎!)
,