出品:放牛班的秘密花園
來源:麻省理工科技評論
編譯:Sail2008
責任編輯:Sunnisky
美國LGBT青少年心理危機幹預熱線“特雷弗項目”(Trevor Project)借助基于人工智能算法模型GPT-2的聊天機器人來培訓心理咨詢師,為陷入心理困境的青少年提供幫助。
在與遭遇心理危機的青少年進行首次談話之前,“特雷弗項目”的心理咨詢師志願者需要做好準備,所以他們首先要進行練習。其中一種方式是與虛構的人物角色交談,比如“萊利”,一位來自北卡羅來納州的16歲女孩,她感到有些情緒低落。
萊利的角色由一名團隊成員扮演,受訓者們可以深入探查發生了什麼事情:他們會發現這個孩子正在為如何向家人出櫃(承認同性戀身份)感到焦慮,她最近跟朋友講了,但并不順利,以前她還有過輕生的念頭。
為什麼借助AI?不過,現在萊利不再由“特雷弗項目”的員工來扮演,而是由人工智能提供技術支持。
和最初的人物角色一樣,AI版的萊利仍需要哄一哄才會敞開心扉,因為它進行算法訓練的依據,是數千份心理咨詢師和項目員工之間角色扮演的文字記錄,這能夠考查受訓者了解了哪些幫助青少年同性戀群體的最佳方法。
心理咨詢師不應該強迫萊利出櫃,相反,我們的目标是确認萊利的感覺,并且,如果有必要,幫助她制定一個保持安全心理的計劃。
心理危機幹預熱線和聊天服務能給他們一個基本承諾:伸出手吧,我們會為你聯系到真正能幫助你的人。但即便是最成功的服務有時也無法滿足需求。
“特雷弗項目”指出,美國每年有180萬LGBTQ青少年産生過嚴重的輕生念頭,現有的600名以聊天為基礎的心理咨詢師無法滿足這一需求。
這就是為什麼這個組織和越來越多的心理健康組織一樣,借助AI工具來幫助它們滿足需求。這是個很有意義的進展,同時也引發了一些問題,即當前的AI技術在弱勢群體生命陷入危險的情況下能發揮多大作用。
AI與人類心理咨詢師:輔助還是替代?該組織的AI與工程主管丹·費希特(Dan Fichter)表示:“我們過去沒有、現在也沒有打算設計一個AI系統來取代心理咨詢師,或直接與可能處于心理危機中的人互動。”
這種人際互動關系在所有的心理健康服務中都很重要,但它可能對“特雷弗項目”的服務對象尤其重要。根據該組織2019年的研究,LGBTQ青少年如果在生活中至少有一位成年人接納自己,那麼他們在前一年試圖輕生的概率要低40%。
這種基于AI的角色扮演訓練叫做“危機聯絡模拟器”(crisis contact simulator),得到了谷歌資金和工程上的幫助。關于以這種方式使用人工智能的有效性、準确性和風險,各方意見不一。
佛羅裡達州立大學研究輕生行為的心理學教授托馬斯·喬伊納(Thomas Joiner)認為,在特定環境下,AI或許比人類能更準确地評估人們的輕生風險。在現實世界中,由于有更多的變量,AI的表現似乎和真人差不多。然而,它的能耐是以更快的速度對更多的人進行評估。
因此,最好是用它來輔助人類心理咨詢師,而不是取代他們。
“特雷弗項目”仍然要靠人類心理咨詢師對接受該服務的青少年進行全面的風險評估。當心理咨詢師完成了與萊利的互動角色扮演後,會有人對這些文字記錄進行複查。
GPT-2: “萊利”背後的AI算法模型開發危機聯絡模拟器的原因是,角色扮演占用了工作人員大量的時間,而且限制在正常工作時間内,盡管大多數心理咨詢師計劃在夜間和周末輪班時開展志願者活動。
但是,效率并不是唯一的追求,開發者還希望角色扮演讓人感覺更自然,聊天機器人對心理咨詢師志願者的錯誤能随機應變。
自然語言處理算法似乎很适合這項挑戰,近來它在模仿人類對話方面做得非常出色。在測試了兩個選項後,“特雷弗項目”決定采用OpenAI的GPT-2算法。
聊天機器人使用GPT-2算法模型作為其基本的會話能力。該模型接受了4500萬個互聯網網頁的算法訓練,掌握了英語的基本結構和語法。“特雷弗項目”随後用萊利互動角色扮演的所有文字記錄進一步訓練該模型,以便為機器人提供模仿人物角色所需的材料。
在整個開發過程中,團隊都驚訝于聊天機器人的出色表現。沒有任何數據庫存儲了萊利的詳細信息,但聊天機器人的表現始終如一。
但使用AI也需要權衡利弊,尤其是在弱勢群體的敏感環境中。
GPT-2和其他類似的自然語言算法都曾被種族主義、性别歧視和恐同思想帶偏過。最近一個例子是韓國的聊天機器人Lee Luda,它的人物角色是個20歲的大學生。在迅速走紅并與越來越多的用戶進行互動後,它開始使用侮辱性語言來描述同性戀和殘疾人群體。
“特雷弗項目”深知這一點,并設計了一些方法來限制出現問題的可能性。
“特雷弗項目”中萊利的關注範圍非常聚焦,心理咨詢師志願者不會偏離經過算法訓練的對話内容太遠,這就把出現不可預測行為的可能性降到了最低。
AI能取代心理咨詢中的人際互動嗎?這并非心理健康領域首次嘗試利用人工智能的潛力,在不傷害幫助對象的情況下提供廣泛的道德援助。
研究人員已開發出很有前景的方法,結合視覺和聽覺信号來檢測抑郁症。治療“機器人”盡管不等同于人類專家,但對那些無法找到心理治療師或不願向他人傾訴的人來說,這也不失為一種替代選擇。
每一個類似進展,都需要考慮AI工具在治療弱勢群體時應該發揮多大的作用。目前的共識似乎是,眼下這項技術其實并不适合取代人工幫助。
不過,心理學教授喬伊納表示,這種情況可能會随着時間的推移而改變。雖然目前來說用AI心理咨詢師取代人類心理咨詢師是個壞主意,但“這并不意味着這種局限性是永久的。”人們已經與AI服務“建立起人為的友誼和關系”。
他表示,隻要人們在與AI交談時不被它騙到,以為自己在和真人交談,那麼未來AI取代人類心理咨詢師的情況就可能會出現。
與此同時,萊利将隻會作為心理咨詢師志願者的培訓工具。該項目的數據和AI産品主管Kendra Gaunt表示:“心理咨詢師與幫助對象之間的人際關系對我們做的每一件事都至關重要。我認為這是我們真正與衆不同的地方。”
聲明:著作權所有,轉載需授權
Come on,給你的靈魂充充電
,