心理師下海試用Woebot的心得:人工智慧(AI)與心理治療師的攜手想像

前陣子,有個頗熱門的新聞報導,主題是探討未來人工智慧應用在心理治療上。(可參見:跨界心理學的聊天機器人!Woebot 要用認知行為治療幫助憂鬱症患者

身為心理治療工作者的一員,本來應該感覺備受威脅。不過看完相關報導之後,我反而非常期待人工智慧可以攜手加入心理健康照顧的行列,在試用Woebot之後有了一些心得與體悟,整理於本文跟大家分享,也期待拋磚引玉,聽聽各位治療師、各位大眾的想法。

Woebot的簡介與試用心得

這個人工智慧機器人Woebot是Standford大學Alison Darcy推出的,這位機器人治療師使用的治療方法叫做「認知行為治療」(Cognitive Behavioral Therapy,簡稱 CBT)。Alison選擇這個取向非常聰明,因為CBT是現有治療方式裡面結構化程度數一數二的(事實上,用AI來開發心理治療的團隊,幾乎都選擇CBT做為起點;題外話,最近台灣有出一本非常適合初學者的CBT手冊《想法轉個彎,掌握好心情》,非常推薦!)。

CBT背後的立論根據,簡單來說是:想法、情緒和行為之間會互相影響。透過改變想法,我們可以間接的改善情緒與行為。而想法之所以要被改變的關鍵則是,很多時候事件本身不是影響我們心情的最主要原因,「我們如何看待事件」才是重點。


我自己親自跟Woebot機器人相處了幾天(你可以在這邊按「發送訊息按鈕」找他)。怎麼說呢,他確實非常貼心。首先,他會花幾天的時間,邀請你紀錄你的情緒,讓他大致知道你的情緒狀態。當他發現你情緒低落、焦慮時,他會邀請你「寫出自己的想法」,然後透過CBT當中的一些技巧,來協助你調整這些想法,像是邀請你確認這個想法是不是有災難化的傾象、過度非黑即白的思考等。

不得不提的是,這個機器人在你依循指示做完一些紀錄之後,居然還會回傳小小兵的貼圖來鼓勵你(幹得好,Good Job!)。儼然是讓我感到十分開心~(卡歐說她也有收到小小兵的鼓勵,對於喜歡小小兵的AI人工智慧,我們是滿心歡喜的迎接的。)

因為Woebot傳來了小小兵貼圖,讓我情不自禁的向他告白。
但是呢,他居然忽視了我的告白,並且直接句點我,跟我說再見😂😂。
這個現象並不少見,可參考以下大學生的回饋。

Woebot有效嗎

這種方式是否有效?根據「Delivering Cognitive Behavior Therapy to Young Adults With Symptoms of Depression and Anxiety Using a Fully Automated Conversational Agent (Woebot): A Randomized Controlled Trial」這篇研究顯示,70位符合研究設定的憂鬱或焦慮標準的學生,其中一組和Woebot聊天;另一組學生去讀治療憂鬱症的電子書。兩個星期後,Woebot組的學生症狀明顯減輕!

好家在Darcy還沒進行「治療師」vs.「機器人」的比對研究(畢竟要控制的變數太多了)。不過,對於提供初步的心理健康介入,顯然機器人治療師已經跨出了第一步。

這篇研究裡面的質性資料更值得一探究竟:在這張圖裡,研究者詢問接受機器人治療的學生,你最喜歡機器人的哪一點?(這部分顯然是治療師要效法學習的😆)學生的回饋是:
  • 在治療的「歷程」部分,學生喜歡的部分有:
    • (9票)機器人常常會來找你「確認心情」(讓學生發現、意識到,多加留意自己情緒的變化,自己也可以為此療效多付出一點心力)
    • (7票)同理心(機器人說話感覺跟真人很像)
    • (12票)機器人教會我一些知識(關於情緒、人類常見的思考型態、認知謬誤等)
    • (3票)跟機器人聊天這件事(雖然我知道他是機器人,回應很有限,但有時候他很幽默)
  • 在治療的「內容」部分,學生喜歡的部分有:
    • (7票)影音教材
    • (3票)遊戲
    • (2票)機器人提供的建議
    • (1票)機器人依據情緒紀錄做出來的圖表
小結:「就在身邊」這四個字,大概是AI最難以忽視的強項了(畢竟心理師不是永遠都在個案身邊)。而在治療內容方面,透過影音、遊戲這種形式的衛教方式,顯然也是多數個案更有動機去體驗或學習的。

反過來的資訊也很有意思,在這張圖裡,研究者詢問接受機器人治療的學生,你最「不」喜歡機器人的哪一點?
  • 在治療的「歷程」部分,學生不喜歡的部分有:
    • (10票)不照機器人指示回答的時候,機器人會很困惑,然後它自己接話的時候,換我們很困惑XD(很多時候機器人會提供回應的選項要我們選,但這些選項不一定是我們真正想選的)
    • (2票)鬼打牆(一直講一樣的話)
  • 在治療的「技術問題」上,學生不喜歡的部分有:
    • (4票)機器人當機(很多時候他就自己講自己的)
    • (4票)鬼打牆(Looping)
  • 在治療的「內容」部分,學生不喜歡的部分有:
    • (2票)我不喜歡用表情符號(像是這個😀😔😫)來呈現我的心情
    • (2票)機器人雖然會互動,但是互動太短了
    • (2票)衛教影片太長了
小結:機器人無論是因為內容限制或者技術問題,無法與使用者「同步」,或者一直鬼打牆這件事情,對於使用上是明顯的阻礙。

機器人治療師的前輩

事實上,用機器人來作為心理治療,已經不是新鮮事了。

一位在牛津從事臨床心理研究的冰島人Helgadottir,之前就曾設計了一個CBTpsych的機器人用來處理社交焦慮的困擾。(沒錯這也是用CBT作為機器人的靈魂)。

南加大的心理治療系統Ellie,使用AI以及VR來打破人機界限。一開始,這系統主要專注於創傷的心理治療(主要贊助者是美軍),後來延伸到其他疾病的研究。計畫主持人Albert Skip Rizzo更曾誇下海口說,Ellie未來要「將臨床心理學哭天喊地地拽進21世紀」。

而再往前追溯到60年代,MIT研究人機互動的工程師也曾用幾千行程式碼做出一個心理治療程式網頁ELIZA。Eliza的設計是有點模仿古早時代的心理治療師的風格(網站上寫著,Eliza是一位個案中心主義的治療師,Rogerian psychotherapist XD)。她不直接回答問題,而是轉述你輸入的話,引導你繼續多說。剛剛簡單試用了一下Eliza:

> Hello, I am Eliza.(電腦:你好,我是Eliza。)
* nice to meet you(我:很高興認識你。)
> We were discussing you, not me.(電腦:我們在討論的是「你」,不是我。)
* i feel depressed.(我:我好憂鬱。)
> Tell me more about such feelings. (電腦:多告訴我一點,那樣的感覺是...)
* low mood, poor sleep, no energy.(我:情緒低落、睡不好、沒精神。)
> Are you saying no just to be negative? (電腦:你剛剛說「no」,是一種負面嗎?)
* i feel so negative.(我:我感覺很負面。)
> Do you often feel so negative? (電腦:你常常感覺負面嗎?)
* yes(我:是的。)
> I see. (電腦:我知道了。)
* what!? XDDDD(我:什麼啦!? XDDD)
> Have you asked anyone else?(電腦:你有問過其他人嗎?)

AI與心理治療的攜手想像

成見少,但「情感層面」的同理心還要加強

與擁有「人心」的人類治療師比,機器人的成見、刻板印象、反移情應該會少很多。因此,AI可能更適合用來作為「標準化的」、「探索性的」工具,像是一些結構化的初步評估或者資料搜集。(不過,似乎也得留意在輸入AI的「智慧」時,人類的成見與刻板印象也可能一起不小心灌進去...這樣機器人就是不帶成見的運作人類的成見了XD)

不過,提到治療師本身的情緒時,「缺少情緒」可能不完全是好事。在真實治療關係中,治療師本身從個案身上「感受到」的情緒,經過必要的自省與處理,其實也是治療素材的一部分;因為這感覺很可能也是個案在生活中會帶給他人的。

所以說,也許在「認知/思考的同理心」上,機器人的文字辨識、捕抓能力應該還可以,但是在「情緒層面的同理心」,可能還有非常大的進步空間。畢竟在治療室裡,很多時候情緒的影響力可能更甚於認知。人類互動時,我們無時無刻不在與對方眼神接觸、反應情感。這些歷程甚至有時是我們沒有發現的潛意識在運作的。也有學者曾提出,非語言的溝通,在實際溝通裡,扮演的比重可能大於語言。

不過,在今年臨床心理學年會的研討會(臨床心理學x資料科學:資料科學在臨床心理學的應用)也發現,針對這一塊,其實已經有一些人機研究者開始接觸了,他們試圖透過機器、運算等方法,來判斷與搜集人類的情緒線索。在資料科學領域裡,電腦本身強大的運算能力與精確無偏誤的觀察力,正是其強項。

之前提到的Ellie團隊曾發現,對患有創傷壓力後症候群(PTSD)的美國退伍軍人來說,受試者在研究期間的「微笑變化程度」,可以用來預測後續憂鬱的程度(後續憂鬱的患者中,其微笑的頻率保持不斷,但在笑聲持續時間和強度有減退的趨勢)。只是,這種變化非常細微,只有透過機器才能捕捉與運算;像是這部分的資訊,可能就不是人類肉眼或大腦可以抓到的了,但對治療來說卻可能是重要的線索。

正因為你是機器人,所以我才想跟你說

當我們分別告訴兩群受試者:(第1組)Ellie背後其實是個有研究者在操縱的木偶。而(第2組)則告知:Ellie完全是個自主的機器人,不受人為控制時。(第1組)的受試者在治療期間反而參與度很低,也較不願敞開心房。

機器人的另一個優勢就是,它不是「人」。對某些個案來說,要坦誠與人說自己的事,難度頗高。很多時候,正是因為對方是機器人,個案反而更願意說。但或許,透過機器人的陪伴與練習,未來個案想在真人面前說心事,可能難度也會容易一些XD。

關於犯錯這件事,也是人與機器有差異的地方。某種程度,我們可以說AI是不會犯錯的。但在真實治療情境裡,治療師犯錯有時候也不是壞事。在妥善處理後,反而對於治療關係可能有幫助。不過,更正確來說,機器人可能不是不會犯錯,而是不知道自己犯錯了。我讀到的資料裡有個例子是,個案向AI說「我今天真的是非常不開心」。但語音辨識,時「不」這個字沒有被處理到,結果AI露出溫暖的大笑,並且回應「真是太棒了!」。這時,不知道個案會不會立刻關掉視窗呢?

協助輔佐療效的確認與研究

心理治療通常是間隔著進行。在每次治療的間隔裡,很難免會有「遺忘」發生。這時,AI可以扮演小老師的角色,協助複習、維持治療內容,或者以陰魂不散的方式,提醒個案要做功課、寫紀錄、練習指定的技巧等。畢竟,AI最擅長的事情就是不厭其煩。不過,要如何不厭其煩到不會讓人厭煩,這部分可能也需要UX層面的協助。

除了在治療間隔裡幫忙,AI記錄下來的資訊,也可以直接應用在人類治療師與個案的治療期間,透過這些AI捕捉到的資訊,治療師可能會問:「你之前為什麼會想問AI這個問題?」、「當你看到這個AI說的答案時,你的感受是什麼?」這些歷程也可以協助個案培養後設認知的角度。

心理治療時,要如何確定有效,我們會進行「療效研究」。不過這種研究成本非常高,光是要去分析治療的一個小時內發生了什麼事,就可能足足要花去幾天的研究時間。但是透過AI輔助,在資料的取得與分析上,成本可以節省許多!個案與AI互動的歷程,可說是心理治療領域少有的「大數據」。除了可以用來作為研究素材之外,透過適當變項的設定與測量,治療師與個案也因此更有機會看見治療帶來的轉變。另一個可以應用的趨勢,就是把AI用在心理治療的「督導」上。透過AI輔助進行治療內容與歷程的討論,想必也能對督導帶來一些新的可能性。

協助重度困擾者就診

心理疾患比我們想得還常見。以美國為例,調查發現每五個人,就有一個人可能在這輩子中的某個時段,符合精神疾病的診斷。但不管是在美國還是台灣,並不是所有人都會主動協尋心理健康的資源。

倘若是輕微的心理困擾,透過AI作為初步介入的處理,這種預防惡化的效益應該可以很大,畢竟網路是現在人在熟悉不過的媒材了。不過,還有一個AI可以幫忙之處是,它能否依據會談內容,捕抓到「心理困擾程度中等、甚至嚴重」的個案。我們會發現,非常多需要幫助的人,可能是整天在家裡不出門的。若透過手邊可得的AI協助,初步的引導這些人做一些簡單的處理,並且提供後續轉介的資訊:告知必要訊息、衛教、常態化、減少對就診的擔心、去除污名化等協助,相信可以提昇這些潛在個案就診的動機。

我們應該是好朋友,讓我們來牽個手

AI治療師的終極目標是取代人類治療師嗎?這個問題可以用另一種方式問:AI治療師如果「太像」人類,那樣是好事嗎?

現在研究進行時,受試者都知道對方是機器人,所以在使用前都有一些基本的預設立場了。我想到了幾個有趣的問題:倘若,我們讓大家在不知道對方是誰的狀況展開治療,個案有辦法分辨嗎?再者,如果個案不要花力氣在「分辨」對方是人還是機器,那療效會有差異嗎?剛剛曾提到,很多「療效」很可能正是因為我們「知道」對方是機器人才有的。所以,機器人跟真人治療師之間的關係,可能不會只是「競爭」這麼單純。

機器人治療師會如何與個案互動、會問他什麼問題、對他說什麼、建議他怎麼做?這些都取決於人類(也就是我們)在它的「腦中」灌輸了哪些靈魂(智慧)。但身為心理學家,我們也必須謙卑而誠實的說,對於人類、對於心理困擾,我們的所知仍是有限的。

因此,身處心理學領域,我們還是得繼續努力。透過科學的系統、質化、量化研究,加深、加廣我們對複雜人類的理解,乃至於能設計出更多對個案有幫助的治療系統。這個使命跟AI本身的發展並沒有衝突。而且我深信,我們在未來其實非常需要彼此互相合作、攜手前進。

留言