Zamknij ten odtwarzacz wideo
Spis treści
Najważniejsze wnioski
- Niektórzy ludzie zwracają się do platform AI, takich jak ChatGPT, w celu uzyskania wsparcia w zakresie zdrowia psychicznego, ale jest to ryzykowne, jeśli na pewno nie są to wykwalifikowani pracownicy służby zdrowia.
- Trwają jednak prace nad stworzeniem chatbotów opartych na sztucznej inteligencji, które będą odpowiadać za kwestie zdrowia psychicznego.
- Sztuczna inteligencja w dziedzinie zdrowia psychicznego jest wciąż stosunkowo nowym rozwiązaniem, ale w przyszłości może okazać się bardziej przydatna.
Od czasu premiery pod koniec listopada ubiegłego roku ChatGPT przejął wyobraźnię Internetu. Sztuczny chatbot oparty na inteligencji opracowany przez OpenAI ma pozornie nieograniczoną liczbę zastosowań — jeśli chodzi o generowanie informacji — i zdecydowanie nie ogranicza się do pisania esejów i listów motywacyjnych. Teraz ludzie zaczynają używać go również jako terapeuty.
Jak to działa? ChatGPT dostarcza informacji w sposób konwersacyjny, więc jeśli zadajesz pytanie dotyczące swoich uczuć beznadziei i strachu o przyszłość, może dość szybko udzielić Ci wskazówek. Może nie jest to prawdziwa osoba, ale dostarcza Ci dokładnych informacji, których potrzebujesz, bez konieczności przeszukiwania stron informacji online, ani nie każe Ci czekać na spotkanie z ludzkim (lub internetowym) terapeutą.
Jedyny problem polega na tym, że ChatGPT nie został zaprojektowany jako terapeuta i nie jest aktualizowany po 2021 roku. Nie trzeba dodawać, że otrzymywanie sugestii zdrowotnych od robota AI, który nie ukończył szkoły medycznej, wiąże się z wieloma ryzykami, ale wywołuje to szerszą dyskusję na temat potencjalnych zastosowań AI w sektorze zdrowia psychicznego — pod warunkiem, że jest odpowiednio stosowana.
„ChatGPT i rozmowy na temat wpływu mogą faktycznie otworzyć więcej możliwości”, wyjaśnia Chaitali Sinha, szef rozwoju klinicznego i badań w Wysa . „Zamiast strachu wokół chatbotów, teraz oczekuje się, że można ich używać do wywierania pozytywnego wpływu. Ludzie oczekują od AI więcej niż kiedyś”.
Potencjalne korzyści ze stosowania sztucznej inteligencji w kontekście terapii
Nawet jeśli na razie odrzucimy ChatGPT, wciąż jest wiele postępów w zakresie zdrowia psychicznego i AI. Platformy i aplikacje takie jak Wysa pomagają zmienić sposób, w jaki myślimy o zdrowiu psychicznym — jak mówi Sinha: „Posiadanie aplikacji do zdrowia psychicznego na telefonie i w ręku powinno być tak samo normalne, jak posiadanie każdej innej aplikacji”.
Ludzcy terapeuci są po prostu ludźmi. Mogą być stronniczy, nawet jeśli jest to podświadome. Terapeuta może być rasistą, homofobem lub osobą niepełnosprawną — korzystanie z terapeuty AI eliminuje ryzyko, że ktoś będzie rozmawiał z terapeutą, który może nie pracować dla niego .
Ludzie mogą też obawiać się, że terapeuta ich osądzi lub podzieli się z nimi poufnymi informacjami. Albo nie czuć się gotowi na rozmowę z prawdziwą osobą na drażliwe tematy, zwłaszcza jeśli w przeszłości mieli negatywne doświadczenia z terapią.
Nie tylko to, ale czasami terapeuci mogą zachorować lub mieć w życiu takie rzeczy, które oznaczają, że muszą odwołać lub przełożyć wizyty. Mogą się wypalić lub nie być w najlepszej formie na wizytę. W przeciwieństwie do tego terapeuta AI nie będzie.
Ergo Sooru, dyrektor generalny DrHouse
W przyszłości narzędzia oparte na sztucznej inteligencji prawdopodobnie będą w stanie zapewnić bardziej spersonalizowane i dostosowane metody leczenia osobom cierpiącym na różne problemy ze zdrowiem psychicznym, wykorzystując różne dane, takie jak nawyki związane ze stylem życia, historię medyczną i inne.
Często są długie listy oczekujących na terapię . Terapeuta-człowiek może rozmawiać tylko z jedną osobą lub grupą na raz. Potrzebują oni snu, przerw na lunch i czasu wolnego od pracy. Czy terapia AI mogłaby skrócić listy oczekujących lub stać się bardziej przystępną cenowo opcją dla osób, które mają problemy ze znalezieniem pieniędzy na terapię?
„Ludzie nie doświadczają problemów w „wygodnych” momentach” — mówi Sinha. „Ich zdrowie psychiczne jest zawsze obecne, stając się trudniejsze, gdy tak się dzieje, a nie wtedy, gdy najłatwiej jest uzyskać pomoc.
„Jednak żaden z naszych dotychczasowych mechanizmów terapeutycznych nie został zaprojektowany z myślą o osobistych doświadczeniach osoby z problemami psychicznymi, a sztuczna inteligencja wypełnia tę lukę”.
Często wspomina, że ludzie będą mieli spotkanie raz w tygodniu, podczas gdy mogą potrzebować wsparcia w innym czasie. Opisuje AI jako „łączenie luki między potrzebami ludzi”, w sposób, w jaki ludzie po prostu nie potrafią.
„Ludzie raczej nie będą dzwonić na infolinie wsparcia kryzysowego każdej nocy, ale mogą uzyskać pomoc za pośrednictwem aplikacji takich jak Wysa, a pracownicy służby zdrowia mogą udostępnić Wysę do użytku między sesjami, dzięki czemu ludzie nie zostaną bez wsparcia”.
Wady sztucznej inteligencji
Terapia AI ma również potencjalne wady.
Możliwe problemy z bezpieczeństwem i prywatnością są poważne. Kiedy dzielisz się informacjami z terapeutą AI, gdzie one trafiają? Czy na przykład istnieje ryzyko włamania? Rzeczywiście, etyka AI w opiece nad zdrowiem psychicznym jest czymś, co było już wcześniej omawiane, a badacze rozważali kompromis między bardziej spersonalizowaną opieką a obawami dotyczącymi prywatności, autonomii i stronniczości.
Ponadto, ludzkie relacje są naprawdę ważne w terapii. Mimo że jest to relacja lekarz-pacjent, interakcja twarzą w twarz jest ogromną częścią tego, co czyni terapię skuteczną. To dlatego ludzie się otwierają.
„Terapie oparte na sztucznej inteligencji nie są w stanie zinterpretować niewerbalnych sygnałów, które są niezbędne do udanej relacji terapeutycznej” — mówi Ergo Sooru, współzałożyciel i dyrektor generalny DrHouse . „Nie są też w stanie zapewnić takiego samego poziomu wsparcia emocjonalnego i zrozumienia, jak człowiek”.
Rozwój terapeutów AI jest z pewnością ekscytujący. Ale jeszcze tam nie jesteśmy. Nawet najlepszy terapeuta AI nie będzie miał takiego samego standardu jak dobry, wykwalifikowany i zdolny terapeuta ludzki.
Co to dla Ciebie oznacza
Możliwości na przyszłość opieki nad zdrowiem psychicznym są ogromne, a sztuczna inteligencja może być realną opcją w przyszłości. Jednak obecnie ludzie powinni być ostrożni w pokusie korzystania z narzędzi Chat GPT w celu uzyskania porady dotyczącej zdrowia psychicznego. Technologia po prostu jeszcze nie istnieje. Ale nawet jeśli pewnego dnia dotrze do celu, nie ma substytutu dla terapii osobistej, a celem powinna być opieka uzupełniająca, a nie zastępstwo dla rozmowy z certyfikowanym specjalistą — który jest człowiekiem.
Włączanie sztucznej inteligencji do opieki nad zdrowiem psychicznym
Połączenie terapii ludzkiej i AI jest prawdopodobnie najlepszą opcją na przyszłość. Szybkie wsparcie, gdy jesteś w rozpaczliwej potrzebie, ale opieka ludzka jako Twoje główne, stałe rozwiązanie. W końcu każdy jest inny. Dla niektórych osób terapeuta ludzki może być jedyną opcją, jaką rozważają. Inni mogą być bardziej otwarci na terapię AI.
Sooru twierdzi, że w terapii z wykorzystaniem sztucznej inteligencji powinien być obecny znaczny stopień ingerencji człowieka, „aby zapewnić pacjentowi najlepszą możliwą opiekę”.
Ale AI nadal może być stosowana w opiece nad zdrowiem psychicznym, nawet jeśli sami terapeuci nie są AI. Badanie z 2019 r. obejmowało kategoryzację przez AI tysięcy stwierdzeń terapeutów podczas sesji terapii poznawczo-behawioralnej (CBT) online trwających 90 000 godzin, a badanie to potwierdza tezę, że CBT jest powiązane z poprawą objawów u pacjentów.
Badania takie jak to pokazują, że sztuczna inteligencja może wspierać opiekę nad zdrowiem psychicznym na inne sposoby, szczególnie w miarę postępu, jaki dokonuje się w tej dziedzinie.
Przyszłość zdrowia psychicznego i sztucznej inteligencji
„To wciąż wczesny etap dla AI w kontekście zdrowia psychicznego, chociaż wyraźnie zachodzą zmiany” – mówi Sinha. „Ale to, co widzimy, to apetyt na cyfrowe rozwiązanie. Wysa może być sztuczną inteligencją, ale zespół, który za nią stoi, jest w dużej mierze ludzki i wnosi ogromną wiedzę specjalistyczną i doświadczenie, aby zapewnić, że Wysa zapewnia empatię i współczucie.
„Chcemy zaoferować ludziom narzędzie, które będzie dla nich odpowiednie i na ich warunkach”.
„W przyszłości prawdopodobne jest, że narzędzia oparte na sztucznej inteligencji będą w stanie zapewnić bardziej spersonalizowane i dostosowane metody leczenia dla osób cierpiących na różne problemy ze zdrowiem psychicznym, wykorzystując różne dane, takie jak nawyki związane ze stylem życia, historia medyczna i inne” – dodaje Sooru.
„Ogólnie rzecz biorąc, narzędzia oparte na sztucznej inteligencji mogą być korzystne w poprawie zdrowia psychicznego, ale obecnie nie powinny być stosowane jako substytut tradycyjnych form terapii”.