Dlaczego nie powinieneś diagnozować się psychiatrycznie lub psychologicznie za pomocą sztucznej inteligencji?
Sztuczna inteligencja znajduje się wszędzie – od rekomendacji filmów na Netflixie, przez asystentów głosowych, aż po systemy diagnostyczne w medycynie. Niewątpliwie, technologia ta przyciąga pacjentów szukających szybkich odpowiedzi na temat swojego zdrowia psychicznego. Jednak samodzielne diagnozowanie się przy użyciu narzędzi AI, takich jak ChatGPT, specjalne aplikacje diagnostyczne lub algorytmy online, niesie ze sobą poważne zagrożenia, które mogą prowadzić do błędnych diagnoz, niepotrzebnego lęku lub opóźnienia w otrzymaniu właściwej pomocy. Artykuł ten wyjaśnia, dlaczego profesjonalna diagnoza postawiona przez psychiatrę lub psychologa pozostaje niezbędna i dlaczego AI – mimo wszystkich swoich możliwości – nie powinna być narzędziem pierwszego wyboru do diagnozowania zaburzeń psychicznych.
Ograniczenia techniczne AI w diagnozowaniu zaburzeń psychicznych
Wysoki stopień błędu i błędnych wyników
Badania naukowe pokazują, że obecne systemy AI, w tym ChatGPT, nie są wystarczająco dokładne do samodzielnego diagnozowania zaburzeń psychicznych. W ocenie ChatGPT jako narzędzia diagnostycznego odkryto, że odpowiadał on poprawnie zaledwie w 49% przypadków, osiągając ogólną dokładność na poziomie 74%, ale precyzję (zdolność do prawidłowej identyfikacji konkretnych przypadków) zaledwie 48,67%. Co gorsza, w przypadku złożonych stanów psychiatrycznych, takich jak wczesna schizofrenia, dokładność AI spadała drastycznie – do zaledwie 55%. Oznacza to, że prawie połowa diagnoz wystawionych przez takie systemy może być błędna, a ryzyko fałszywych wyników pozytywnych (błędnego wskazania zaburzenia, które na prawdę nie istnieje) lub fałszywych wyników negatywnych (pominięcia rzeczywistego zaburzenia) jest niepokojąco wysokie.[1][2][3]
Te liczby są szczególnie alarmujące w kontekście zdrowia psychicznego, gdzie błędy diagnostyczne mogą mieć poważne konsekwencje – od niepotrzebnego lęku i strachu po zbytnią autodiagnozę, aż po opóźnienie rzeczywistego leczenia osób, u których rzeczywiście występują zaburzenia psychiczne.
Brak uwzględnienia kontekstu klinicznego
Psychiatria i psychologia to dyscypliny, które wymagają nie tylko rozpoznania symptomów, ale również głębokie zrozumienie kontekstu życiowego pacjenta. Zaburzenia psychiczne rzadko istnieją w próżni – są związane z indywidualną historią zdrowia, doświadczeniami traumatycznymi, okolicznościami życiowymi, stanem fizycznym, pojawiającymi się lekami i innymi czynnikami. Systemem AI, nawet zaawansowanym, brakuje umiejętności do przeprowadzenia rzeczywistego klinicznego wywiadu, zadania inteligentnych pytań uzupełniających czy interpretacji niuansów w tym, co pacjent mówi.[4]
Czołowy system AI może na podstawie wprowadzonego tekstu stwierdzić: „Twoje objawy sugerują depresję”, jednak to oświadczenie ignore’uje wiele istotnych kwestii: czy te objawy są nowymi, czy trwają od lat? Czy pojawiły się w wyniku konkretnego traumatycznego zdarzenia? Czy pacjent przyjmuje leki, które mogą powodować depresję? Czy objawy mogą być związane z chorobą somatyczną, taką jak zaburzenia tarczycy? Czy inne czynniki, takie jak bezsenność czy złe odżywianie, mogą wyjaśniać ten stan? Odpowiedzi na te pytania są kluczowe dla prawidłowej diagnozy i są niedostępne dla systemów AI.[5][6][7][4]
Hałas w danych treningowych i algorytmiczna stronniczość
Systemy AI uczą się na podstawie danych historycznych – tych, które były dostępne w przeszłości. W psychologii i psychiatrii oznacza to, że modele AI są nauczane na danych pochodzących z pacjentów, którzy faktycznie zostali zdiagnozowani i zgłosili się do systemu opieki zdrowotnej. Niestety, te dane zawierają wbudowaną stronniczość i nierówności istniejące w systemach opieki zdrowotnej.[8][9][10]
Na przykład, jeśli historycznie kobiety były niedodiagnozowywane pod względem ADHD lub zaburzenia spektrum autyzmu, a mężczyźni byli zadiagnozowywani prawie wyłącznie, to algorytm AI wyuczy się tej dyskryminacyjnej praktyki i będzie ją replikować – może znacznie niedoceniać symptomy zaburzeń u kobiet. Podobnie, jeśli dane treningowe pochodzą głównie z pacjentów z krajów bogatych i określonych grup etnicznych, algorytm może źle działać dla pacjentów z innych populacji. Ponadto, pacjenci z mniejszościowych społeczności często przez lata nie zgłaszali się do formalnej diagnozy z powodu stygmatyzacji, dyskryminacji lub braku dostępu do opieki – tych pacjentów w ogóle nie ma w danych treningowych AI.[9][10][8]
Oznacza to, że algorytmy AI mogą wzmacniać i nawet pogłębiać istniejące różnice w dostępie do diagnoz oraz w tym, kto uzyskuje dostęp do leczenia i jak efektywnie są leczeni.[10][9]
Brak przejrzystości i zaufania
Wiele zaawansowanych algorytmów uczenia maszynowego stosowanych w psychiatrii to tzw. „czarne skrzynki” – systemy, które podejmują decyzje, ale ich twórcy nie potrafią w pełni wyjaśnić, jak doszło do konkretnego wniosku. Oznacza to, że nawet jeśli system AI stwierdzi, że pacjent ma określone zaburzenie, ani sam pacjent, ani jego lekarz, ani twórca algorytmu nie mogą w pełni wyjaśnić logikę stojącą za tym wnioskiem. To stanowi poważny problem etyczny – jak możesz ufać diagnozie, której nikt nie potrafi ci wyjaśnić? Jak możesz podejmować decyzje dotyczące swojego leczenia na podstawie rekomendacji, którą nie rozumiesz w pełni?[11][12]
Zaburzenia psychiczne wymagają relacji człowieka z człowiekiem
Znaczenie terapeutycznego sojuszu
Jednym z najważniejszych odkryć w psychoterapii i psychiatrii jest znaczenie terapeutycznego sojuszu – relacji między pacjentem a terapeutą bądź psychiatrą. Badania konsekwentnie pokazują, że sama relacja terapeutyczna ma ogromny wpływ na wynik leczenia. Pacjent, który czuje się słuchany, rozumiany i zaakceptowany, oraz który ufa swojemu lekarzowi, ma znacznie większą szansę na powodzenie leczenia i odzyskanie zdrowia psychicznego.[6][13][5]
Sztuczna inteligencja, jakkolwiek zaawansowana, nie może repllikować ciepła, empatii i autentycznego zrozumienia, które przynosi rozmowa z rzeczywistym człowiekiem. Chatbot AI może używać słów takich jak „rozumiem” i „mi się przykro”, ale nie ma rzeczywistego doświadczenia ludzkiego cierpieniu lub zdolności do empatycznego reagowania na indywidualne potrzeby pacjenta w taki sposób, w jaki robi to prawdziwy terapeuta czy psychiatra. Ta relacja międzyludzka jest nie tylko komfortem – jest kluczowym elementem zdrowienia.[14]
Kryzys i bezpieczeństwo pacjenta
Zaburzenia psychiczne mogą być poważne i potencjalnie zagrażające życiu – depresja może prowadzić do samobójstwa, psychoza może prowadzić do niebezpiecznych zachowań, zaburzenia lękowe mogą prowadzić do unikania opieki medycznej. W sytuacjach kryzysowych pacjent potrzebuje natychmiastowego dostępu do człowieka, który może ocenić ryzyko, zapewnić bezpieczeństwo i podejmować szybkie decyzje kliniczne. System AI nie potrafi ocenić całego kontekstu zagrożenia – czy pacjent naprawdę próbuje skrzywdzić siebie, czy mówi o tym teoretycznie? Jakie są rzeczywiste zasoby i wsparcie społeczne pacjenta? Jakie są jego poprzednie zamachy samobójcze lub próby? Czy pacjent jest pod wpływem substancji?[15]
Sama automatyczna odpowiedź AI na sytuację kryzysową może okazać się niewystarczająca – pacjent może potrzebować natychmiastowej hospitalizacji, rozmowy z terapeutą lub wezwania służb ratowniczych. Żaden chatbot nie może tego zapewnić.[15]
Kwestie prawne i etyczne
Tylko licencjonowani specjaliści mogą diagnozować
Diagnozowanie zaburzeń psychiatrycznych i psychologicznych wymaga specjalnego przeszkolenia, licencji i uwierzytelnienia zawodowego. W większości krajów, w tym w Polsce, tylko psychiatrzy (lekarze ze specjalizacją w psychiatrii) i psycholodzy kliniczni (posiadający specjalną licencję) mogą oficjalnie postawić diagnozę zaburzenia psychicznego. To nie jest przypadek – te wymogi istnieją, aby chronić pacjentów przed szkodą wynikającą z błędnych lub nieodpowiednio sformułowanych diagnoz.[16][17]
System AI, niezależnie od tego, jak zaawansowany, nie posiada licencji, nie ma licencji lekarskiej ani psychologa, i z prawnego punktu widzenia, nie powinien angażować się w postawianie diagnoz.[18][16]
Odpowiedzialność i brak recourse
Jeśli lekarz czy psycholog popełni błąd diagnostyczny, pacjent ma prawo do skargi, może zaskarżyć specjalistę, a nawet ubiegać się o odszkodowanie przez sąd. Jednak, jeśli błędnie diagnozujesz siebie za pośrednictwem systemu AI, kto ponosi odpowiedzialność? Producent aplikacji? Platformę internetową? System AI nie ma osobowości prawnej i nie może być pociągnięty do odpowiedzialności w taki sposób, w jaki może być lekarz.[18][16]
Poważne luki w walidacji klinicznej
Większość modeli AI nie przeszła walidacji
Systematyczne przeglądowe badania naukowo-medyczne, które oceniły setki modeli AI opracowanych do diagnostyki psychiatrycznej, odkryły zatrważający fakt: z 555 modeli AI opracowanych do diagnozowania zaburzeń psychicznych, 83,1% wykazało wysoki stopień błędu metodologicznego, a ŻADEN z nich nie został uznany za gotowy do zastosowania w praktyce klinicznej. To oznacza, że żaden z tych systemów nie przeszedł rygorystycznych testów, które są wymagane do zatwierdzenia przez instytucje regulacyjne, takie jak FDA.[19][20][21]
Prawie 72% modeli miało nieadekwatne rozmiary próbek – oznacza to, że były testowane na zbyt małej liczbie pacjentów, co powoduje, że wyniki nie mogą być uogólniane na większą populację. Co więcej, 100% modeli nie posiadało „kalibracji” – to znaczy, że nikt nie sprawdził, czy prognozowane przez model prawdopodobieństwo choroby rzeczywiście odpowiada rzeczywistości.[19]
Brak zewnętrznej walidacji
Poza tym, 84,5% modeli AI zostało przetestowanych jedynie na tych samych danych, na których zostało wytrenowane – to znana pułapka w statystyce zwana „overfitting” (przeuczanie). Model może wyglądać bardzo dobrze na danych treningowych, ale spektakularnie zapaść się, gdy spotka nowe, nieznane wcześniej dane. Tylko 15,5% modeli zostało przetestowanych na całkowicie nowych danych pochodzących z innych pacjentów, szpitali lub krajów. To jest wielkim ostrzeżeniem – jeśli model nie był walidowany na nowych danych, nie można być pewnym, że będzie działać prawidłowo w rzeczywistej praktyce klinicznej.[22][19]
Co robić zamiast tego?
Jeśli martwisz się swoim zdrowiem psychicznym, zamiast szukać diagnozy w internecie lub przez aplikacje AI, powinieneś:
- Skontaktuj się z psychiatrą lub psychologiem – dostęp do profesjonalnego specjalisty jest bezpieczny, etyczny i oparty na uprawnieniach zawodowych. W Polsce możesz skontaktować się ze swoim lekarzem rodzinnym, który może Cię skierować do specjalisty.
- Bądź szczery o swoich symptomach – podczas wizyty opisz dokładnie, jakie objawy Ci się pojawiły, jak długo trwają, co je pogarsza lub ulepsza. Im więcej informacji dostarczysz specjaliście, tym dokładniejsza będzie diagnoza.
- Pytaj pytania – dobry psychiatra lub psycholog będzie chętnie wyjaśniać ci jego wnioski, dlaczego uważa, że masz określone zaburzenie, i jak planuje Ci pomagać. Jeśli coś nie rozumiesz, pytaj aż do zrozumienia.
- Szukaj drugiej opinii, jeśli czujesz się niepewny – jeśli otrzymana diagnoza Cię niepokoił, zawsze masz prawo zasięgnąć opinii innego specjalisty. To normalna część opieki zdrowotnej.
- Pamiętaj, że AI może być narzędziem uzupełniającym – systemy AI mogą być przydatne do edukacji zdrowotnej, zrozumienia objawów lub udzielenia wsparcia emocjonalnego, ale nigdy nie powinny zastępować profesjonalną diagnozę.
Podsumowanie
Sztuczna inteligencja jest rzeczywiście technologią obiecującą, która może wiele zrobić dla medycyny i psychiatrii w przyszłości. Jednak w obecnej chwili, ta technologia nie jest jeszcze wystarczająco dojrzała, aby bezpiecznie i niezawodnie diagnozować zaburzenia psychiczne. Błędy diagnostyczne mogą być poważne – mogą prowadzić do niepotrzebnego lęku, opóźnienia rzeczywistego leczenia, lub inicjowania niewłaściwych terapii. Zdrowiem psychicznym powinna zajmować się osób, która posiada szkolenie, doświadczenie, licencję i zdolność do rzeczywistego zrozumienia Twoich indywidualnych potrzeb.
Psychiatra lub psycholog to osoba, która zna Twoją historię, rozumie kontekst Twoich symptomów i może podjąć razem z Tobą decyzje dotyczące Twojego zdrowia psychicznego. Żaden algorytm nie może tego zrobić – i to jest dokładnie powód, dlaczego profesjonalna diagnoza pozostaje niezbędna. Twoje zdrowie psychiczne jest ważne – zasługujesz na najlepszą opiekę, którą człowiek może Ci zapewnić.
Źródła:
- https://www.mdpi.com/2254-9625/15/1/9
- https://pmc.ncbi.nlm.nih.gov/articles/PMC11290643/
- https://dx.plos.org/10.1371/journal.pone.0307383
- https://pmc.ncbi.nlm.nih.gov/articles/PMC9818923/
- https://pmc.ncbi.nlm.nih.gov/articles/PMC5046781/
- https://pmc.ncbi.nlm.nih.gov/articles/PMC7160990/
- https://pmc.ncbi.nlm.nih.gov/articles/PMC2993536/
- https://pmc.ncbi.nlm.nih.gov/articles/PMC7309258/
- https://pmc.ncbi.nlm.nih.gov/articles/PMC10250563/
- https://pmc.ncbi.nlm.nih.gov/articles/PMC10991528/
- https://pmc.ncbi.nlm.nih.gov/articles/PMC11814848/
- https://pmc.ncbi.nlm.nih.gov/articles/PMC10623776/
- https://pmc.ncbi.nlm.nih.gov/articles/PMC1525053/
- https://pmc.ncbi.nlm.nih.gov/articles/PMC10546438/
- https://pmc.ncbi.nlm.nih.gov/articles/PMC10838501/
- https://pmc.ncbi.nlm.nih.gov/articles/PMC7340020/
- https://pmc.ncbi.nlm.nih.gov/articles/PMC8763330/
- https://onlinelibrary.wiley.com/doi/10.1002/ctm2.1362
- https://pmc.ncbi.nlm.nih.gov/articles/PMC9989906/
- https://www.mdpi.com/2079-9292/13/3/498/pdf?version=1706111663
- https://pmc.ncbi.nlm.nih.gov/articles/PMC7486909/
- https://pmc.ncbi.nlm.nih.gov/articles/PMC12017374/
- https://pmc.ncbi.nlm.nih.gov/articles/PMC8760040/
- https://pmc.ncbi.nlm.nih.gov/articles/PMC11567685/
- https://pmc.ncbi.nlm.nih.gov/articles/PMC7815505/
- https://www.mdpi.com/2075-4418/13/1/2/pdf?version=1671540641
- http://arxiv.org/pdf/2306.03902.pdf
- https://pmc.ncbi.nlm.nih.gov/articles/PMC11553606/
- https://onlinelibrary.wiley.com/doi/10.1111/pcn.13588
- https://arxiv.org/pdf/2303.15727.pdf
- https://www.mdpi.com/2227-9709/12/1/9
- https://assets.cureus.com/uploads/original_article/pdf/167241/20230818-8026-10m90k3.pdf
- https://pmc.ncbi.nlm.nih.gov/articles/PMC11107915/
- https://pmc.ncbi.nlm.nih.gov/articles/PMC10123874/
- https://mental.jmir.org/2023/1/e42045/PDF
- https://pmc.ncbi.nlm.nih.gov/articles/PMC9936371/
- https://pmc.ncbi.nlm.nih.gov/articles/PMC11390554/
- https://pmc.ncbi.nlm.nih.gov/articles/PMC7270881/
- https://pmc.ncbi.nlm.nih.gov/articles/PMC4296804/
- http://telerehab.pitt.edu/ojs/index.php/Telerehab/article/download/6091/6380
- https://pmc.ncbi.nlm.nih.gov/articles/PMC7179517/
- https://pmc.ncbi.nlm.nih.gov/articles/PMC9744441/
- https://pmc.ncbi.nlm.nih.gov/articles/PMC9980665/
- https://www.cambridge.org/core/services/aop-cambridge-core/content/view/128F172A3F9DE1777D5E343D86C1E7BA/S2056469400002278a.pdf/div-class-title-the-application-of-rasch-measurement-theory-to-psychiatric-clinical-outcomes-research-div.pdf
- https://pmc.ncbi.nlm.nih.gov/articles/PMC2990547/
- https://pmc.ncbi.nlm.nih.gov/articles/PMC1414743/
- https://www.mdpi.com/2079-3200/11/2/26/pdf?version=1675929363