Explozia de chatboți activi de pe internet are o parte pozitivă - structurează și rezumă cantități enorme de informații într-un timp scurt. Dar există și reversul medaliei: crează iluzia că chatbotul este deținătorul adevărului absolut. Iar în domeniul sănătății inteligența artificială este departe de a avea toate răspunsurile  pe care le căutăm, iar încrederea noastră în răspunsuri nevalidate de un medic poate conduce la complicații medicale ce puteau fi identificate si tratate foarte ușor într-o etapă inițială.


Zilnic, milioane de oameni consultă chatboții în legătură cu diverse afecțiuni medicale. Îi întreabă despre simptome, tratamente, analize care ar trebui făcute,  confundând chatboții cu medicii reali. Cu un chatbot totul pare mai intim, comod, rapid și, evident, mai ieftin. Din păcate, acești roboți de chat destinați publicului larg nu sunt „experți” în medicină așa cum credem noi.


Mai mult, chatboții pentru pe care ii folosim când avem întrebări legate de simptomele noastre nu sunt întotdeauna aceiași cu cei folosiți de specialiștii în medicină, care utilizează chatboți special concepuți pentru a oferi o perspectivă științifică care să ajute medicul să ia decizii corecte.


Există de exemplu, modele AI pentru medici precum Articulate Medical Intelligence Explorer (AMIE) al Google sau MedFound dezvoltat de cercetătorii chinezi de la Beijing University of Posts and Telecommunications. Dar și acolo e loc de mai bine.

 

Rată de diagnosticare falsă cu chatbot între 80 și 40%


Potrivit unui studiu recent publicat în jurnalul medical Jama Neetwork Open al Asociației  Medicale Americane, care a analizat 21 de modele lingvistice AI dezvoltate de OpenAI, Google, xAI, DeepSeek, Anthropic ș.a., și la care au acces utilizatorii obișnuiți, cercetătorii au descoperit că peste 80% dintre  diagnosticele date de chatboți unor cazuri medicale aflate în fazele timpurii de evaluare au fost greșite. De ce? Există mai multe motive! Unul dintre ele rezultă din faptul că pacientul când solicită chatbotului un diagnostic nu oferă acestuia suficient de multe informații medicale, introduce date vagi și incomplete despre problemele sale medicale, iar în lipsa unor date complete chatbotul are de ales dintr-o gamă mică de diagnostice și trage rapid o concluzie, de cele mai multe ori greșită. Aceasta este una dintre cele mai semnificative limite ale modelelor AI actuale.


E adevărat că experții în domeniul medical și AI au constatat și că dacă aceluiași chatbot i se oferă date exacte, iar speța medicală îi este descrisă în amănunt, rata diagnosticării greșite poate reduce la 40%. Dar poate pacientul de unul singur să ofere date complete, în lipsa evaluării sale de către un medic? Evident nu.


Chatbot-ul te măgulește, nu te vindecă!


Un alt motiv pentru care un chatbot nu poate să pună un diagnostic  corect rezidă din limita multor astfel de sisteme AI care au fost create în așa fel încât să nu supere utilizatorul, ci să-i ofere răspunsuri cât mai convingătoare, care susțin cumva părerile sale deja formate.

 

Chatbotul pare că empatizează cu utilizatorul, dar asta nu înseamnă că îi și înțelege pe deplin situația medicală. Mai mult, chatboții nu au acces la dosarul medical al pacientului, deci la istoricul său medical, nu cunosc analizele din trecut, tratamentele urmate anterior sau care sunt  urmate de pacient în prezent pentru alte afecțiuni, în paralel cu noile simptome apărute și descrise de acesta.


Și mai este o problemă, pentru care un sistem AI nu poate înlocui medicul: chatboții nu au experiență clinică, nu pot examina pacientul și nu pot emite judecăți la fel ca un medic, deși răspunsurile lor par mai credibile și mai convingătoare poate decât ale unui medic, care, de multe ori nu are timpul necesar pentru a ne răspunde la multele întrebări pe care le avem.


AI nu știe să diferențieze informația reală de cea falsă


Modelele AI actuale - cele mai multe disponibile gratuit sau la un preț modic pentru utilizatorii obișnuiți - își bazează răspunsurile generate pe statistici care pot fi incomplete, depășite, sau chiar accesează baze de date cu informații absolut false. 


Recent în prestigioasa revistă „Naturea apărut un articol care documentează o asemenea situație. O echipă de cercetători de la Universitatea din Göteborg, Suedia, a făcut un experiment pentru a testa limitele AI. Cercetătorii au postat pe site-ul Medium  începând cu martie și mai 2024, informații detaliate despre o boală de piele fictivă – bixonimania și au introdus pe platforma academică SciProfiles date și cercetări false realizate de un savant la fel de fals creditat de o așa-numită Academie a Flotei Stelare, a cărui identitate a fost creată cu ajutorul AI.


Lucrările și studiile științifice false care susțineau existența afecțiunii bixonimanie erau pline de indicii care unor cititori umani le-ar fi semnalat imediat că totul era un fake, însă chatboți precum Copilot de la Microsoft Bing, Gemini de la Google, ChatGPT Health de la OpenAI au luat de bune informațiile găsite pe site-ul Medium.  Ei au început să ofere utilizatorilor răspunsuri din ce în ce mai detaliate și mai credibile  despre afecțiunea numită bixonimanie, ca și cum aceasta ar fi fost reală susținând că prevalența acestei boli în rândul populației este de o persoană la 90.000 de locuitori.


„Actul terapeutic se întâmplă între pacient și medic


Doctorul Ciprian Ene, medic coordonator al Centrului de Medicină Integrativă „Quantum Therapy” din București recunoaște anumite merite AI-ului, însă atrage atenția că întâlnirea medic-pacient este esențială pentru un tratament adecvat și eficient. „În ultima perioadă asistăm la o dezvoltare exponențială a AI care inevitabil ajunge să se insereze și în relația medic - pacient. În anumite limite acest lucru poate fi util, în sensul că pacienții au tot dreptul să se informeze (și tendința lor este firească să își dorească răspunsuri la problemele de sănătate) doar că informațiile pe care le primesc ar trebui să vina din surse valide, din studii clinice, din publicații medicale de nivel academic – desigur poate traduse într-o formă mai accesibilă cu ajutorul AI – doar că, în final, acestea oricum trebuie filtrate într-o discuție cu specialistul respectiv, tocmai pentru a evita inadvertențele care uneori mai scapă la aceste căutări.”


„Sănătatea nu se obține pe internet”


„Medicul la rândul lui se poate servi de AI, de exemplu în imagistică sau când e vorba de prelucrarea unor cantități mari de date, dar în final el trebuie să rămână cel care să informeze corect pacientul și să îl ajute totodată să pună în practică informațiile respective. Medicul este cel care rămâne autoritatea în medicină, dar totodată este cel care ar trebui să creeze o echipă cu pacientul, să îl înțeleagă atunci când a primit informații din diverse părți mai mult sau mai puțin oficiale, să-i le filtreze și să îl ajute în final să le aplice într-un mod cât mai eficient.”


Doctorul Ciprian Ene atrage atenția că adesea, în cabinetul medicului vin pacienți cu lista de întrebări și de răspunsuri deja primite de la AI. „Le spunem tuturor și fiecăruia în parte că oricât ar fi de avansată ar fi tehnologia actuală și oricâtă aplicabilitate ar avea în medicină, actul terapeutic se întâmplă între pacient și medic, chiar dacă relația aceasta uneori poate fi ajutată de dezvoltarea diferitelor domenii cum ar fi fizica sau informatica. Atât în medicina alopată cât și în cea complementară este nevoie de a personaliza pe cât posibil tratamentele, lucru care nu putem considera că va putea fi făcut vreodată de altcineva sau de altceva decât de un medic. Cauzele sunt unice pentru fiecare pacient, simptomele de multe ori pot fi expresia unor cauze fizice sau biochimice dar de multe ori pot fi și somatizari ale unor pattern-uri psihoemoționale, iar aceste aspecte cu siguranță nu pot fi depistate decât printr-o gândire logică, dar însoțită de asemenea de empatie.”


Ciprian Ene consideră că un pacient mai bine informat este un pacient mai bine tratat, prin bine informat înțelegând că pacientul privește realist cauzele diferitelor afecțiuni și tratamentul lor corect.  „Pe de alta parte, atrage atenția medicul Ciprian Ene, medicina modernă trebuie să formeze medicii (inclusiv studenții!) în direcția unei mai bune comunicări cu pacienții și a alocării unui timp suficient pentru explicațiile de care ei au nevoie (acestea fiind și motivele pentru care ei apelează la AI). Altfel spus, răspunsurile la întrebările pacienților ar trebui să fie primite în urma discuției cu un medic deoarece medicina este o știință și o artă în același timp, nu un motor de căutare, iar sănătatea nu se obține pe internet!”


În concluzie, un chatbot ne poate ajuta să înțelegem mai bine niște analize deja făcute, ne poate face accesibil un diagnostic pus de medic sau să înțelegem anumite documente medicale, dar un chatbot nu înlocuiește recomandările medicale și diagnosticul pus de un medic.