Explozia de chatboți activi de pe internet are o parte pozitivă - structurează și rezumă cantități enorme de informații într-un timp scurt. Dar există și reversul medaliei: crează iluzia că chatbotul este deținătorul adevărului absolut. Iar în domeniul sănătății inteligența artificială este departe de a avea toate răspunsurile pe care le căutăm, iar încrederea noastră în răspunsuri nevalidate de un medic poate conduce la complicații medicale ce puteau fi identificate si tratate foarte ușor într-o etapă inițială.
Zilnic, milioane de oameni consultă
chatboții în legătură
cu diverse afecțiuni medicale. Îi întreabă despre simptome, tratamente, analize
care ar trebui făcute, confundând chatboții cu medicii reali. Cu un chatbot totul
pare mai intim, comod, rapid și, evident, mai ieftin. Din păcate, acești roboți de
chat destinați
publicului larg nu sunt „experți”
în
medicină așa cum credem noi.
Mai mult, chatboții pentru pe care ii folosim când avem
întrebări legate de simptomele noastre nu sunt întotdeauna aceiași cu cei
folosiți de specialiștii în medicină,
care utilizează
chatboți special concepuți
pentru a oferi o
perspectivă
științifică
care să ajute medicul să ia decizii corecte.
Există de exemplu, modele AI pentru
medici precum Articulate Medical Intelligence Explorer (AMIE) al Google sau
MedFound dezvoltat de cercetătorii chinezi de la Beijing University of Posts and
Telecommunications. Dar și acolo e loc de mai bine.
Rată de diagnosticare falsă cu chatbot între 80 și 40%
Potrivit
unui studiu recent publicat în jurnalul medical Jama Neetwork Open al
Asociației Medicale Americane, care a
analizat 21 de modele lingvistice AI dezvoltate de OpenAI, Google, xAI,
DeepSeek, Anthropic ș.a., și la care au acces utilizatorii obișnuiți,
cercetătorii au descoperit că peste 80% dintre
diagnosticele date de chatboți unor cazuri medicale aflate în fazele
timpurii de evaluare au fost greșite. De
ce? Există mai multe motive! Unul dintre ele rezultă din faptul că pacientul când
solicită chatbotului un
diagnostic nu oferă acestuia suficient de multe informații medicale, introduce
date vagi și incomplete despre problemele sale medicale, iar în lipsa unor date
complete chatbotul are de ales dintr-o gamă mică de diagnostice și trage rapid o concluzie, de cele mai
multe ori greșită. Aceasta este una dintre cele mai semnificative limite ale
modelelor AI actuale.
E adevărat că experții în domeniul medical și AI au
constatat și că
dacă aceluiași chatbot i se oferă date exacte, iar speța medicală îi este
descrisă în amănunt, rata diagnosticării greșite poate reduce la 40%. Dar poate pacientul de unul
singur să ofere date complete, în lipsa evaluării sale de către un medic?
Evident nu.
Chatbot-ul te măgulește,
nu te vindecă!
Un alt motiv pentru care un chatbot nu
poate să pună un diagnostic corect
rezidă din limita multor astfel de sisteme AI care au fost create în așa fel
încât să nu supere utilizatorul, ci să-i ofere răspunsuri cât mai
convingătoare, care susțin cumva părerile sale deja formate.
Chatbotul pare că empatizează cu utilizatorul, dar asta nu înseamnă că îi și înțelege pe deplin situația medicală. Mai mult, chatboții nu au acces la dosarul medical al pacientului, deci la istoricul său medical, nu cunosc analizele din trecut, tratamentele urmate anterior sau care sunt urmate de pacient în prezent pentru alte afecțiuni, în paralel cu noile simptome apărute și descrise de acesta.
Și mai este o problemă, pentru care un
sistem AI nu poate înlocui medicul: chatboții nu au experiență clinică, nu pot examina pacientul și nu pot
emite judecăți la fel ca un medic, deși răspunsurile lor par mai credibile și
mai convingătoare poate decât ale unui medic, care, de multe ori nu are timpul
necesar pentru a ne răspunde la multele întrebări pe care le avem.
AI
nu știe
să diferențieze informația reală de cea falsă
Modelele AI actuale - cele mai multe disponibile gratuit sau la un preț modic pentru utilizatorii obișnuiți - își bazează răspunsurile generate pe statistici care pot fi incomplete, depășite, sau chiar accesează baze de date cu informații absolut false.
Recent
în prestigioasa revistă „Nature” a apărut
un articol care documentează o asemenea situație. O echipă de cercetători de la
Universitatea din Göteborg, Suedia, a făcut
un experiment pentru a testa limitele AI. Cercetătorii au postat pe site-ul Medium începând cu martie și mai 2024, informații detaliate despre o boală de piele
fictivă – bixonimania
și au introdus pe platforma academică SciProfiles date și cercetări false realizate de un
savant la fel de fals creditat de o așa-numită Academie a Flotei
Stelare, a cărui
identitate a fost creată cu ajutorul AI.
Lucrările și studiile științifice false
care susțineau existența afecțiunii
bixonimanie
erau pline de indicii care unor cititori umani le-ar fi semnalat imediat că
totul era un fake, însă chatboți precum Copilot de la Microsoft Bing, Gemini de
la Google, ChatGPT Health de la OpenAI au luat de bune informațiile găsite pe
site-ul Medium. Ei au început să ofere
utilizatorilor răspunsuri din ce în ce mai detaliate și mai credibile despre afecțiunea numită bixonimanie, ca și cum aceasta ar fi fost reală susținând că prevalența acestei boli în rândul populației este de o persoană la
90.000 de locuitori.
„Actul terapeutic se întâmplă între
pacient și
medic”
Doctorul Ciprian Ene, medic coordonator al
Centrului de Medicină Integrativă
„Quantum Therapy”
din București recunoaște anumite merite AI-ului, însă atrage atenția că întâlnirea medic-pacient este esențială
pentru un tratament adecvat și eficient. „În ultima perioadă asistăm la o dezvoltare exponențială a AI care
inevitabil ajunge să se insereze și în relația medic - pacient. În anumite limite acest lucru poate fi util, în
sensul că pacienții
au tot dreptul să se informeze (și tendința
lor este firească să își dorească răspunsuri la problemele de sănătate) doar că
informațiile
pe care le primesc ar trebui să vina din surse valide, din studii clinice, din
publicații medicale de nivel academic – desigur poate traduse într-o
formă mai accesibilă
cu ajutorul AI – doar că, în final, acestea oricum trebuie filtrate într-o
discuție cu specialistul respectiv, tocmai pentru a evita inadvertențele care
uneori mai scapă la aceste căutări.”
„Sănătatea
nu se obține pe internet”
„Medicul
la rândul lui se poate servi de AI, de exemplu în imagistică sau când e vorba
de prelucrarea unor cantități mari de date, dar în final el trebuie să rămână
cel care să informeze corect pacientul și să îl ajute totodată să pună în
practică informațiile respective. Medicul este cel care rămâne autoritatea în
medicină, dar totodată este cel care ar trebui să creeze o
echipă cu pacientul, să îl înțeleagă atunci când a primit informații din
diverse părți mai mult sau mai puțin oficiale, să-i le filtreze și să îl ajute
în
final să le aplice într-un mod cât mai eficient.”
Doctorul Ciprian Ene atrage atenția că adesea, în cabinetul medicului vin pacienți cu
lista de întrebări și de răspunsuri deja primite de la AI. „Le spunem tuturor
și fiecăruia în parte că
oricât
ar fi de avansată ar fi tehnologia actuală și oricâtă aplicabilitate ar avea în
medicină, actul terapeutic se
întâmplă între pacient și
medic, chiar dacă relația aceasta uneori poate fi ajutată de dezvoltarea
diferitelor domenii cum ar fi fizica sau informatica. Atât în
medicina alopată
cât și în cea complementară este nevoie de a personaliza pe cât posibil
tratamentele, lucru care nu putem considera că va putea fi făcut vreodată de
altcineva sau de altceva decât de un medic. Cauzele sunt unice pentru fiecare
pacient, simptomele de multe ori pot fi expresia unor cauze fizice sau
biochimice dar de multe ori pot fi și somatizari ale unor pattern-uri psihoemoționale, iar aceste aspecte
cu siguranță nu pot fi depistate decât printr-o gândire logică, dar însoțită de asemenea de empatie.”
Ciprian
Ene consideră
că un pacient mai bine informat este un pacient mai bine tratat, prin bine
informat înțelegând că
pacientul privește realist cauzele diferitelor afecțiuni și tratamentul lor
corect. „Pe de alta parte, atrage atenția medicul Ciprian Ene, medicina
modernă trebuie să formeze medicii (inclusiv studenții!) în direcția unei mai bune comunicări cu pacienții
și a alocării unui timp suficient pentru explicațiile de care ei au nevoie
(acestea fiind și motivele pentru care ei apelează la AI). Altfel spus, răspunsurile
la întrebările pacienților ar trebui să fie primite în urma discuției cu un
medic deoarece medicina este o știință și o artă în același timp, nu un motor de căutare, iar sănătatea nu se
obține pe internet!”
În concluzie, un chatbot ne poate ajuta
să înțelegem mai bine niște analize deja făcute, ne poate face accesibil un
diagnostic pus de medic sau să înțelegem anumite documente medicale, dar un
chatbot nu înlocuiește recomandările medicale și diagnosticul pus de un medic.