Large language models (LLM) sunt instrumente bazate pe inteligență artificială (AI) concepute pentru a procesa și genera text. Ele au atras un interes public semnificativ după ce ChatGPT de la OpenAI a devenit disponibil în noiembrie 2022. LLM-urile pot răspunde la întrebări, rezuma și traduce textul cu o acuratețe care se apropie de abilitățile umane. Capacitatea lor de a procesa rapid cantități mari de informații poate duce la decizii mai informate și mai rapide în viața de zi cu zi și în practica medicală.
Recunoscând atât potențialul, cât și riscurile LLM-urilor, Organizația Mondială a Sănătății (OMS) a lansat anul acesta, de Ziua Mondială a Sănătății, asistentul virtual SARAH, conceput pentru a valorifica puterea LLM-urilor pentru a oferi informații de sănătate precise și de încredere.
S.A.R.A.H. (Smart AI Resource Assistant for Health) este disponibil de pe orice dispozitiv, 24 de ore pe zi, în 8 limbi diferite (engleză, franceză, arabă, chineză, rusă, spaniolă, portugheză și hindi). S.A.R.A.H și este programat să ofere, într-un mod interactiv, informații corecte, în timp real și să furnizeze răspunsuri empatice, adaptate nevoilor și preocupărilor individuale ale utilizatorilor.
Această temă a fost comentată de Dr. Marius Geantă, Președinte al Centrului pentru Inovație în Medicină, în cadrul emisiunii #știința360 de pe Radio România Cultural, realizată de Corina Negrea.
„În acest moment, acest asistent virtual, împreună cu un input medical de calitate, poate să facă în așa fel încât fiecare dintre noi să primească informații mult mai precise într-o cantitate suficientă, mult mai repede și probabil mai empatice.” – Dr. Marius Geantă
SARAH asistă în diverse sarcini, cum ar fi răspunsul la întrebări legate de sănătate, oferirea de ghidare privind prevenirea și gestionarea bolilor și oferirea de suport pentru profesioniștii din domeniul sănătății. Prin asigurarea că răspunsurile SARAH se bazează pe date medicale verificate și sunt actualizate continuu cu cele mai recente cercetări, OMS urmărește să reducă riscurile asociate cu dezinformarea.
„Este foarte bine că OMS vine în acest domeniu rapid și că începem să discutăm despre cum vom putea să construim modele colaborative între oameni și sisteme. Este o idee falsă că aceste sisteme vor înlocui omul, dimpotrivă ar putea permite medicilor să aibă mai mult timp pentru interacțiune reală cu pacientul.
Cea mai bună dovadă este să ne uităm puțin în jurul nostru și să vedem cum coexistă și lumânările și becurile, becuri cu sau fără halogeni, mai mult sau mai puțin ECO, după cum, pe străzi în România cel puțin, vedem în continuare și căruțe, și biciclete, și trotinete, și mașini, inclusiv mașini electrice. Nicio astfel de tehnologie nu a putut să înlocuiască 100% ceea ce era înainte.
Marea oportunitate și diferența mare între exemplele pe care le-am spus și domeniul despre care discutăm este că, de fapt, nu ne mai putem permite ca societate, ca breaslă medicală, ca sisteme de sănătate, grupuri de pacienți, profesioniști, să nu maximizăm potențialul acestor tehnologii în contextele pe care noi le știm cu toții.”
Modelele mari de limbaj sunt sisteme avansate de inteligență artificială concepute pentru a înțelege, genera și limbaj la un nivel sofisticat. Ele sunt antrenate pe cantități uriașe de date text, ceea ce le permite să îndeplinească o gamă largă de sarcini legate de limbaj, cum ar fi răspunsul la întrebări, traducerea limbilor, rezumarea informațiilor și chiar generarea de conținut creativ, cum ar fi povești sau poezii. LLM-urile funcționează prin recunoașterea tiparelor din textul pe care au fost antrenate, permițându-le să producă răspunsuri care sunt adesea coerente și relevante din punct de vedere contextual. LLM-urile fac ca serviciile și informațiile esențiale să fie mai accesibile, personalizate și echitabile, contribuind astfel la reducerea inegalităților.
„CHAT-GPT a avut nevoie de mai puțin de cinci zile ca să aibă un milion de utilizatori la nivel mondial. Asta vorbește foarte bine despre cât de mulți oameni au adoptat foarte rapid această tehnologie și este o diferență foarte mare față de rețelele sociale care au avut nevoie de câteva luni de zile pentru a ajunge la primul milion de oameni. Vedem ce impact au acum în viața noastră. Cred că suntem încă la început și într-un moment de foarte mare oportunitate. Dacă ar fi să localizez pentru România discuția de față este încă o oportunitate pe care tehnologia ne-o aduce de a reimagina cumva multe din activitățile din sistemul de sănătate și de a contribui astfel la reducerea decalajelor despre care tot vorbim de ani buni.” – Dr. Marius Geantă
Integrarea LLM-urilor în medicină oferă numeroase beneficii, de la îmbunătățirea practicii clinice până la avansarea cercetării și educației medicale. Cu toate acestea, este crucial să se abordeze riscurile asociate, în special posibilitatea de a răspândi informații greșite și de a agrava conduita științifică incorectă. Inițiative precum asistentul virtual SARAH al OMS demonstrează o abordare proactivă pentru valorificarea avantajelor LLM-urilor, asigurându-se în același timp utilizarea lor sigură și etică. Pe măsură ce tehnologia LLM continuă să evolueze, eforturile continue pentru a îmbunătăți transparența, responsabilitatea și fiabilitatea vor fi esențiale pentru a maximiza impactul său pozitiv asupra îngrijirii sănătății.
LLM-urile sunt valoroase în cercetarea medicală, ajutând la revizuirea literaturii, rezumând tendințele actuale de cercetare și generând ipoteze. În educația medicală, aceste modele pot servi drept „mentori”, oferind experiențe de învățare personalizate pentru studenți și ajutându-i să înțeleagă conceptele medicale complexe prin dialog interactiv.
Deoarece LLM-urile generează răspunsuri pe baza tiparelor din datele pe care au fost antrenate, ele ar putea produce informații inexacte sau înșelătoare, mai ales dacă datele de antrenament conțin erori. Acest risc este agravat de lipsa de responsabilitate și transparență în modul în care operează aceste modele, făcând dificilă verificarea fiabilității output-urilor lor. În plus, utilizarea LLM-urilor în medicină ar putea agrava conduita științifică incorectă. Fără supraveghere adecvată, aceste modele ar putea fi folosite pentru a fabrica date de cercetare sau pentru a genera afirmații medicale convingătoare, dar false, subminând integritatea cercetării științifice.
Citește și
- Podcast #Știința360. Dr. Marius Geantă: „Implementarea tehnologiilor digitale la nivelul societății nu ar trebui să accentueze inegalitățile. Reglementarea drepturilor digitale trebuie să țină cont de realitatea fiecărei țări”
- Podcast #Știința360. Dr. Marius Geantă, despre redefinirea calității alimentelor cu ajutorul inteligenței artificiale