ChatGPT, folosit de milioane de oameni pentru sfaturi medicale, nu e perfect: subestimează urgențele
Un număr impresionant de peste 230 de milioane de persoane folosesc, în fiecare săptămână, chatbotul ChatGPT pentru a obține informații despre sănătate. Odată cu lansarea funcției ChatGPT Health în ianuarie 2026, utilizatorii au posibilitatea să conecteze date medicale personale, precum dosare medicale sau informații din aplicații de monitorizare a sănătății, pentru a primi răspunsuri personalizate. Totuși, un studiu recent arată că inteligența artificială are limite clare, în special în ceea ce privește identificarea urgențelor medicale sau a riscului de suicid.
Probleme în recunoașterea urgențelor medicale
Cercetătorii de la Mount Sinai din New York au efectuat un studiu extins pentru a evalua capacitățile ChatGPT Health. Analiza lor a cuprins 60 de scenarii clinice din 21 de specialități medicale. Rezultatele au scos în evidență faptul că sistemul funcționează relativ bine în cazurile medicale evidente, precum accidente vasculare cerebrale sau reacții alergice severe. Însă, dificultățile apar în situațiile în care gravitatea unei afecțiuni nu este imediat clară.
Studiul a arătat că ChatGPT Health a subestimat peste jumătate dintre cazurile analizate care necesitau intervenție medicală de urgență. Un exemplu concret este scenariul legat de astm, unde sistemul a identificat corect semnele timpurii ale insuficienței respiratorii, dar a recomandat așteptarea în loc de prezentarea la urgențe. Cercetătorii avertizează că, deși poate oferi informații utile, inteligența artificială nu trebuie să înlocuiască evaluarea medicală profesionistă.
Reacții inadecvate la gândurile de suicid
O altă problemă majoră identificată de cercetători se referă la modul în care ChatGPT gestionează mențiunile despre auto-vătămare sau suicid. În astfel de situații, chatbotul ar trebui să afișeze automat un mesaj de ajutor și să direcționeze utilizatorii către linii de asistență de criză. Studiul a constatat însă că aceste avertismente nu apăreau mereu, iar în unele cazuri, reacția sistemului era paradoxal mai slabă în situațiile considerate mai grave.
Autorii studiului subliniază importanța de a nu abandona complet instrumentele bazate pe inteligența artificială în domeniul sănătății. Ei recomandă ca persoanele cu simptome serioase – precum durere în piept, dificultăți de respirație, reacții alergice severe sau modificări ale stării mentale – să solicite direct ajutor medical de specialitate. În plus, cercetătorii menționează că modelele de inteligență artificială sunt într-o continuă evoluție, iar performanța lor se poate îmbunătăți pe măsură ce acestea sunt actualizate.
În contextul acestui studiu, OpenAI, compania care a dezvoltat ChatGPT, nu a emis încă o declarație oficială cu privire la rezultatele cercetării.