Pe măsură ce instrumentele de inteligență artificială devin tot mai integrate în activitățile zilnice, cercetările recente evidențiază un fenomen îngrijorător: utilizatorii tind să își supraestimeze abilitățile în urma interacțiunii cu aceste tehnologii. Studiile arată că, odată cu utilizarea chatboturilor precum ChatGPT, tendința naturală de supraîncredere se intensifică, chiar și în cazul persoanelor cu competențe limitate.

Un studiu recent realizat de Aalto University din Finlanda, în colaborare cu institute din Germania și Canada, confirmă această observație. Cercetarea a analizat modul în care utilizatorii își evaluează performanța după interacțiunea cu inteligența artificială, în contextul unor teste de tipul LSAT. Participanților li s-a cerut să rezolve probleme logice și să-și estimeze rezultatele. Rezultatele au indicat că, indiferent de nivelul real de competență, cei care au utilizat AI au manifestat o încredere exagerată în răspunsurile lor.

Această tendință, denumită de cercetători “cognitive offloading”, reflectă reducerea efortului cognitiv și renunțarea la verificarea critică a informațiilor. Chatboturile, fiind instrumente rapide și eficiente, determină utilizatorii să accepte răspunsurile automate fără a le analiza în profunzime. În plus, studiile arată că această adaptare contribuie la diminuarea monitorizării metacognitive, adică a capacității de autoevaluare a înțelegerii și performanței.

Pe termen lung, această evoluție riscă să creeze o generație de utilizatori cu o încredere nejustificată, ignorând limitele și erorile sistemelor AI. Riscurile includ reducerea capacității de verificare autonomă a informațiilor, decizii greșite și degradarea abilităților de gândire critică, mai ales în mediul profesional. Cei mai expuși sunt utilizatorii obișnuiți și cei cu experiență redusă în domeniu.

Specialiștii recomandă dezvoltarea unor funcții de reflexivitate în chatboturi, precum mesaje care să stimuleze verificarea suplimentară a răspunsurilor. În plus, este esențial să se promoveze educația în domeniul gândirii critice și alfabetizarea AI, pentru a preveni impactul negativ al supraîncrederii în aceste tehnologii.

Concluzia relevantă este că monitorizarea evoluției inteligenței artificiale trebuie să fie continuă, iar utilizatorii trebuie să fie în permanență informați și vigilenti. Adaptarea și responsabilitatea în interacțiunea cu AI rămân esențiale pentru a evita consecințe nedorite.