Progresul rapid al inteligenței artificiale (AI) în ultimii ani a dus la o utilizare tot mai extinsă în domenii diverse, de la activități cotidiene la decizii critice. În același timp, apariția modelelor lingvistice mari, precum ChatGPT sau Perplexity, a atras atenția asupra limitărilor și riscurilor acestor tehnologii. Analiza publicată de Visual Capitalist în vara lui 2025 scoate în evidență dependența AI de conținutul generat de utilizatori din surse deschise, ceea ce poate afecta acuratețea și fiabilitatea răspunsurilor oferite.

Surse deschise, conținut nefiltrat

Potrivit unei analize ce a evaluat peste 150.000 de citări, majoritatea informațiilor utilizate de AI provin din platforme precum Reddit (40,1%) sau Wikipedia (26,3%). Alte surse frecvent folosite includ platforme precum YouTube, Google sau site-uri de recenzii precum Yelp. Această structură deschisă permite accesul rapid la un volum mare de date, însă ridică semne de întrebare legate de veridicitatea și stabilitatea informației. Wikipedia, de exemplu, deși utilă pentru documentare, nu are statutul unei surse oficiale, fiind actualizată de voluntari.

Această dependență de conținutul comunităților online face ca AI să fie vulnerabil la răspândirea informațiilor eronate sau părtinitoare. În plus, conținutul neprotejate este supus modificărilor continue, ceea ce complică procesul de asigurare a fiabilității răspunsurilor generate de modele lingvistice.

Riscurile pentru profesioniști și decidenți

Experții semnalează trei riscuri majore legate de utilizarea AI bazată pe surse deschise. În primul rând, dezinformarea, deoarece AI poate prelua afirmații false sau părtinitoare fără a putea fi verificate. În al doilea rând, fenomenul „camera de ecou”, unde ideile populare și neverificate sunt repetate, câștigând credibilitate doar prin frecventare. În cele din urmă, lipsa de autoritate a surselor în domenii sensibile, precum sănătate sau finanțe, limitează fiabilitatea AI în decizii critice.

Pentru specialiști precum medici, avocați sau analiști financiari, aceste riscuri pot avea consecințe grave. Utilizarea informațiilor fără verificare poate duce la decizii eronate și afectarea reputației. De aceea, verificarea informațiilor din surse oficiale este esențial, iar AI trebuie perceput ca un instrument de suport, nu ca o autoritate definitivă.

Recomandări și perspective

Specialiștii recomandă prudență în utilizarea AI pentru activități importante sau decizii critice. Modelele AI pot fi utile pentru documentare, brainstorming sau traduceri, dar nu trebuie să înlocuiască sursele oficiale. În plus, dezvoltatorii de tehnologii AI sunt încurajați să îmbunătățească transparența și să implementeze filtre mai stricte pentru evitarea răspândirii informațiilor false.

O colaborare strânsă cu instituții academice și organizații profesionale ar putea contribui la integrarea de baze de date verificate în procesul de antrenare a modeleleor AI. Astfel, se va putea crește nivelul de siguranță și fiabilitate al acestor tehnologii, mai ales în domenii sensibile.

Pentru moment, AI rămâne o unealtă puternică, dar care trebuie utilizată cu discernământ. Monitorizarea evoluțiilor și informarea continuă vor asigura faptul că tehnologia devine un sprijin de încredere, nu un potențial risc.