Inteligența artificială a devenit parte integrantă a navigării pe internet, însă utilizarea browserelor integrate cu funcții avansate de AI aduce riscuri serioase pentru securitatea datelor. Un raport recent realizat de experții Gartner atrage atenția asupra vulnerabilităților și recomandă organizațiilor să evite, deocamdată, utilizarea acestor browsere pentru protejarea informațiilor sensibile.
Riscurile implementării browserelor AI în mediul corporate
Browserelor precum ChatGPT Atlas sau Perplexity Comet li se atribuie două componente principale: un sidebar AI pentru rezumări și interpretări, și un agent autonom care poate naviga și automatiza diverse sarcini pe web. Dacă aceste funcții pot oferi utilitate crescută, ele sporesc și riscurile de securitate.
Conform raportului Gartner, aceste browsere pot expune organizațiile la scurgeri de date și manipulări malitioase, deoarece setările implicite favorizează experiența utilizatorului în detrimentul securității. Astfel, informațiile private, istoricul de navigare sau conținutul sesiunilor autentificate pot fi trimise către backend-urile AI externe, fără un control eficient.
De asemenea, există și riscuri referitoare la posibilitatea exploatării tehnicilor de prompt injection, care pot influența deciziile agentului AI. Acest aspect poate duce la scenarii de phishing, completări frauduloase ale formularelor, expunerea datelor de autentificare sau achiziții nedorite.
Expunerea datelor și atacurile pot avea consecințe grave, precum compromiterea infrastructurii IT, încălcarea confidențialității și chiar pierderea proprietății intelectuale. La nivel organizatoric, posibilitatea manipulării AI poate perturba procesele esențiale și poate genera costuri semnificative.
Recomandări pentru gestionarea riscurilor
Gartner sugerează o evaluare riguroasă a serviciilor AI utilizate în aceste browsere. În caz de risc excesiv, utilizarea trebuie blocată complet, pentru a evita expunerea datelor confidentiale.
Pentru organizațiile care decid să permită utilizarea acestor tehnologii, se recomandă implementarea măsurilor de siguranță precum:
– instruirea angajaților în gestionarea datelor sensibile în sesiuni AI
– activarea setărilor pentru a limita memorarea datelor
– restricționarea accesului agentului AI la e-mailuri și sisteme critice
– monitorizarea constantă a activității și aplicarea unor politici stricte
Chiar și cu aceste măsuri, experții recomandă prudență. Blocarea definitivă rămâne, în prezent, cea mai sigură opțiune pentru majoritatea organizațiilor.
Importanța monitorizării continue și a luării de decizii informate
Deși tehnologia AI evoluează rapid, riscurile asociate utilizării browserelor inteligente sunt în prezent semnificative. Industria trebuie să ofere soluții de securitate solide pentru a reduce vulnerabilitățile.
Organizațiile trebuie să rămână vigilente și să actualizeze constant politicile de securitate în funcție de evoluțiile tehnologice. Astfel, se poate asigura o adoptare mai sigură a acestor instrumente, în concordanță cu riscurile reale.

Fii primul care comentează