OpenAI, între promisiuni și realitate: Se diluează interdicțiile privind utilizarea AI?
Gigantul tehnologic OpenAI se confruntă cu critici privind modul în care gestionează interdicțiile legate de utilizarea inteligenței artificiale. Anunțurile publice sugerează o victorie a principiilor, cu accent pe interzicerea supravegherii în masă a cetățenilor americani și responsabilitatea umană în utilizarea forței, inclusiv în cazul sistemelor autonome de armament. Însă, la o analiză mai atentă, se constată o discrepanță între ceea ce este comunicat public și realitatea contractelor.
„Utilizare legală” – o portiță deschisă?
Problema principală constă în definirea limitelor. OpenAI pare să accepte „orice utilizare legală”, o formulare care, potrivit criticilor, nu impune restricții reale, ci validează cadrul legislativ existent. În Statele Unite, acest cadru a permis programe ample de supraveghere, justificarea lor bazându-se pe interpretări juridice. Dacă o companie se limitează la respectarea legii, deschide implicit o portiță pentru eventuale abuzuri, deoarece legislația poate fi interpretată extensiv. Această abordare ridică semne de întrebare asupra sincerității angajamentelor OpenAI.
Astfel, „principiile” invocate ar putea fi mai degrabă o strategie de comunicare decât garanții concrete. Promisiunea de a evita supravegherea în masă se transformă în acceptarea „oricărei utilizări legale”, deschizând calea pentru manevre strategice din partea conducerii companiei. În practică, acest lucru permite justificarea unor utilizări pe care publicul le-ar considera inacceptabile.
Supravegherea în masă și noile provocări
Înainte de dezvoltarea AI, supravegherea în masă presupunea costuri ridicate, legate de oameni, timp și infrastructură. Acum, aceste costuri s-au redus considerabil. Sistemele moderne de inteligență artificială pot analiza date aparent inofensive, de la locație și obiceiuri de consum până la interacțiuni online, pentru a crea profiluri detaliate.
Provocarea constă în compatibilitatea dintre legislație și tehnologie. Legile concepute pentru o lume în care analiza datelor era limitată uman pot deveni inadecvate într-o era a automatizării. Un acord bazat pe acte normative existente moștenește și zonele lor gri. În situații de criză sau din motive strategice, interpretarea „tehnic legală” a legilor poate fi împinsă dincolo de limitele acceptate de public. Distincția între colectarea și analiza datelor devine de asemenea neclară, deoarece se poate face analiză în masă chiar și pe date colectate de alte entități. AI-ul devine astfel un multiplicator de putere, de aceea criticii afirmă că o interdicție reală ar trebui să fie clară și explicită.
Frâne tehnice și limite juridice
Mecanismele tehnice, precum clasificatoarele, sunt prezentate ca instrumente care ar trebui să prevină încălcarea restricțiilor. Acestea monitorizează, etichetează sau blochează anumite acțiuni. Totuși, astfel de mecanisme au limite. Un clasificator nu poate detecta întotdeauna intenția din spatele unei solicitări. De asemenea, dacă acordul se bazează pe „orice utilizare legală”, mecanismele tehnice nu pot bloca ceea ce autoritățile consideră legal. Ele devin mai degrabă instrumente de raportare decât instrumente de veto. Responsabilitatea umană în luarea deciziilor, de asemenea menționată de companie, poate fi dificil de verificat într-un lanț operațional complex.
Sam Altman, directorul executiv al OpenAI, nu a făcut încă niciun comentariu public cu privire la aceste preocupări specifice.