Ce trebuie să știi dacă folosești inteligența artificială în contexte sensibile?
sursa: Keystone Academic Solutions
În timp ce în România nu există niciun caz documentat public în care conversațiile cu ChatGPT să fi fost folosite într-un proces, justiția din alte state tratează deja aceste interacțiuni ca posibile probe. Cel mai cunoscut exemplu vine din Statele Unite, unde instanțele încep să reglementeze modul în care datele generate de AI pot fi păstrate și folosite într-un cadru legal.
În procesul intentat de New York Times împotriva OpenAI, un judecător american a ordonat păstrarea tuturor conversațiilor cu ChatGPT – chiar și a celor pe care utilizatorii le-au șters. Măsura se aplică conturilor gratuite și plătite (Plus, Pro și Team), dar și utilizatorilor API care nu au activat protecții speciale. Clienții din categoria Enterprise și Edu nu sunt vizați.
OpenAI a contestat decizia, însă până la o soluție definitivă este obligată să respecte ordinul. Asta înseamnă că ceea ce un utilizator discută cu ChatGPT poate fi păstrat și analizat, dacă instanțele consideră relevant. Directorul companiei, Sam Altman, a atras atenția că interacțiunile cu chatbotul nu sunt protejate legal, așa cum se întâmplă în relațiile cu avocați, medici sau psihologi.
Avertismentul e clar: dacă ești implicat într-un proces legal, conversațiile cu ChatGPT pot fi cerute și folosite împotriva ta. Ștergerea lor de pe contul personal nu garantează că datele au fost eliminate definitiv din sistemele OpenAI, mai ales dacă există o cerere oficială de păstrare venită din partea unei instanțe.
Această situație subliniază un aspect esențial: ChatGPT nu este un spațiu privat. Orice informație personală, sensibilă sau confidențială introdusă în acest sistem ar putea deveni accesibilă în contexte legale, dacă nu sunt activate protecțiile corespunzătoare.
În Uniunea Europeană, noul AI Act stabilește un cadru legal pentru dezvoltarea și utilizarea inteligenței artificiale, care va deveni complet aplicabil până în 2026. Acesta prevede obligații stricte pentru companii, inclusiv transparență, evaluarea riscurilor și interdicții pentru folosirea AI în luarea deciziilor sensibile fără implicare umană.
În completare, România pregătește propria lege privind utilizarea AI. Un proiect depus în martie 2025 în Senat propune sancțiuni dure pentru folosirea necontrolată a tehnologiei: de la amenzi substanțiale la pedepse cu închisoarea, în funcție de gravitatea încălcării. Deși legea nu a fost încă adoptată, ea reflectă o preocupare reală pentru impactul social și juridic al AI.
Autor: Roxana Ioniță