Un general american de rang înalt, staționat în Coreea de Sud, a declarat public că folosește ChatGPT pentru a lua decizii importante la nivelul armatei. Afirmațiile sale au stârnit reacții puternice în contextul în care Pentagonul investește masiv în integrarea inteligenței artificiale în structurile de comandă.
sursa: YouTube
Generalul William Taylor, comandant al Armatei a 8-a din Coreea de Sud, a spus în cadrul unei conferințe la Washington DC că utilizează ChatGPT atât pentru decizii profesionale, cât și personale. Declarațiile sale reprezintă una dintre cele mai directe recunoașteri ale faptului că, în prezent, comandanți de top ai armatei americane se bazează deja pe inteligența artificială în procesul decizional. În timp ce oficialii de la Pentagon susțin că AI poate oferi un avantaj strategic prin viteza și precizia analizelor, alții avertizează asupra riscurilor legate de securitate și erori de interpretare a datelor.
Generalul William Taylor, comandant al Armatei a 8-a și lider al comandamentului ONU din Coreea de Sud, a surprins jurnaliștii americani când a recunoscut că folosește ChatGPT pentru decizii de comandă. „Chat și cu mine am devenit foarte apropiați în ultima vreme”, a declarat el, refuzând însă să dea detalii despre deciziile personale în care a fost implicată inteligența artificială.
Taylor a explicat că nu utilizează chatbot-ul în situații de luptă, ci pentru a-și optimiza procesele decizionale și pentru a-și sprijini echipa. „Din poziția de comandant, trebuie să iau decizii mai bune. Vreau să fiu sigur că iau deciziile la momentul potrivit pentru a obține un avantaj”, a spus generalul, adăugând că vede AI ca pe un instrument analitic și de instruire pentru personalul său.
Afirmațiile generalului Taylor se înscriu într-un context mai larg, în care armata Statelor Unite accelerează integrarea AI-ului în structurile sale. De la logistică și supraveghere, până la tactici de luptă, sistemele bazate pe inteligență artificială devin tot mai prezente în deciziile militare.
Oficialii americani afirmă că AI permite procesarea rapidă a unor volume uriașe de date și identificarea mai precisă a țintelor. Totuși, există și îngrijorări privind gradul de încredere în aceste sisteme, precum și dileme etice despre responsabilitatea umană atunci când algoritmii preiau sarcini critice de comandă.
Potrivit Pentagonului, conflictele viitoare vor necesita reacții aproape instantanee. „Viitoarele conflicte se desfășoară la viteza mașinăriilor”, avertizează oficialii, subliniind că deciziile luate la nivel de secundă pot depăși capacitățile umane.
Frank Kendall, fost secretar al aviației americane, a explicat că „timpii de răspuns devin tot mai scurți” și că „comandanții care nu se adaptează nu vor supraviețui următorului câmp de luptă”. Tocmai din acest motiv, Pentagonul investește în tehnologii autonome care pot analiza și reacționa mai repede decât orice operator uman.
Armata americană a testat deja algoritmi de inteligență artificială în scenarii de luptă simulate. Într-un experiment recent al Forțelor Aeriene, un algoritm a pilotat un avion F-16 modificat, reușind să concureze cu piloți umani în exerciții de antrenament.
Pe lângă domeniul tactic, AI este folosită și în logistică, verificarea imaginilor din satelit și reducerea sarcinilor birocratice. Forțele Speciale utilizează aplicații similare pentru a scrie rapoarte, analiza datele din misiuni și diminua „povara cognitivă” a operatorilor.
Deși AI promite eficiență și precizie, oficialii americani avertizează că sistemele pot produce erori grave dacă datele sunt incomplete sau manipulate. În plus, există riscul ca unele programe să divulge informații clasificate.
Aceste avertismente subliniază dilema centrală a erei digitale în domeniul apărării: cum pot fi folosite instrumentele de inteligență artificială pentru a întări securitatea națională fără a compromite controlul uman sau confidențialitatea informațiilor militare sensibile.
Autor: Roxana Ioniță