Xiaomi SU7 și provocările inteligenței artificiale: Când tehnologia se uită prea atent la ochii tăi

Un exemplu recent arată cât de ușor poate da eroare o funcție gândită să salveze vieți – mai ales când algoritmul nu ține cont de diversitatea trăsăturilor umane.

Xiaomi SU7 și provocările inteligenței artificiale: Când tehnologia se uită prea atent la ochii tăi

Sursă: Arenaev

În era mașinilor inteligente, uneori tehnologia poate… interpreta greșit realitatea. A pățit-o un șofer din Zhejiang, China, al cărui autoturism electric Xiaomi SU7 a tras un semnal de alarmă fals – de nu mai puțin de 20 de ori într-o singură zi. Motivul? Sistemul AI al mașinii a presupus că bărbatul era somnolent, deși acesta era complet treaz.

Problema a pornit de la forma naturală a ochilor șoferului – mai alungiți, specifici trăsăturilor asiatice – pe care camera de monitorizare le-a interpretat drept un semn de oboseală. Oricât de mult s-a străduit să-și țină ochii larg deschiși și să-și schimbe postura, avertismentele de tipul „Vă rugăm să vă concentrați asupra conducerii” reveneau imediat ce își relua expresia facială obișnuită.

Ce spune Xiaomi?

Compania chineză a confirmat că avertismentele repetate au fost generate de sistemul de detectare a somnolenței, integrat în SU7. Deși funcția poate fi dezactivată manual, Xiaomi recomandă ca acest lucru să nu se facă, din motive de siguranță. Totuși, incidentul a ridicat semne de întrebare în legătură cu precizia acestor sisteme, mai ales în contextul diversității faciale. Experții susțin că algoritmii folosiți nu sunt încă suficient calibrați pentru a recunoaște diferențele subtile între trăsături naturale și semne reale de oboseală.

Xiaomi SU7: promisiuni mari, dar cu probleme

Xiaomi SU7 s-a lansat cu ambiții mari: un sedan electric cu dimensiuni generoase (4,99 m lungime și aproape 2 m lățime), motor ce dezvoltă între 299 și 673 CP, și o autonomie estimată de până la 830 km. Prețurile variază între 30.000 și 41.600 de dolari – o ofertă tentantă, cel puțin pe hârtie.

Cu toate acestea, feedback-ul utilizatorilor nu a fost lipsit de critici. Au fost semnalate probleme legate de finisaje interioare, defecțiuni la sistemele electronice și o calitate a construcției care lasă de dorit. Episodul cu avertismentele false nu face decât să adauge un nou strat de scepticism privind fiabilitatea reală a acestei mașini.

Concluzie

Cazul din Zhejiang ridică o întrebare esențială: cât de pregătită este inteligența artificială pentru a înțelege diversitatea umană?

Autor: Sebastian Bănicioiu

google logo Urmărește știrile znews.ro și pe Google News

RECOMANDATE