Ce arată studiul realizat în SUA
Cercetarea a fost realizată de Mass General Brigham și publicată în revista JAMA Network Open.
Specialiștii au testat 21 de modele de inteligență artificială, inclusiv cele dezvoltate de OpenAI, Google, Anthropic, xAI și DeepSeek.
Testele au fost realizate pe baza a 29 de scenarii clinice, folosind informații medicale reale.
Diagnostice greșite în peste 80% din cazuri
Rezultatele sunt îngrijorătoare.
Atunci când nu au acces la suficiente informații despre pacient, chatboții au oferit diagnostice greșite în peste 80% din cazuri.
Chiar și atunci când li s-au oferit toate datele necesare, rata erorilor a rămas ridicată, depășind 40%.
De ce apar aceste erori
Potrivit cercetătorilor, problema principală este legată de modul în care funcționează modelele de limbaj.
Acestea pot genera așa-numite „halucinații”, adică pot inventa informații atunci când nu au suficiente date pentru a formula un răspuns corect.
Există și rezultate pozitive
În unele situații, anumite modele au reușit să ofere diagnostice corecte în până la 90% dintre cazuri.
Acest lucru arată că performanța inteligenței artificiale depinde în mare măsură de cantitatea și calitatea informațiilor primite.
Concluzia specialiștilor
Experții avertizează că chatboții nu ar trebui folosiți ca instrumente principale pentru diagnostic medical.
Deși pot fi utili pentru informare generală, aceștia pot induce utilizatorii în eroare, mai ales în lipsa datelor complete.


