Inteligența artificială transformă rapid sistemul medical global, însă dezvoltarea accelerată a acestor tehnologii ridică întrebări serioase despre responsabilitate, siguranță și reglementare.
Un raport recent, bazat pe concluziile summitului Jama on Artificial Intelligence, avertizează că utilizarea AI în spitale și clinici ar putea face mai dificilă stabilirea vinovăției în cazurile de erori medicale.
Responsabilitatea între om și algoritm
Profesorul Derek Angus, de la Universitatea din Pittsburgh, susține că pe măsură ce AI devine un element central al practicii clinice, va fi din ce în ce mai complicat să se determine cine este vinovat atunci când un pacient are un rezultat negativ.
„Vor exista situații în care se va crede că ceva a mers prost, iar oamenii vor căuta un vinovat”, a declarat el, potrivit The Guardian.
Raportul, publicat sub egida Journal of the American Medical Association, reunește opiniile unor specialiști în drept, etică, economie și medicină.
Conform profesorului Glenn Cohen, de la Harvard Law School, pacienții ar putea întâmpina obstacole în a demonstra vina unui produs bazat pe AI, din cauza lipsei de transparență privind modul de funcționare al algoritmilor și a dificultății de a dovedi că rezultatul negativ a fost cauzat direct de sistemul automatizat.
În plus, lanțul de responsabilitate poate deveni neclar: medicii, companiile dezvoltatoare și spitalele pot arăta unul către celălalt ca fiind partea vinovată, în timp ce contractele existente pot redistribui răspunderea juridică prin clauze de despăgubire sau limitare a responsabilității.
Lipsa testării și supravegherii adecvate
O altă preocupare majoră este lipsa unui cadru coerent de testare și reglementare. Multe instrumente AI utilizate în diagnosticare, interpretarea analizelor sau gestionarea logisticii spitalicești funcționează în afara supravegherii autorităților, inclusiv a FDA (Administrația pentru Alimente și Medicamente din SUA).
Profesorul Michelle Mello, de la Stanford Law School, atrage atenția că sistemul juridic american este capabil să gestioneze asemenea dispute, însă procesul va fi lent și costisitor: „Această incertitudine ridică costurile pentru toți actorii din ecosistemul de inovare și adoptare a AI”.
Profesorul Angus adaugă că eficiența reală a acestor tehnologii rămâne insuficient evaluată. Deși unele par promițătoare în fazele de pre-aprobare, în practică pot apărea variații mari în funcție de mediul clinic, de tipul pacienților sau de experiența utilizatorilor.
„Instrumentele cel mai bine evaluate sunt adesea cele mai puțin folosite, în timp ce cele mai populare sunt cel mai puțin testate”, a subliniat acesta.
Raportul recomandă investiții suplimentare în infrastructura digitală și în programe de evaluare continuă a performanței AI în sănătate, pentru ca inovația să nu depășească ritmul responsabilității.