omul-care-a-ajuns-la-spital-dupa-un-sfat-chatgpt:-o-lectie-despre-pericolele-inteligentei-artificiale-in-sanatate

Omul care a ajuns la spital după un sfat ChatGPT: o lecție despre pericolele inteligenței artificiale în sănătate

Timp de citire: 3 minute

Un bărbat de 60 de ani din Statele Unite a ajuns în spital cu o afecțiune rară, numită bromism, după ce a urmat un sfat obținut de la ChatGPT legat de eliminarea sării din alimentație. Cazul, descris recent în revista Annals of Internal Medicine de o echipă de medici de la Universitatea din Washington, readuce în atenție riscurile majore ale folosirii inteligenței artificiale pentru recomandări medicale.

Totul a început când bărbatul a citit despre efectele negative ale clorurii de sodiu – sarea de masă – și a dorit să găsească o alternativă. A întrebat ChatGPT cu ce ar putea înlocui clorura și a primit printre răspunsuri bromura de sodiu, o substanță folosită în trecut ca sedativ, dar abandonată tocmai din cauza toxicității. Fără a primi vreun avertisment despre pericolele pentru sănătate, pacientul a decis să înlocuiască complet sarea cu bromură de sodiu timp de trei luni.

Rezultatul a fost o intoxicație severă, cu niveluri de bromură în sânge de peste 200 de ori mai mari decât limita superioară normală. În perioada respectivă, acesta a început să manifeste simptome grave, de la sete excesivă și insomnie până la confuzie, paranoia și erupții cutanate, scrie The Guardian.

Cum s-a manifestat intoxicația cu bromură

Bărbatul a ajuns la spital acuzând halucinații și convingerea că vecinul îl otrăvește. Refuza să bea apă, deși era puternic deshidratat, iar în mai puțin de 24 de ore a încercat să părăsească unitatea medicală. Medicii au decis internarea involuntară la secția de psihiatrie, unde a primit tratament cu fluide, corecție de electroliți și medicație antipsihotică.

Bromismul, frecvent întâlnit în prima jumătate a secolului XX din cauza utilizării pe scară largă a bromurii în medicamente, era responsabil atunci de până la 10% din internările psihiatrice. În prezent, afecțiunea este extrem de rară, iar acest caz a fost cu atât mai dificil de diagnosticat. Pe lângă manifestările neurologice și psihiatrice, pacientul prezenta acnee severă și angiome faciale – leziuni vasculare la nivelul pielii.

După trei săptămâni de tratament, starea bărbatului s-a stabilizat, acesta a fost externat fără medicație psihiatrică și s-a menținut bine la controlul medical ulterior.

Ce arată acest caz despre limitele inteligenței artificiale

Medicii implicați în raport au atras atenția că inteligența artificială poate genera informații incomplete, scoase din context și lipsite de avertismente critice. Spre deosebire de un profesionist din domeniul sănătății, un chatbot nu poate pune întrebări suplimentare pentru a înțelege intenția din spatele unei solicitări și nu poate evalua riscurile specifice fiecărui individ.

Echipa de la Universitatea din Washington a încercat să reproducă întrebarea adresată inițial de pacient. Rezultatul a fost aproape identic: ChatGPT a menționat bromura ca posibil înlocuitor pentru clorură, fără explicații suplimentare și fără a cere motivul solicitării. În opinia medicilor, este extrem de puțin probabil ca un specialist să fi recomandat vreodată o astfel de substanță pentru consum alimentar.

OpenAI a lansat recent o versiune actualizată a ChatGPT, bazată pe modelul GPT-5, în care susține că a îmbunătățit modul de gestionare a întrebărilor despre sănătate și capacitatea de a semnala probleme grave. Cu toate acestea, compania subliniază că instrumentul nu trebuie folosit ca substitut pentru consultul medical de specialitate.

Lecții de reținut dintr-o greșeală periculoasă

Acest caz servește drept avertisment pentru oricine ar putea fi tentat să ia decizii medicale pe baza unui sfat obținut online, fie el și de la o platformă avansată de inteligență artificială. Indiferent cât de coerent și convingător sună răspunsul, informațiile trebuie întotdeauna verificate din surse medicale de încredere.

Dacă vrei să faci schimbări în dietă sau tratament, discută mai întâi cu un medic. Un chatbot nu îți cunoaște istoricul medical, nu poate anticipa interacțiunile dintre substanțe și nu poate evalua toate riscurile. Chiar și o substanță folosită în trecut în medicină, precum bromura de sodiu, poate deveni extrem de periculoasă în afara unui cadru strict controlat.

În final, tehnologia poate fi un aliat, dar nu un înlocuitor al expertizei umane. Folosește AI ca punct de plecare pentru informare, nu ca sursă unică de decizie atunci când vine vorba de sănătatea ta.