Îți recomandăm să încerci și aplicația Euronews România!

ChatGPT nu este o sursă sigură pentru a afla răspunsuri la problemele medicale, conform unui nou studiu

Oamenii de știință au ales varianta gratuită a ChatGPT, folosind o serie de întrebări furnizate de către serviciul de informații despre medicamente din cadrul școlii de farmacie a Universității din Long Island, SUA, notează CNN.com.

Răspunsurile software-ului au fost apoi comparate cu afirmațiile scrise și revizuite de către farmaciști instruiți.

ChatGPT, răspunsuri incomplete sau inexacte la întrebările medicale

Conform studiului, ChatGPT a oferit răspunsuri precise la doar 10 dintre întrebări sau aproximativ un sfert din total. Pentru celelalte 29 de solicitări, răspunsurile au fost incomplete, inexacte sau nu au răspuns la întrebări. Concluziile au fost prezentate marți la reuniunea anuală a Societății Americane pentru Farmacişti, în California.

Chatbot-ul experimental al OpenAI a fost lansat în noiembrie 2022 și a devenit aplicația cu cea mai rapidă creștere din istorie, cu aproape 100 de milioane de oameni înregistrându-se în doar două luni. Odată cu popularitatea sa, cercetătorii s-au îngrijorat că studenții lor, alți farmaciști, dar și oamenii obișnuiți ar putea apela la resurse, cum este ChatGPT, pentru nelămuririle privind sănătatea lor.

De exemplu, cercetătorii au întrebat ChatGPT dacă un medicament pentru COVID și unul pentru scăderea tensiunii arteriale ar avea reacții adverse, dacă sunt administrate împreună. Răspunsul software-ului a fost acela că nu ar produce efecte adverse în organism.

În realitate, persoanele care iau ambele medicamente ar putea avea o scădere mare a tensiunii arteriale, ceea ce poate provoca amețeli și chiar leșin. Pentru pacienții care sunt nevoiți să le ia ambele medicamente, medicii fac recomandări personalizate, inclusiv să scadă doza unuia dintre ele sau să se ridice încet din poziția de șezut.

ChatGPT le-a răspuns oamenilor de știință cu citate fictive

Când cercetătorii i-au cerut chatbot-ului referințe științifice pentru a susține fiecare dintre răspunsurile sale, au descoperit că software-ul le-ar putea oferi doar opt dintre întrebările pe care le-au pus. Și în fiecare caz, au fost surprinși să descopere că ChatGPT făcea referințe.

La prima vedere, citările păreau legitime: erau adesea formatate corespunzător, furnizau adrese URL și erau listate în reviste științifice legitime. Dar când echipa a încercat să găsească articolele la care se face referire, și-au dat seama că ChatGPT le-a oferit citate fictive.

Cei de la Universitatea din Long Island nu sunt primii care își pun problema dacă ChatGPT oferă sau nu răspunsuri reale la întrebări. Și cercetările anterioare au arătat cum chatbot-ul poate crea referințe științifice false.

Sara Grossman, una dintre autoarele lucrării, care lucrase puțin cu software-ul înainte de studiu, a fost surprinsă că ChatGPT este capabil să sintetizeze informații aproape instantaneu, deși în mod normal, ar fi avut nevoie de ore de studiu pentru a le furniza ea personal.

Un purtător de cuvânt din partea OpenAI, organizația care a dezvoltat ChatGPT, a explicat că nu le recomandă utilizatorilor să se bazeze pe răspunsurile primite, ci este nevoie să ceară ajutorul unui specialist acreditat.

Purtătorul de cuvânt a subliniat politicile de utilizare ale ChatGPT, care indică faptul că „modelele OpenAI nu sunt ajustate pentru a oferi informații medicale”. Politica prevede, de asemenea, că modelele nu ar trebui să fie niciodată utilizate pentru a oferi „servicii de diagnostic sau tratament pentru afecțiuni medicale grave”.

ARTICOLE DIN ACEEAȘI CATEGORIE