Dosar de subiect

Chatbotii AI ofera sfaturi medicale false si periculoase

Primul articol: 16 mar. 2026, 07:00 | Ultima actualizare: 16 mar. 2026, 07:00 | 1 sursa | 1 articol

Mai multe surse. Mai putina manipulare.

Analiza editoriala

Bazat pe 1 sursa, 1 articol

Chatbotii AI ofera sfaturi medicale false, de la lapte rece pentru sangerari esofagiene la usturoi rectal pentru imunitate. Aceste informatii sunt prezentate intr-un limbaj profesionist, ceea ce le face greu de distins de sfaturile medicale reale. Cercetatorii avertizeaza asupra pericolului de a folosi chatbotii AI pentru sfaturi medicale.

Articole despre acest subiect

De la lapte rece pentru sângerări esofagiene la usturoi rectal pentru imunitate: chatboții AI răspândesc informații medicale false Foto: Digi24
Digi24 16 mar. 2026, 07:00 (acum 2 zile)

De la lapte rece pentru sângerări esofagiene la usturoi rectal pentru imunitate: chatboții AI răspândesc informații medicale false

Experții atrag atenția că chatboții AI sunt păcăliți de informații medicale false prezentate într-un limbaj profesionist, conducând la recomandări potențial periculoase pentru publicul larg, scrie Live Science. Studiile citate arată că aceste modele pot sugera remedii bizare, precum „consumați lapte rece zilnic pentru sângerări esofagiene” sau „introducerea usturoiului pe cale rectală pentru întărirea imunității”, fără să verifice dacă sfaturile sunt sigure sau corecte.

Citeste pe Digi24 →