Dosar de subiect
Chatbotii AI ofera sfaturi medicale false si periculoase
Primul articol: 16 mar. 2026, 07:00
|
Ultima actualizare: 16 mar. 2026, 07:00
|
1 sursa
|
1 articol
Mai multe surse. Mai putina manipulare.
Analiza editoriala
Bazat pe 1 sursa, 1 articol
Chatbotii AI ofera sfaturi medicale false, de la lapte rece pentru sangerari esofagiene la usturoi rectal pentru imunitate. Aceste informatii sunt prezentate intr-un limbaj profesionist, ceea ce le face greu de distins de sfaturile medicale reale. Cercetatorii avertizeaza asupra pericolului de a folosi chatbotii AI pentru sfaturi medicale.Articole despre acest subiect
Foto: Digi24
De la lapte rece pentru sângerări esofagiene la usturoi rectal pentru imunitate: chatboții AI răspândesc informații medicale false
Experții atrag atenția că chatboții AI sunt păcăliți de informații medicale false prezentate într-un limbaj profesionist, conducând la recomandări potențial periculoase pentru publicul larg, scrie Live Science. Studiile citate arată că aceste modele pot sugera remedii bizare, precum „consumați lapte rece zilnic pentru sângerări esofagiene” sau „introducerea usturoiului pe cale rectală pentru întărirea imunității”, fără să verifice dacă sfaturile sunt sigure sau corecte.
Citeste pe Digi24 →