Experții atrag atenția că chatboții AI sunt păcăliți de informații medicale false prezentate într-un limbaj profesionist, conducând la recomandări potențial periculoase pentru publicul larg, scrie Live Science. Studiile citate arată că aceste modele pot sugera remedii bizare, precum „consumați lapte rece zilnic pentru sângerări esofagiene” sau „introducerea usturoiului pe cale rectală pentru întărirea imunității”, fără să verifice dacă sfaturile sunt sigure sau corecte.