ChatGPT не е лекар: Издание предупреждава за рискове при консултация с чатбота

На живо
Заседанието на Народното събрание

ChatGPT не е лекар: Издание предупреждава за рискове при консултация с чатбота

ChatGPT не е лекар: Издание предупреждава за рискове при консултация с чатбота
ChatGPT да не се използва като надежден източник на здравна информация, предупреждава медицинското издание Annals of Internal Medicine. Поводът е случай, при който 60-годишен развил рядко заболяване, след като получил съвет от чатбота да премахне напълно солта от диетата си.
В статията се подчертава, че това е пример как използването на изкуствен интелект (AI) може потенциално да допринесе за развитието на предотвратими неблагоприятни здравни последствия.
Пациентът разказал на лекарите, че след като прочел за негативните ефекти от готварската сол, се консултирал с ChatGPT и започнал да приема натриев бромид в продължение на три месеца. Това станало въпреки уточнение от страна на чатбота, че "натриевият хлорид (готварската сол) може да бъде заменен с бромид, макар и вероятно за други цели като почистване".
В статията, чиито автори са двама психиатри и един лекар по вътрешно болести, се посочва, че не са имали достъп до историята на комуникацията между мъжа и ChatGPT, т.е. не могат да кажат с точност какъв е бил съветът.
Натриевият бромид се е използвал като успокоително в началото на ХХ век. Тогава състоянието "бромизъм" е добре познато. То се характеризира с невропсихиатрични прояви.
В статията на Annals of Internal Medicine се посочва, че бромизмът е и причината за 8% от хоспитализациите в психиатрии по онова време, тъй като бромидните соли се съдържали в много лекарства, продавани без рецепта и предназначени за широк спектър от показания, включително безсъние, истерия и тревожност. Случаите намаляват драстично, когато между 1975 и 1989 г. Администрацията за храни и лекарства (FDA) постепенно елиминира употребата на бромид за медицински цели.
Конкретно 60-годишният пациент преди това не е имал психиатрични заболявания, а в спешното отделение изразил опасения, че съседът му го трови. Първите 24 часа при постъпването си в болницата имал халюцинации, след което опитал да избяга, но бил принудително настанен в психиатрично отделение, където състоянието му се подобрява.
В края на миналата седмица OpenAI пусна "по-бърза и по-умна" версия на ChatGPT. В допълнение към разработването на софтуер компанията заяви, че GPT-5 се отличава с по-добро писане и отговори на запитвания, свързани със здравето. На запитване на "Гардиън" (The Guardian) от OpenAI коментирали, че GPT-5 ще отговаря по-добре на въпроси, свързани със здравето, и ще бъде по-проактивен при "отбелязване на потенциални проблеми" като сериозни физически или психически заболявания. Въпреки това оттам подчертават, че чатботът не замества професионалната помощ.