Стотици милиони хора по света вече се обръщат към чатботове с изкуствен интелект за здравни съвети. Нови изследвания, публикувани в списание Nature Medicine, показват обаче, че инструменти като ChatGPT често подвеждат потребителите, не разпознават медицински спешни случаи и дават непоследователни съвети, които според експерти могат да застрашат човешки живот.
Проучване на Института по интернет към Оксфордския университет, проведено сред над 1300 участници, установява, че хората, които използват AI чатботове, за да оценяват медицински ситуации, не се справят по-добре от тези, които просто търсят информация в интернет.
Причината все по-масово хората да се допитват до изкуствения интелект за здравето си е предимно финансова - спестяват си средства от консултация с лекар. Тревожен обаче е фактът, че чатботът дава и директни насоки за прием медикаменти, което може да бъде изключително опасно.
От този месец ChatGPT не дава съвети, изискващи специалист, заради промяна в политиката на компанията майкаУчастниците правилно разпознават хипотетични заболявания едва в около една трета от случаите. Само 43% избират и правилното действие – например дали трябва да отидат в спешното отделение, или могат да останат у дома.
Основният проблем, според изследователите, е двустранен комуникационен срив. Потребителите често не знаят какви симптоми или подробности трябва да споделят с чатбота, а отговорите на изкуствения интелект смесват полезна и подвеждаща информация.
„Хората не знаят какво точно трябва да кажат на модела“, обяснява Андрю Бийн – изследовател от Оксфорд и водещ автор на проучването. Той подчертава, че лекарите са обучени да задават уточняващи въпроси – умение, което чатботовете все още не могат надеждно да възпроизведат.
Когато учените въвеждат пълни медицински сценарии директно в системата, изкуственият интелект поставя правилната диагноза в 94% от случаите. Това показва, че проблемът е основно в начина, по който реалните потребители взаимодействат с технологията.
Друго изследване на учени от Медицинското училище „Икан“ към болницата „Маунт Синай“ в Ню Йорк тества инструмента ChatGPT Health – здравна версия на системата, представена през януари 2026 г. Екипът проверява 60 клинични сценария, създадени от лекари. Резултатите показват, че системата подценява повече от половината случаи, които според специалистите изискват спешна медицинска помощ.
В един от примерите чатботът разпознава ранни признаци на дихателна недостатъчност при пациент с астма, но въпреки това съветва човекът да изчака, вместо да потърси спешна помощ.
Изследването установява и проблеми със защитните механизми при риск от самоубийство. Те се активират по-надеждно в ситуации с по-нисък риск, но не се задействат, когато потребители описват конкретни планове за самонараняване.
„Това, което наблюдавахме, надхвърля обикновена непоследователност“, коментира д-р Гириш Надкарни – лекар и старши автор на изследването. Ребека Пейн, съавтор на оксфордското проучване и практикуващ лекар, предупреждава, че може да бъде опасно хората да разчитат на чатботове за съвети относно своите симптоми.
От OpenAI заявяват, че по-новите версии на ChatGPT допускат по-малко грешки и са около шест пъти по-склонни да задават уточняващи въпроси в сравнение с по-старите модели. Въпреки това учените подчертават - при тревожни симптоми като болка в гърдите, задух или мисли за самонараняване хората трябва да потърсят медицинска помощ директно, а не да разчитат на чатбот
