Ново истражување објавено на 24 март во списанието Radiology, во издание на Радиолошкото друштво на Северна Америка (RSNA), покажува дека и радиолозите и големите мултимодални јазични модели имаат сериозни тешкотии да ги разликуваат вистинските рендгенски снимки од медицински „deepfake“ слики создадени со вештачка интелигенција.
Наодите отвораат важни прашања за безбедноста и доверливоста на синтетичките медицински слики. Истражувачите предупредуваат дека ваквите материјали може да ја нарушат точноста на дијагностиката, но и да создадат простор за измами, злоупотреби во судски постапки и дури и сајбер-напади врз болнички системи.
Што е deepfake во медицината?
„Deepfake“ е слика, видео, аудио или друг дигитален запис што изгледа автентично, но е создаден или изменет со помош на вештачка интелигенција. Во овој случај, станува збор за рендгенски снимки што изгледаат убедливо, но не се реални.
„Нашата студија покажува дека овие deepfake рендгенски снимки се доволно реалистични за да ги измамат радиолозите, дури и кога знаат дека има AI-генерирани слики“, изјави главниот автор на студијата, д-р Mickael Tordjman од Icahn School of Medicine at Mount Sinai во Њујорк. Тој предупреди дека ваквите слики може да бидат користени за фалсификување докази или за манипулација со медицински податоци.
Како била спроведена студијата?
Во истражувањето учествувале 17 радиолози од 12 институции во шест земји: САД, Франција, Германија, Турција, Обединетото Кралство и Обединетите Арапски Емирати. Нивното искуство се движело од почетници до специјалисти со до 40 години пракса.
Истражувачите анализирале вкупно 264 рендгенски снимки, поделени подеднакво на вистински и AI-генерирани. Учесниците разгледувале две одвоени групи слики без преклопување. Првата содржела мешавина од реални снимки и рендгенски слики генерирани со ChatGPT од различни анатомски региони. Втората група била фокусирана на снимки од граден кош, половина реални и половина создадени со RoentGen, отворен генеративен модел базиран на дифузија, развиен од истражувачи од Stanford Medicine.
Колку добро ги препознаваат фалсификатите?
Кога радиолозите не биле однапред информирани дека има лажни слики, само 41% точно ги препознале AI-генерираните рендгени по проценка на нивниот технички квалитет. Кога им било кажано дека дел од материјалот е синтетички, точноста пораснала на просечно 75%.
Резултатите варирале многу меѓу поединци. Кај сликите создадени со ChatGPT, радиолозите точно идентификувале меѓу 58% и 92% од случаите. Слични ограничувања покажале и AI системите. Четири мултимодални LLM модели – GPT-4o, GPT-5, Gemini 2.5 Pro и Llama 4 Maverick – постигнале точност од 57% до 85%. Интересно, дури и GPT-4o, кој бил користен за генерирање на дел од deepfake снимките, не ги препознал сите, иако бил подобар од останатите модели.
Кај рендгените од граден кош создадени со RoentGen, радиолозите постигнале точност од 62% до 78%, додека AI моделите се движеле од 52% до 89%.
Искуството не гарантира откривање
Студијата не нашла врска меѓу бројот на години искуство и способноста за препознавање лажни рендгенски снимки. Сепак, радиолозите специјализирани за мускулно-скелетна радиологија се покажале значително подобри од другите подспецијалности.
Како изгледаат синтетичките снимки?
Истражувачите идентификувале неколку визуелни обрасци што можат да се појават кај AI-генерираните слики. Според д-р Tordjman, „deepfake“ медицинските слики често изгледаат премногу совршено: коските се премногу мазни, рбетот е неприродно исправен, белите дробови се премногу симетрични, а шемите на крвните садови се невообичаено уедначени. Фрактурите, пак, често изгледаат премногу чисто и конзистентно, најчесто ограничени само на една страна од коската.
Што значи ова за здравството?
Авторите предупредуваат дека ризикот е сериозен ако ваквите слики се злоупотребат. Фалсификувани рендгенски снимки може да се појават во правни случаи, да бидат внесени во болнички системи или да влијаат врз дијагнози и текот на лекувањето.
За да се намали опасноста, истражувачите предлагаат посилни дигитални заштити, меѓу кои невидливи водени жигови вградени директно во сликите и криптографски потписи поврзани со лицето што ја извршило снимката. Таквите алатки би помогнале полесно да се провери автентичноста на медицинските записи.
Следниот чекор: 3D синтетички снимки
„Можеби гледаме само врв на ледениот брег“, рече Tordjman. Според него, логичниот следен чекор е создавање синтетички 3D слики, како CT и MRI. Затоа, од клучно значење е уште сега да се развијат едукативни бази на податоци и алатки за откривање.
За едукација и подигање на свеста, истражувачите веќе објавија внимателно одбран deepfake сет со интерактивни квизови за обука.



























