Deepfake w białym fartuchu

Dodane:

MamStartup logo Mam Startup

Deepfake w białym fartuchu

Udostępnij:

Najnowsze badania pokazują, że zarówno lekarze radiolodzy, jak i zaawansowane systemy AI mają poważny problem z odróżnieniem prawdziwych zdjęć rentgenowskich od tych wygenerowanych przez sztuczną inteligencję.

Czy to potencjalny punkt zapalny dla całego systemu ochrony zdrowia?

W najnowszym badaniu opublikowanym w czasopiśmie Radiology naukowcy sprawdzili, czy specjaliści są w stanie rozpoznać fałszywe zdjęcia RTG. Wyniki są niepokojące:

  • radiolodzy poprawnie identyfikowali fałszywe obrazy tylko w ok. 41% przypadków, gdy nie wiedzieli, że mają do czynienia z deepfake’ami,
  • po uprzedzeniu ich o obecności syntetycznych obrazów skuteczność wzrosła do ok. 75%,
  • systemy AI osiągały porównywalne wyniki — od ok. 57% do 85% skuteczności.

Innymi słowy: zarówno człowiek, jak i maszyna zawodzą w podobnym stopniu.

Dlaczego to tak trudne?

Problem nie wynika z niedostatków kompetencji lekarzy czy niedoskonałości pojedynczego modelu AI. Jest głębszy. Zresztą, poruszaliśmy go w naszym niedawnym odcinku MamStartup Podcast z dr. Adrianem Korbeckim, współzałożycielem medtechu Hetalox.

Nowoczesne modele generatywne — takie jak te użyte do tworzenia syntetycznych zdjęć RTG — potrafią odwzorować nie tylko strukturę anatomiczną, ale również subtelne artefakty typowe dla prawdziwych badań. To oznacza, że te obrazy są „statystycznie poprawne”, zawierają realistyczny szum i niedoskonałości, a przy okazji nie zdradzają oczywistych śladów manipulacji.

Efekt? Nawet doświadczenie zawodowe nie daje przewagi — badanie wykazało brak korelacji między latami praktyki a skutecznością rozpoznawania deepfake’ów.

Od błędnej diagnozy po cyberatak

Konsekwencje tej technologii wykraczają daleko poza akademicką debatę. Eksperci wskazują na kilka kluczowych zagrożeń.

Manipulacja diagnozą

Syntetyczny obraz może przedstawiać nieistniejące złamanie, guz czy zmianę chorobową. W skrajnym przypadku może to prowadzić do niepotrzebnego leczenia, błędnych decyzji klinicznych czy też zagrożenia zdrowia pacjenta.

Nadużycia prawne

Badacze ostrzegają, że deepfake’i mogą być wykorzystywane w sporach sądowych jako „dowody” medyczne trudne do podważenia.

Cyberbezpieczeństwo szpitali

Najbardziej niepokojący scenariusz dotyczy ataków na infrastrukturę medyczną. Wprowadzenie spreparowanych obrazów do systemów szpitalnych mogłoby:

  • zakłócić proces diagnostyczny,
  • podważyć zaufanie do dokumentacji medycznej,
  • doprowadzić do chaosu klinicznego.

Paradoks AI: narzędzie i zagrożenie jednocześnie

Radiologia jest jedną z dziedzin najbardziej zaawansowanych pod względem wdrażania sztucznej inteligencji. Systemy AI wspierają dziś wykrywanie nowotworów, analizę zdjęć płuc czy priorytetyzację przypadków.

Jednocześnie ta sama technologia generuje fałszywe obrazy. Utrudnia ich wykrycie. Podważa fundament, na którym opiera się diagnostyka — wiarygodność obrazu.

To klasyczny paradoks współczesnej AI: im lepsze narzędzia tworzymy, tym trudniej kontrolować ich konsekwencje.

Póki co, rozwiązania są w fazie koncepcyjnej. Eksperci wskazują m.in. na: cyfrowe znaki wodne w obrazach medycznych, systemy weryfikacji źródła danych czy też szkolenia dla lekarzy z rozpoznawania manipulacji.

Jednak problem ma charakter systemowy. Jak pokazują wcześniejsze badania nad deepfake’ami, zarówno ludzie, jak i modele AI mają ograniczoną zdolność ich wykrywania — często niewiele lepszą niż przypadek.

Medycyna w erze niepewności obrazu

Dość łatwo można udowodnić tezę, że historia medycyny opiera się na zaufaniu do narzędzi diagnostycznych. Poczynając od stetoskopu po tomografię komputerową. Deepfake’i w obrazowaniu medycznym podważają tę podstawę. Dziś do pytania, które już znamy, czyli:  „czy AI pomoże lekarzowi”, musimy dodać nowe. A mianowicie: „czy możemy jeszcze ufać temu, co widzimy na ekranie?”

W świecie, w którym nawet radiolog i algorytm nie potrafią odróżnić prawdy od symulacji, odpowiedź przestaje być oczywista.

Czytaj także: