XAI w praktyce: polski naukowiec opracowuje system, by lepiej rozumieć decyzje AI w medycynie, bankowości i edukacji

Dodane:

MamStartup logo Mam Startup

XAI w praktyce: polski naukowiec opracowuje system, by lepiej rozumieć decyzje AI w medycynie, bankowości i edukacji

Udostępnij:

Prof. Krzysztof Michalik z Uniwersytetu WSB Merito rozwija system LogosXAI. Narzędzie ma na celu uczynić decyzje AI w pełni transparentnymi.

NarastajÄ…ca popularność AI sprawia, że coraz częściej jej algorytmy funkcjonujÄ… jako „czarne skrzynki” – akceptujemy ich wyniki, nie rozumiejÄ…c drogi, jakÄ… do nich doszÅ‚y. LogosXAI, wpisujÄ…cy siÄ™ w nurt Explainable Artificial Intelligence (XAI), ma to zmienić, oferujÄ…c użytkownikom wglÄ…d w procesy decyzyjne modeli, co jest kluczowe dla budowania zaufania do technologii, zwÅ‚aszcza w tak wrażliwych sektorach jak medycyna czy finanse.

– Dzięki XAI lekarz może zobaczyć, dlaczego system AI zaproponował daną diagnozę i na jakich danych się oparł. To daje większe zaufanie do technologii i pomaga w decyzjach klinicznych. W bankowości dzięki XAI wiadomo, dlaczego system przyznał lub odrzucił kredyt. Klient i analityk widzą kryteria, które miały największy wpływ. W edukacji LogosXAI pozwala studentom eksperymentalnie sprawdzić, jak działają sieci neuronowe: mogą usuwać poszczególne neurony i obserwować, jak zmienia się dokładność modelu. To uczenie się przez praktykę, które sprawia, że sztuczna inteligencja przestaje być abstrakcją – wyjaśnia prof. Krzysztof Michalik z Uniwersytetu WSB Merito, cytowany w serwisie naukawpolsce.pl.

Jak uprościć i zrozumieć sieć neuronową?

Technologie takie jak sieci neuronowe pozostają często nieprzejrzyste dla użytkownika. Dlatego też w swoich publikacjach prof. Michalik opisuje szczegółowo autorską metodę o nazwie HiNeS-P (ang. High Impact Neuron Selection – Pruning). To technika, która koncentruje się na selekcji i przycinaniu neuronów mających największy wpływ na końcowy wynik działania sieci.

– Studenci dzięki LogosXAI mogą dosłownie zajrzeć do wnętrza sieci neuronowej i zobaczyć, jak usuwanie poszczególnych neuronów wpływa na dokładność modelu. To uczenie się przez eksperyment, które ułatwia zrozumienie zasad działania AI – mówi prof. Michalik.

Celem HiNeS-P jest identyfikacja tych elementów sieci, które rzeczywiście decydują o rezultacie. Następnie, poprzez usunięcie mniej znaczących neuronów, model zostaje uproszczony. Profesor Michalik wyjaśnia, że dzięki temu sieć staje się nie tylko mniejsza i szybsza, ale także łatwiejsza do zrozumienia, minimalnie tracąc przy tym na jakości. Wykorzystanie HiNeS-P przynosi dwojakie korzyści: obok lepszej interpretowalności kluczowych fragmentów sieci, umożliwia również ograniczenie kosztów obliczeniowych. Dzięki temu sieci można dostosować do pracy na mniej zaawansowanych urządzeniach (tzw. sprzęcie brzegowym).

Badania i rozwój systemu trwają od dwóch lat, a ich rezultaty zostały zaprezentowane na międzynarodowych konferencjach. Artykuł o połączeniu XAI z systemami hybrydowymi pojawił się w tomie Intelligent Systems and Applications (Springer, seria Lecture Notes in Networks and Systems), natomiast publikacja koncentrująca się na roli XAI w edukacji (AI for Education, Education of AI) ukazała się w serii Lecture Notes in Computer Science (Springer) po prezentacji na 26. Międzynarodowej Konferencji poświęconej sztucznej inteligencji w edukacji (AIED 2025) w Palermo.

Czytaj także: