Hypercomplex Keras otwiera nowy rozdział w sieciach neuronowych. Polacy mają w tym swój wkład

Dodane:

MamStartup logo Mam Startup

Hypercomplex Keras otwiera nowy rozdział w sieciach neuronowych. Polacy mają w tym swój wkład

Udostępnij:

Dr Agnieszka Niemczynowicz i dr Radosław Kycia z Politechniki Krakowskiej, we współpracy z badaczami z Hiszpanii i Czech, stworzyli bibliotekę Hypercomplex Keras. To narzędzie umożliwia łatwe wykorzystywanie liczb hyperzespolonych w sieciach neuronowych. Biblioteka jest dostępna jako open-source.

Era hiperzespolona

Hypercomplex Keras to wynik międzynarodowego projektu „Partnerstwa strategiczne na rzecz matematycznych aspektów zespolonych, hiperzespolonych i rozmytych sieci neuronowych”, finansowanego przez NAWA. Narzędzie to pozwala na budowę sztucznych sieci neuronowych w oparciu o liczby hiperzespolone, rozszerzające klasyczne liczby rzeczywiste. Dzięki temu możliwe jest tworzenie bardziej zaawansowanych, elastycznych i efektywnych modeli AI.

– Jesteśmy świadkami narodzin nowej ery w sztucznej inteligencji – ery hiperzespolonej. Nasza biblioteka pozwala programistom na łatwe projektowanie sieci neuronowych bez konieczności posiadania specjalistycznej wiedzy o strukturach hiperzespolonych – mówi dr Radosław Kycia z Politechniki Krakowskiej.

Łatwość użytkowania i szerokie zastosowanie

Biblioteka Hypercomplex Keras integruje się z popularnym narzędziem Keras, umożliwiając budowę sieci neuronowych poprzez układanie warstw niczym klocków. Przed jej powstaniem wykorzystanie sieci hiperzespolonych było ograniczone do kilku wybranych typów liczb, takich jak czterowymiarowe kwaterniony. Teraz naukowcy i programiści mogą tworzyć modele oparte na dowolnej algebrze hiperzespolonej.

Bibliotekę można zainstalować poprzez standardowy instalator pakietów Pythona. Dzięki swojej elastyczności znajdzie zastosowanie w różnych dziedzinach, takich jak medycyna, finanse, cyberbezpieczeństwo i robotyka.

Matematyczna rewolucja w AI?

Liczby hiperzespolone, takie jak kwaterniony i oktoniony, są od lat wykorzystywane w opisie zjawisk fizycznych. Teraz ich potencjał został wykorzystany w AI. Zastosowanie arytmetyki hiperzespolonej pozwala na lepsze przetwarzanie wielowymiarowych danych, co oznacza oszczędność czasu i energii przy trenowaniu sieci neuronowych.

– Naszym celem było stworzenie elastycznego narzędzia, które pozwoli badaczom na eksperymentowanie z nowymi architekturami sieci neuronowych – podkreśla dr Agnieszka Niemczynowicz.

Czytaj także: