Technologia Data Fabric zrewolucjonizuje sektor finansowy? Banki będą jej potrzebować, żeby nadążyć za bigtechami

Dodane:

Informacja prasowa Informacja prasowa

Technologia Data Fabric zrewolucjonizuje sektor finansowy? Banki będą jej potrzebować, żeby nadążyć za bigtechami

Udostępnij:

Dane są kluczowym elementem prognoz i analiz w sektorze finansowym. Efektywne ich przetwarzanie pozwala m.in. ograniczyć liczbę fraudów, dostosowywać się do wymogów regulacyjnych, optymalizować przepływy pieniężne, pozyskiwać nowych klientów i lepiej odpowiadać na ich rosnące oczekiwania. W tej chwili nawet 68 proc. danych gromadzonych przez organizacje nie jest efektywnie wykorzystywanych. W tym celu banki potrzebują rozwiązań technologicznych i nowoczesnych platform, które pozwolą na integrację danych w scentralizowanym środowisku i zapewnią do nich szerszy dostęp przy zachowaniu pełnego bezpieczeństwa. Taką technologią jest Data Fabric – jeden z kluczowych trendów technologicznych na 2023 rok.

– Cyfryzacja i coraz bardziej wyśrubowane oczekiwania klientów postawiły banki przed wieloma wyzwaniami. Dziś nie wystarczy już efektowna i sprawnie działająca aplikacja mobilna czy dobre oprocentowanie lokat i kredytów. Banki, żeby utrzymać konkurencyjność, muszą stawiać m.in. na prostą i przejrzystą komunikację, która jest spójna we wszystkich kanałach, operational excellence, czyli doskonałość operacyjną, oraz tzw. customer intimacy, co w wolnym tłumaczeniu oznacza zażyłość z klientem. Podobnie jak i inne instytucje działające w branży finansowej banki muszą dopasowywać się do ich oczekiwań, potrzeb i możliwości – mówi Bartłomiej Wlazłowski, executive business partner w Goldenore, firmie, która jest polskim integratorem platform danych.

Jak podkreśla, aby odpowiadać na te wyzwania, banki muszą ciągle gromadzić i analizować dane płynące z różnych źródeł publicznych i prywatnych, zarówno od klientów, jak i z rynku. Wolumen i złożoność tych danych są jednak ogromne, dlatego instytucje finansowe mają problem z ich efektywnym przetwarzaniem i wyciąganiem z nich wniosków. Szacuje się, że nawet 68 proc. tych danych nie jest wykorzystywanych.

Banki muszą inwestować w nowoczesne platformy danych

– Dlatego właśnie banki muszą inwestować w nowoczesne platformy danych i za chwilę to będzie już nie tylko moda czy potrzeba chwili, ale krytyczna konieczność, żeby móc w ogóle konkurować na rynku. Wynika to z faktu, że banki coraz bardziej czują na plecach oddech bigtechów, takich jak Google, Amazon, Facebook czy Apple. One gromadzą, przetwarzają i analizują ogromne ilości danych o swoich klientach i zaczynają coraz śmielej wchodzić na rynek finansowy – mówi Bartłomiej Wlazłowski.

Data Fabric

Bardziej efektywny dostęp do danych gromadzonych i przetwarzanych w systemach IT umożliwia Data Fabric, która integruje je w scentralizowanym środowisku. Ta technologia opiera się na założeniu, że wszystkie elementy IT powinny wspierać i ułatwiać obsługę danych. Data Fabric tworzy zestaw narzędzi, które umożliwiają organizacji zarządzanie danymi niezależnie od miejsca, modelu czy formy ich przetwarzania i przechowywania. Ta technologia pozwala też „demokratyzować” dostęp do danych – sprawić, aby były one użyteczne dla jak najszerszej grupy użytkowników biznesowych, przy zachowaniu odpowiedniej polityki dostępu i poufności.

– Liczba i złożoność systemów i aplikacji bankowych kiedyś była znacznie mniejsza, podobnie jak potrzeby analityczne i raportowe. Natomiast w tej chwili stopień skomplikowania środowisk informatycznych w bankach jest tak ogromny, że bez nowoczesnych, niezawodnych i wydajnych rozwiązań IT żaden bank nie może sprawnie działać – podkreśla ekspert.

Data Fabric to jeden z kluczowych trendów technologicznych

Data Fabric to w tej chwili jeden z kluczowych trendów technologicznych wymienianych przez firmę analityczną Gartner, która wskazuje, że elastyczność zarządzania danymi stała się priorytetem o znaczeniu krytycznym dla organizacji działających w coraz bardziej zróżnicowanym, rozproszonym i złożonym środowisku. Aby ograniczyć błędy ludzkie i ogólne koszty, liderzy ds. danych i analiz muszą wyjść poza tradycyjne praktyki zarządzania danymi i przejść w kierunku nowoczesnych rozwiązań, takich jak integracja danych z obsługą sztucznej inteligencji. To właśnie umożliwia technologia Data Fabric. Według prognoz Gartnera do 2024 roku już 1/4 firm dostarczających rozwiązania związane z zarządzaniem danymi stworzy kompletny zestaw narzędzi do wykreowania takiej architektury. W tej chwili jest to tylko 5 proc.

– Jedną z podstawowych korzyści płynących z wdrożenia rozwiązań Data Fabric jest m.in. lepsze zarządzanie dostępem i korzystaniem z danych dla szerszego grona użytkowników. To zaś zwiększa efektywność prowadzenia biznesu i produktywność pracowników, pomaga zdobyć nowych klientów, poprawić jakość obsługi i lepiej dostosować się do regulacji branżowych – wylicza Bartłomiej Wlazłowski. – Użytkownicy sami wyszukują dane z katalogu danych wspierani przez AI, co oznacza duże oszczędności czasu w wyszukaniu i modelowaniu danych. To też zmniejsza pracochłonność przygotowywania danych dla użytkowników biznesowych, czyli obniża koszty IT. Automatyczne mechanizmy sprawdzania i poprawy jakości oraz aktualności danych oznaczają z kolei trafniejsze prognozy i poprawne raporty.

Przykłady wdrożenia Data Fabric

Na globalnym rynku są już praktyczne przykłady wdrożenia tej technologii. To m.in. obsługujący ponad 5 mln klientów Danske Bank, największy duński bank i jeden z większych w Europie Północnej, który za pomocą IBM Watson Knowledge Catalog wdrożył spójną strategię tzw. Data Governance w celu ulepszenia strategii zarządzania danymi w organizacji.

– Efektem tego wdrożenia jest dostępność wysokiej jakości danych dla analityków w celu tworzenia jeszcze bardziej trafnych i stabilnych modeli analitycznych. Dane są bowiem kluczowym elementem modeli i prognoz w sektorze finansowym – mówi ekspert Goldenore.

Kolejnym przykładem wdrożenia rozwiązań Data Fabric jest też Banco Macro – drugi co do wielkości prywatny bank w Argentynie oraz szósty pod względem depozytów i kredytów. Bank poszukiwał nowych metod na zwiększenie efektywności kampanii marketingowych, optymalizację zarządzania przepływami pieniężnymi w oddziałach i bankomatach oraz zapobieganie liczbie i skali oszustw. We współpracy z IBM wdrożył nową platformę do zarządzania modelami uczenia maszynowego, a pierwszymi obszarami były znalezienie i priorytetyzacja najbardziej akceptowalnych ofert (NBO – Next Best Offer) oraz wykrywania ryzyka fraudów na podstawie zachowań.

– Dzięki efektywnemu zarządzaniu cyklem życia modeli, poprawie ich efektywności i ułatwieniem dostępu do danych Banco Macro uzyskał trzykrotny wzrost akceptacji ofert, a klienci zidentyfikowani przez ulepszone modele byli o 25 proc. bardziej skłonni do przyjęcia oferty. Bank wykrył też kilka dodatkowych przypadków scenariuszy zachowań ryzykownych oraz znacząco zredukował poziom rezerw z tytułu zobowiązań – mówi Bartłomiej Wlazłowski.

 

Sygnity poprzez automatyzację chce usprawnić pracę banków

Lantre wprowadza technologię od PayEye do płacenia za sprzęt Apple

Open banking ułatwi obsługę KSeF?

 

 

Źródło: Newseria