Hybrydowe IT będzie naszą przyszłością - rozmawiamy z Michałem Zajączkowskim, prezesem Hewlett Packard Enterprise Polska

hybrydowe it bedzie nasza przyszloscia rozmawiamy z michalem zajaczkowskim prezesem hewlett packard enterprise polska
Udostępnij:
Jak będzie wyglądał świat hybrydowego IT i elastycznego wielochmurowego środowiska? Czym jest edge computing i jaką rolę może odegrać sztuczna inteligencja w rozwoju IT? O to wszystko pytamy Michała Zajączkowskiego - prezesa Hewlett Packard Enterprise Polska.

Spędził Pan prawie 18 lat w HPE (wcześniej HP). Pamięta Pan, jak na początku Pana pracy wyglądała firma?

Pamiętam (uśmiech). 18 lat to bardzo długi okres czasu, szczególnie, jeśli chodzi o pracę w technologiach, które szybko się rozwijają. Ten świat kilkanaście lat temu był zupełnie inny i sprzedawało się wtedy zupełnie inne produkty oraz rozwiązania. Firma również była inna, bo miała szerszy zakres działania. Wtedy sprzedawaliśmy wszystko: urządzenia drukujące, notebooki, stacje robocze, ale również serwery, pamięci masowe. Mieliśmy także wielki dział usług, który w tamtych czasach realizował największe projekty w kraju – były to usługi zarówno rozwiązaniowe, jak również aplikacyjne. Tak to wyglądało na początku. Na przestrzeni tych lat mocno to się zmieniało i mocno zmienia się to dzisiaj.

Obecnie Hewlett Packard Enterprise (HPE) działa na rynku rozwiązań dla dużych i małych przedsiębiorstw. Zajmujemy się produkcją serwerów pamięci masowych, rozwiązań sieciowych, posiadamy również kompetencje i dział usług serwisowych, który te rozwiązania wdraża i utrzymuje. Dzisiaj podążamy za ogólnym trendem chmurowym, wielochmurowym, czy rozwiązaniami hybrydowymi i zmierzamy – podobnie jak i cały świat – w kierunku sprzedaży w modelu usługowym. To rozwiązania oparte na zupełnie innej perspektywie rynku niż kiedyś.

Ale tak jak nie umiałbym powiedzieć 18 lat temu, jak rynek IT i nowych technologii będzie wyglądał dzisiaj, tak za kolejne 18 lat mogę sobie jedynie wyobrazić, że zmieni się wszystko – sztuczna inteligencja będzie towarzyszyła nam w każdej sferze życia i będziemy pracować w specjalizacjach branży IT, o których jeszcze nie wiemy. Prawdopodobnie obok branży IT pojawi się cała wieloelementowa branża AI i inne, które zrewolucjonizują podejście do człowieka, technologii oraz biznesu. Dominacja technologiczna jest realna, ale nie sądzę, żeby w przyszłości roboty całkowicie mogły wyeliminować człowieka – w tym celu potrzebujemy regulacji i dobrych praktyk opartych na etyce.

Na jednym z briefingów prasowych mówił Pan, że czeka nas świat hybrydowego IT i elastycznego wielochmurowego środowiska. Jak będzie wyglądał ten świat?

Jesteśmy zdania, że chmura – rozumiana jako wszystkie rozwiązania typu chmurowego (zarówno chmury prywatne jak i publiczne) – to nie tylko miejsce dla danych czy ich przetwarzania, ale przede wszystkim odczucie użytkownika – czyli tzw. cloud experience. HPE jako pierwsza firma na świecie w naszej strategii postawiła na hybrydowe IT i przetwarzanie na brzegu sieci (edge computing). Widzimy, że większość z naszych konkurentów podąża tym tropem, co tylko pokazuje, że dobrze zidentyfikowaliśmy potrzeby wskazując, że hybrydowe IT będzie przyszłością.

W tym świecie hybrydowym chcemy sprzedawać nasze rozwiązania w modelu as-a-service, bo tego wymaga od nas rynek. Rynek oczekuje wprowadzania nowych produktów w bardzo krótkim czasie, czyli w modelu ‘time to market’, który gwarantuje elastyczność, bez zbędnych i długotrwałych procesów zakupowych i sprawia, że świat jest łatwiejszy dla naszych klientów.

Jeżeli klient potrzebuje mocy obliczeniowej, to może ją uzyskać od ręki przy przedsięwzięciu biznesowym. I odwrotnie – jeżeli z jakichś powodów ma tej mocy za dużo, to może zrezygnować i płacić tylko za to, co w danej chwili wykorzystuje.

Wiadomo, że nie wszystkie aplikacje da się przynieść i nie wszystkie aplikacje będziemy migrować do chmury publicznej. Niektóre z nich będą implementowane na platformach chmurowych, w tym prywatnych, a wiele firm np. finansowych będzie dalej działać w starym modelu - bardzo tradycyjnym. To oznacza, że te wszystkie światy trzeba ze sobą połączyć.

Zjawisko multichmurowości polega na elastycznym, prostym zarządzaniu tymi wieloma środowiskami przetwarzania danych i przenoszenia ich między różnymi miejscami - pomiędzy chmurą publiczną a chmurą prywatną i w drugą stronę. Wszystko oczywiście w zależności od potrzeb i konieczności związanych z rozwojem działalności biznesowej. Jednak już teraz widzimy, że nasi klienci postrzegają świat w dokładnie ten sposób – że świat będzie hybrydowy, a nie czysto chmurowy.

Do 2022 roku całe portfolio HPE będzie dostępne w modelu as a service. Czym podyktowana jest ta zmiana?

Klienci i rynek w tej chwili oczekują od firm dużej elastyczności, szybkiej realizacji projektów, działania w bardziej zwinnym modelu – oczekują dostarczania szybko nowych produktów na rynek, bo dzisiaj zwyciężają ci, którzy na ryku z produktem są pierwsi. Dlatego, aby to w dobry sposób funkcjonowało potrzebna jest infrastruktura, która będzie elastyczna, łatwa w zakupie, przewidywalna - zarówno, jeśli chodzi o cenę i zużycie oraz będzie dawała możliwości szybkiego uruchomienia i płacenia rzeczywiście za te zasoby, których potrzebujemy lub które są nam potrzebne do realizacji.

Nasz pomysł sprzedawania wszystkiego jako usługę, czyli as-a-service, jest również związany z ochroną środowiska i tzw. gospodarki obiegu zamkniętego (circular economy). W modelu usługowym klient ‘zatrudnia’ usługę od początku realizacji takiego projektu, poprzez odświeżanie infrastruktury, aż po utylizację, a właściwie recykling zasobów, które naszym klientom już nie są potrzebne. Chociażby w ubiegłym roku – aż 89% takich produktów zrewitalizowaliśmy, użyliśmy ponownie, a tylko 11% - uległo utylizacji. W ten sposób całkowicie zdejmujemy problem odpadowy z głowy klientów.

To sprowadza się także do ponownego użycia komponentów, które możemy gdzieś dalej wykorzystać. Nie w 100%, ale w większości przypadków udaje się ponownie sprzedać elementy lub urządzenia, z których niektórzy klienci już zrezygnowali, podczas gdy na potrzeby innych projektów komponenty są w zupełności wystarczające.

W ciągu najbliższych kilku lat HPE zainwestuje 4 mld dolarów w rozwój edge computing. Czym właściwie jest edge computing, gdzie dziś znajduje swoje zastosowanie i jaka jest jego przyszłość?

Najprościej spojrzeć na to od tej strony – wszystko, co znajduje się w centrum danych i w serwerowni – to jest data centre, a całość przetwarzania, która znajduje się poza – to jest brzeg sieci, czyli edge computing. W skrócie można powiedzieć, że są to różnego rodzaju czujniki, serwery oraz urządzenia, które zbierają informacje znajdujące się są na brzegu całego rozwiązania i służą wstępnemu przetwarzaniu danych. Chodzi o zbieranie i przetwarzanie danych, jak najbliżej miejsca powstawania danych, bez przesyłania ich do data centre. Dzięki temu możemy te dane szybciej przetworzyć, a co za tym idzie szybciej podjąć decyzję. To usprawnia np. procesy produkcyjne, gdzie bazując na ilości informacji przetwarzanych na miejscu, możemy wyeliminować błędy. Kiedy widzimy niepokojące nas trendy – bez dodatkowego przetwarzania danych jesteśmy w stanie zaplanować przestój linii produkcyjnej, żeby ją naprawić, a nie czekać czy być zaskoczonym przez awarię.

Według Gartnera, w 2025 roku 75% danych będzie generowane na brzegu sieci. Natomiast według IDC do 2025 będziemy mieli podpięte aż 55 miliardów urządzeń IoT. W sposób dramatyczny wzrastać będzie ilość danych, a co za tym idzie potencjał na biznesowe ich wykorzystanie. Firmy, które sobie z tym poradzą zyskają przewagę technologiczną, bo zbieranie i przetwarzanie danych na brzegu oraz szybkie wyciąganie wniosków i podejmowanie decyzji będą kluczowe dla biznesu.

Hewlett Packard Enterprise wykorzystuje edge computing np. w sporcie samochodowym. Jak wiemy, tutaj liczy się każda sekunda i właśnie ta możliwość zbierania danych na brzegu sieci może mieć na to wpływ. Jako partner zespołu Mercedes-AMG Petronas F1 Motorsport dostarczamy rozwiązanie HPE Apollo, dzięki któremu na bieżąco zbieramy dane, analizuje je, wyciągamy wnioski i na tej podstawie możemy pomóc w stworzeniu idealnego samochodu w danym sezonie, ciągle go ulepszać, a także stosować różne strategie i taktyki w poszczególnych wyścigach. Celem naszego klienta jest wygrana zarówno w wyścigach, jak i w całym sezonie, dlatego możliwość przetwarzania danych i podejmowania decyzji na bieżąco jest tutaj kluczowa.

Nasz system HPE Apollo jest wykorzystywany także m.in. do skomplikowanych symulacji wyścigów, gdzie mamy możliwość przekazywania rekomendacji inżynierom w czasie rzeczywistym – przed, w trakcie i po wyścigu.

Nasze rozwiązania sprawdzają się także w branży zdrowotnej. Dzięki rozwiązaniom edge computing wspieramy m.in. firmę Philips Healthcare w rozszerzaniu funkcjonalności ich autorskiej aplikacji. Aplikacja Philips Healthsuite pomaga szpitalom dzielić się szybciej informacjami o pacjencie, przy jednoczesnym zachowaniu wszystkich regulacji dotyczących ochrony danych. Naszym zadaniem jest umożliwienie bezpiecznej transformacji aplikacji do chmury hybrydowej – czyli łączymy chmurę prywatną z chmurą publiczną.

Kolejny przykład to Seagate, gdzie pomagamy klientowi zwiększyć jakość procesu produkcyjnego przy użyciu algorytmów „deep learning” do analizy zdjęć procesu produkcyjnego. Seagate generuje 15 milionów obrazów dziennie, które poddawane są analizie i dzięki temu można predykcyjnie wykryć nieprawidłowości oraz proaktywnie zapewnić jakość linii produkcyjnej. Wykorzystanie sztucznej inteligencji do predykcyjnej analizy danych i zapobiegania problemom zanim one wystąpią, znacząco wpływa na jakość oraz koszty utrzymania linii produkcyjnych.

Wraz z Tottenham Hotspur Stadium w Londynie rozwijamy także wizję, jak powinien wyglądać stadion przyszłości. Fani piłki nożnej wykorzystując aplikację zyskali niezwykłe możliwości nawigacji, zamawiania posiłków i napoi, czy przemieszczania się po stadionie. Kibice, będąc na stadionie zyskali nawet możliwość oglądania powtórek z danego momentu meczu na telefonie w czasie rzeczywistym. Rozwiązanie stadionowe to wykorzystanie edge computing w celu doskonalenia UX. Zostało wdrożone z myślą o kibicach, żeby mogli łatwiej i przyjemniej przeżywać mecz na stadionie.

Edge computing pełni funkcje nie tylko zbierania danych, ale przede wszystkim ich przetwarzania. Dobrym przykładem EC są także autonomiczne pojazdy, które zbierają dane ze wszystkich możliwych czujników w samochodzie, gdzie następnie są przetwarzane. Obecnie w Polsce pracujemy nad bardzo ciekawym projektem, związanym właśnie z autonomicznymi pojazdami. Nazwy klienta nie mogę zdradzić, ale dzięki temu uczestniczymy w przedsięwzięciach, które rewolucjonizują rynek.

Dzięki wykorzystaniu naszych rozwiązań jesteśmy w stanie zarówno te dane zbierać w odpowiedni sposób i klasyfikować, ale również przetwarzać jak najbliżej miejsca powstawania tych danych bez przesyłania ich do data centre. W dzisiejszych czasach decyzje biznesowe muszą zapadać tam, gdzie te dane są generowane. Wykorzystanie edge computing będzie się rozwijało i coraz więcej urządzeń będzie podpiętych pod sieć. Szybsze przetwarzanie danych to szybszy czas reakcji, a tego oczekuje od nas przyszłość.

W ofercie HPE jest wiele rodzajów chmur. W jaki sposób się w niej odnaleźć i jak dobrać najlepsze rozwiązanie?

Od razu sprostuję. My chmur nie oferujemy w rozumieniu takim jak to robi Google czy Microsoft, nie mamy chmury publicznej. My oferujemy nasze produkty w modelu usługowym as-a-service, który stanowi pewien rodzaj chmury prywatnej. Dajemy narzędzia do mierzenia i zarządzania środowiskami hybrydowymi - zarówno chmurą prywatną, jak i rozwiązaniami starego typu oraz chmurą publiczną, czyli zarządzaniem multicloudowymi środowiskami.

Różnica polega na tym, gdzie przechowuje się dane. Chmura publiczna jest zbudowana w oparciu o przechowywanie danych w różnych miejscach na świecie. Natomiast chmura prywatna jak np. HPE Green Lake w modelu as-a-service, polega na tym, że klient ma w swojej serwerowni rozwiązania i przechowuje je u siebie, ale to my jesteśmy właścicielami struktury i za nią odpowiadamy. Udostępniamy naszym klientom infrastrukturę tak, żeby oni na niej mogli uruchamiać aplikacje w bardzo podobny sposób, jak w chmurze publicznej. Z tą różnicą, że mają także możliwość przechowywania danych u siebie. Rozwiązanie hybrydowe to odpowiedź na UX wielu naszych klientów. Bo użytkownik z jednej strony ma odczucie, jakby korzystał z wygodnej chmury publicznej, z drugiej zachowuje poczucie bezpieczeństwa, że dane znajdują się fizycznie w jego serwerowni.

Miejsca przechowywania i przetwarzania danych są także związane z różnymi regulacjami, którym podlegają nasi klienci. Pod tym względem bardzo mocno uregulowany jest sektor bankowy, co wymaga mocnego oszacowania ryzyka i dywersyfikacji. Tutaj właśnie sprawdza się model hybrydowy. Dzięki takim rozwiązaniom możemy zaadresować również takie tematy regulacyjne jakim jest np. RODO. Kolejną kwestią są stare aplikacje, które przez to, że często są zbyt duże, nie można ich migrować, tylko przeznacza się je do archiwizacji – to też trzeba gdzieś przetrzymywać. Tych przykładów z zapotrzebowaniem na hybrydowe IT będzie coraz więcej, bo przetwarzanie danych to bardzo wrażliwa kwestia, która coraz częściej jest obiektem regulacji państwowych, czy na poziomie UE. To potwierdza, że świat będzie hybrydowy, a nie czysto chmurowo-publiczny.

Jaką rolę może odegrać sztuczna inteligencja w rozwoju IT?

Sztuczna inteligencja, jak i większość innych trendów IT prawdopodobnie przez każdego jest rozumiana inaczej. Ja przez sztuczną inteligencję rozumiem umiejętność podejmowania decyzji na bazie ogromnej ilości danych, bez posiadania pełnej informacji, bez umiejętności uczenia się i bez ingerencji z zewnątrz. Sami byśmy nie poradzili sobie z zebraniem, przetworzeniem i przeanalizowaniem w tak krótkim czasie takiej ilości danych, dlatego wykorzystujemy do tego algorytmy. I tak dzięki np. rozwiązaniu HPE InfoSight, które zbiera dane z całej zainstalowanej bazy, poddaje to analizie zdarzeń, które już występowały lub konfiguracji, jesteśmy w stanie przewidzieć i zapobiec awarii lub wdrożyć rozwiązanie. Rozwiązania AI wykorzystujemy również w Niemczech, gdzie wspieramy badania nad chorobą Alzheimera poprzez odpowiednie przechowywanie i analizę danych w celu ułatwienia i przyspieszenia ich przetwarzania. Dzięki możliwości ogarnięcia takiej ilości danych staramy się znaleźć przyczyny zachorowań i opracować ew. metody profilaktyki.

Mówiąc o sztucznej inteligencji warto odnieść się do książki Stevena Hawkinga „Krótkie odpowiedzi na wielkie pytania”. W jednym z rozdziałów Hawking zastanawia się, czy sztuczna inteligencja zdominuje ludzką. Twierdzi, że mamy wielkie szczęście żyć w dzisiejszych czasach jako ludzie i że to właśnie my posiedliśmy tzw. świadomość przez prawie 14 miliardów lat dziejów kosmicznych, a więc od prostej reakcji na bodziec doszliśmy do czasu, kiedy jesteśmy świadomi i świadomie podejmujemy decyzje. Co ciekawe, Hawking nie widzi też specjalnej różnicy w tym jak pracuje mózg dżdżownicy, a jak działa komputer. Z perspektywy ewolucyjnej jest też przekonany, że mózg dżdżownicy jest podobnie zbudowany do ludzkiego. Widzi więc szansę na to, że komputery mogą w pewnym momencie i przy bardzo szybkim rozwoju jaki mamy teraz, działać jak ludzka inteligencja.

Dlatego AI może być najlepszą albo najgorszą rzeczą jaka może nam się przytrafić. Bo to, że sztuczna inteligencja wywrze ogromny wpływ w najbliższych latach – wiemy, pytanie tylko w jakim czasie i jaka będzie tego skala oraz skutki. Ważne jest w jaki sposób będziemy ją wykorzystywać i czy poradzimy sobie z wyzwaniami etycznymi, które staną przed nami. Na pewno trzeba nadać temu jakieś ramy prawne, które w odpowiednim czasie powinniśmy narzucić, nie blokując przy tym możliwości rozwoju. Tutaj nie chodzi tylko o AI, ale także o rozwiązania chmurowe, o których już mówimy od kilku dobrych lat. Regulacje nie nadążają, gdyż po pierwsze trzeba opanować technologie językiem stricte prawniczym, do którego będziemy się odwoływać. To nie jest proste, gdyż wiele rzeczy jest jeszcze nierozpoznanych, wątpliwych, w fazie R&D i dopiero tak naprawdę tworzą się specjalizacje w tych obszarach.

Mamy też zróżnicowane podejście regulacyjne na świecie, co powoduje, że inne kraje, jak np. Chiny– szybciej mogą testować i wdrażać nowe rozwiązania. To obniża naszą pozycję konkurencyjną.

Czy technologia quantum computing ma szansę zrewolucjonizować IT już w najbliższej przyszłości?

Quantum computing, czyli komputery kwantowe to kwestia przyszłości, ale jeszcze tej bliżej nieokreślonej, więc nie spodziewam się szybko ich w komercyjnych zastosowaniach, mimo zapewnień różnych firm. Czas przygotowania przełomowych rozwiązań oraz proces badawczy gotowości technologicznej jest bardzo długi, a należy pamiętać, że potem to wszystko trzeba „zmigrować” / „przepisać”. W teorii, kubitowa przyszłość w sposób drastyczny zwiększy możliwości przetwarzania i pozwoli zająć się problemami, z którymi tradycyjne komputery sobie nie poradzą. Nawet firmy, które chwalą się pierwszymi osiągnięciami mówią, że zajmie to jeszcze wiele lat do momentu, jak będziemy mogli te możliwości wykorzystywać w praktyce.

Obserwując rynek, na razie firmy wzajemnie wątpią w swoje sukcesy i ogłoszenia. Trend bardzo ciekawy i na pewno ma szansę zrewolucjonizować IT, ale to wymaga jeszcze wielu lat pracy, zanim dojdziemy do pełnej komercjalizacji.

Jakimi technologiami powinny interesować się startupy IT, aby być atrakcyjnymi dla inwestorów?

Biznes przede wszystkim zainteresowany jest tym, w jaki sposób nowe rozwiązania możemy wykorzystywać do ulepszania procesów biznesowych. Dlatego moim zdaniem warto postawić na technologie związane z AI, środowiskami multichmurowymi i rozwiązaniami, które będą umiały gromadzić, ale i przetwarzać dane właśnie dzięki edge computing. Firmy generują teraz olbrzymie ilości danych i te start-upy, które opracują rozwiązania programowe czy aplikacyjne ułatwiające w ich ogarnięciu, na pewno znajdą zainteresowanie biznesu i inwestorów. Warto też pamiętać o dywersyfikacji, bo coraz częściej przechodzimy w stronę rozwiązań programistycznych czy aplikacyjnych, gdzie rozwiązania możemy wykorzystywać do różnych zastosowań i na różne sposoby.

Inna sprawa, że na rynku pojawia się zbyt dużo start-upów, które są często generyczne. Z jednej strony dzięki uniwersalności i elastyczności rozwiązania firmy mogą poszerzać portfolio usług i branż. Z drugiej mamy do czynienia z agresywnym środowiskiem konkurencyjnym oraz klienta, który często wymaga jednak bardziej indywidualnego podejścia. Powielanie rozwiązań jest łatwiejsze, ale to indywidualne podejście, zidentyfikowanie rynku i potrzeb danego pracodawcy z danej branży może okazać się przepisem na sukces. Nie da się dostosować wszystkich, nawet najbardziej ogólnych rozwiązań do każdej branży, gdyż każda z nich ma swoją specyfikę i swoje problemy. Musi nastąpić wybór profilu, a co za tym idzie – osoby, które zarządzają start-upami powinny interesować się danym rynkiem, nie tylko pod kątem swojego pomysłu na rozwiązanie problemu, ale także patrząc szerzej na cały szereg trudności, które ten rynek generuje.

Prognozy pokazują, że być może 20-25% z tych start-upów przetrwa i będzie miało szansę na zrewolucjonizowanie rynku, albo rzeczywiste wdrożenie produktu i komercjalizację. To też potwierdzają statystyki w USA, gdzie start-upy rozwijają się najszybciej, a procentowo wygląda to bardzo podobnie. Wydaje mi się także, że nie sztuką jest wymyśleć coś od razu, tylko sztuką jest testowanie tych rozwiązań – inwestycja w ilość, z której potem statystycznie jakaś część przetrwa. To jednak wymaga odpowiedniej strategii, zaplanowania przewidywanych kosztów i wytrwałości w przechodzeniu przez cały proces gotowości technologicznej. Ważne jest także, aby dobierać współpracowników, nie tylko ze względu na wspólny pomysł i kompetencje technologiczne, ale też na zdolność pracy zespołowej, bo w większości przypadków to relacje okazują się źródłem największych problemów.