... ... ...

Nadchodzi Data Armageddon - firmom grozi jeszcze większe przeciążenie danymi?

Pressroom MamStartup
Tekst, który zaraz przeczytasz jest informacją prasową. Redakcja nie ponosi odpowiedzialności za jego treść
Dodane

22-12-2015

Informacja prasowa
Analitycy podają, że 90 proc. globalnych danych zostało stworzonych tylko w ciągu ostatnich dwóch lat. Do 2020 r. ma być ich już 44 bilionów gigabajtów. Rosnąca liczba informacji uderza w firmy i zbliża do niebezpiecznego przeciążenia. Czy polscy przedsiębiorcy są na to gotowi?

Już w 1970 r. futurolog Alvin Toffler  pisał o przeciążeniu informacyjnym, które nas czeka. Po latach wizja science fiction jest coraz bardziej realna. Liczba informacji prywatnych, jak i publicznych stała się tak duża, że niedługo możemy stracić nad nimi kontrolę. Ich źródeł jest wiele: Internet, Big Data, intranety korporacyjne, e-mail, e-commerce, ERP, CRM, media strumieniowe, video i mnóstwo aplikacji. Za każdą z tych informacji stoją kolejne dane do przechowywania, których przybywa w dynamicznym tempie. Technologie nie zwalniają.  W 2011 r. masowe rozpowszechnienie takich rozwiązań jak Android, Windows Phone, tablety czy chmura publiczna, były dopiero na etapie prognoz , dziś są one dostępne niemal dla każdego.

Lawina danych od Internetu Rzeczy (IoT)

Wg Gartnera do 2020 roku na świecie będzie 26 miliardów podłączonych urządzeń, generujących i konsumujących dane. Powstające podłączone do sieci samochody, inteligentne domy, czy wearables, czyli technologie ubieralne nie przyniosą stabilizacji w tej kwestii. Przykładowo samoloty brytyjskich linii lotniczy Virgin Mobile, wykorzystujące rozwiązania telematyczne, mają w ciągu jednego lotu wytworzyć 0,5  mln GB danych. Flota Virgin wykonuje 21 tys. lotów rocznie, co daje 10 milionów GB.

Analitycy przewidują, że w nadchodzącej dekadzie Internet of Things wymusi na firmach weryfikacje posiadanych zasobów, które pozwalają  na przesyłanie i zarządzanie danymi. - Rozwój nowych technologii jest nie do zatrzymania, a firmy, żeby utrzymać wysoki poziom konkurencyjności, są wręcz skazane na przyjęcie coraz większej ilość danych klientów oraz zapewnienie tym informacjom stabilnej infrastruktury.  Umożliwi ona obsługę i zarządzanie zgodnie z oczekiwaniami użytkowników - komentuje Łukasz Polak, wiceprezes Beyond.pl, polskiego centrum danych i dostawcy rozwiązań IT dla biznesu.

Schronienie w elastycznej infrastrukturze

W obliczu potopu danych firmy zastanawiają się już nie tylko nad zminimalizowaniem ryzyka związanego z ich bezpieczeństwem  przechowywania, ale również nad sposobem ich przetwarzania i dystrybucji na potrzeby biznesowe. Dane mają być dostępne w dowolnym miejscu i czasie, a w wielu przypadkach wykorzystywane w jednym momencie przez kilka tysięcy pracowników, czego doskonałym przykładem są firmy ubezpieczeniowe. Nic więc dziwnego, że rosnąca ich liczba zwiększa presję na wydajność i skalowalność infrastruktury IT firm i wymaga od niej elastyczności oraz dostosowania się do obowiązujących realiów.  I tu pojawia się dylemat: czy rozbudowywać posiadane zasoby IT czy outsoursować je na zewnątrz?

Przenosząc swoje zwiększające się dane do zewnętrznego dostawcy, przedsiębiorca według uznania, dynamicznie zwiększa lub zmniejsza dostępność zasobów serwerowych, bez inwestowania w infrastrukturę. - Firmy poszukują rozwiązań, które gwarantują stabilność, bezpieczeństwo i optymalność działania ich usług. Współpracując z nimi dzielimy się swoim know how tym zakresie - tłumaczy Łukasz Polak z Beyond.pl. -  Już za moment przyrost danych oraz zapotrzebowanie na moc obliczeniową osiągną gigantyczne rozmiary. Firmy, chcąc jednocześnie zachować stabilność, bezpieczeństwo i optymalność działania swoich usług muszą poszukać odpowiednich rozwiązań, które im to zagwarantują. Decydując się na wybór zewnętrznego dostawcy usług IT,  otrzymują przede wszystkim cenne know how tym zakresie - tłumaczy Łukasz Polak z Beyond.pl.

fot. pixabay.com

Komentarze (0)