5 prognoz postępu cyfrowej transformacji w 2018 roku

Cyfrowa transformacja jest – lub powinna być – centralnym punktem strategii informatycznej każdego przedsiębiorstwa. W centrum uwagi każdej firmy znajdują się dane. W miarę jak dane stają się coraz bardziej rozproszone, dynamiczne i zróżnicowane, infrastruktury IT będą wymagały zmian w odpowiedzi na nowe realia w świecie hybrydowej chmury. To właśnie w tym kontekście CTO NetApp, Mark Bregman stworzył pięć najważniejszych prognoz na rok 2018.

#1: Dane zyskują świadomość

Dzisiaj prowadzone są procesy, w toku których operuje się danymi i decyduje o ich przenoszeniu, ochronie czy zarządzaniu nimi. Co by się stało, gdyby dane zaczęły same decydować o sobie?

Gdy dane zyskają świadomość i większe niż dziś zróżnicowanie, metadane umożliwią danym transportowanie, klasyfikowanie, analizowanie i chronienie samych siebie w prewencyjny sposób. Przepływ między danymi, aplikacjami i pamięcią masową będzie mapowany w czasie rzeczywistym, a dane będą dostarczać użytkownikowi informacje, których potrzebuje i dokładnie wtedy, gdy ich potrzebuje. To może wpłynąć na pojawienie się samozarządzających się danych. Dane same ustalą, kto jest uprawniony do ich odczytywania, udostępniania i używania. Może mieć to dalsze następstwa w dziedzinie ochrony danych, prywatności, władzy i suwerenności.

Na przykład gdy dojdzie do wypadku samochodowego, wiele różnych grup może żądać dostępu do danych z pojazdu. Sąd czy firma ubezpieczeniowa będzie ich potrzebować do ustalenia sprawcy, a producent samochodu – na potrzeby optymalizacji działania hamulców lub innych podzespołów mechanicznych. Gdy dane będą świadome, będą mogły się automatycznie klasyfikować, aby kontrolować, kto i kiedy może zobaczyć, którą ich część. Odbędzie się to bez czasochłonnej i podatnej na błędy pracy ludzi przy dzieleniu, zatwierdzaniu i rozpowszechnianiu cennych danych.

#2: Uberyzacja maszyn wirtualnych

Zarządzanie coraz bardziej rozproszonymi danymi będzie szybsze, tańsze i wygodniejsze przy użyciu maszyn wirtualnych bazujących na infrastrukturze webscale, niż przy użyciu maszyn fizycznych.

Analogią może być wybór między kupnem samochodu a wynajęciem go albo skorzystaniem z takich usług jak Uber. Przedsiębiorca codziennie przewożący ciężkie ładunki powinien kupić ciężarówkę. Natomiast jeśli potrzebuje określonego typu pojazdu na pewien czas, lepiej aby go wynajął. Są także osoby, które potrzebują pojazdu, aby jeden raz dostać się z punktu A do punktu B. Typ pojazdu nie ma dla nich znaczenia, liczy się tylko szybkość i wygoda, więc najlepszym wyborem będzie usługa taka jak Uber.

Podobnie wygląda wybór między maszynami wirtualnymi a fizycznymi. Własny sprzęt może być drogi, ale w przypadku stałych, dużych obciążeń inwestycja w infrastrukturę fizyczną jest lepszym wyborem. Maszyna wirtualna w chmurze dla zmiennych obciążeń to odpowiednik wynajmu: użytkownicy mają do niej dostęp, nie będąc jej właścicielami i nie potrzebując dokładnej wiedzy o niej. Gdy okres wynajmu się kończy, maszyna znika. Maszyny wirtualne bazujące na infrastrukturze webscale (czyli przetwarzanie bezserwerowe) to informatyczny Uber — użytkownik po prostu określa zadanie do wykonania. Szczegółami zajmuje się dostawca chmury. W przypadku pewnych typów obciążeń jest to model wygodniejszy i łatwiejszy niż tradycyjne.

#3: Ilość danych będzie rosnąć szybciej niż możliwość ich przesyłania… i nie będzie to problem!

Dane stały się niezwykle dynamiczne i są generowane z szybkością, która zdecydowanie przekroczy szybkość ich przesyłania. Jednak zamiast przemieszczać dane, to aplikacje i zasoby potrzebne do ich przetwarzania będą przenoszone do danych. Będzie to miało ważne konsekwencje dla nowych architektur brzegowych, rdzeniowych i chmurowych. W przyszłości ilość danych trafiających do rdzenia sieci będzie zawsze mniejsza niż ilość generowana na brzegu. Nie będzie to jednak proces przypadkowy. Kluczowe będzie, by starannie zadbać o to, aby zachowywane były właściwe dane, które będą później potrzebne do podejmowania decyzji.

Na przykład samochody autonomiczne będą mieć wiele czujników generujących tak dużo danych, że żadna sieć nie będzie zdolna ich przesłać z samochodu do centrum przetwarzania danych. W przeszłości urządzenia na brzegu sieci nie generowały zbyt dużo danych. Teraz czujniki zbierające dane znajdują się wszędzie: w samochodach, termostatach i urządzeniach wearables. Ilość danych powstających na brzegu sieci rośnie tak szybko, że przekroczy przepustowość połączeń z rdzeniem sieci. Samochody autonomiczne i inne urządzenia wymagają analizy danych w czasie rzeczywistym na brzegu sieci, aby w czasie rzeczywistym podejmować decyzje o krytycznym znaczeniu. Z tego powodu przeniesiemy aplikacje do danych.

#4: Przejście od wielkich (Big Data) do olbrzymich (Huge Data) zbiorów danych będzie wymagać nowych architektur opartych na technologii Solid State

Coraz szybszy wzrost zapotrzebowania na analizy gigantycznych zbiorów danych, wymaga przeniesienia danych bliżej zasobów obliczeniowych. Obliczenia z bardzo niskimi opóźnieniami bez utraty danych będą możliwe dzięki trwałej pamięci masowej (ang. persistent memory). Wymagania dotyczące opóźnień ostatecznie wymuszą zmianę architektur oprogramowania i dadzą firmom nowe możliwości wykorzystania danych. Technologia flash jest w branży popularnym tematem, ale korzystające z niej oprogramowanie w zasadzie nie zmieniło się, jedynie działa szybciej.

Siłą napędową jest tu ewolucja roli IT w przedsiębiorstwach. W przeszłości główną funkcją działów informatycznych była automatyzacja i optymalizacja procesów związanych z zamówieniami, fakturowaniem, obsługą należności itd. Dzisiaj IT ma kluczowe znaczenie dla rozszerzenia relacji z klientami za pomocą zawsze dostępnych usług, aplikacji mobilnych i zaawansowanych rozwiązań internetowych. Następnym krokiem będzie tworzenie nowych możliwości biznesowych związanych z monetyzacją danych zbieranych przez rozmaite czujniki i urządzenia. Ten krok będzie wymagać nowych architektur aplikacji wspieranych między innymi przez trwałą pamięć masową.

#5: Pojawienie się zdecentralizowanych nieodwołalnych mechanizmów zarządzania danymi

Pojawiające się mechanizmy do zarządzania danymi w sposób godny zaufania, nieodwołalny i rzeczywiście rozproszony (bez żadnego organu centralnego) na pewno  będą mieć duży wpływ na centra przetwarzania danych. Najlepszym przykładem jest technologia blockchain.

Zdecentralizowane mechanizmy, takie jak blockchain, stanowią wyzwanie dla tradycyjnych koncepcji ochrony danych i zarządzania nimi. Z powodu braku centrum kontroli (takiego jak centralny serwer) nie jest możliwa zmiana ani usunięcie informacji znajdujących się w bazie danych blockchain, a wszystkie transakcje są nieodwracalne.

Popatrzmy na to jak na system biologiczny – zbiór małych organizmów. Każdy z nich zna swoją rolę, nie potrzebuje komunikacji ani rozkazów. Dostarczamy im substancje odżywcze, w tym przypadku dane. Substancje odżywcze wiedzą, co robić, a wszystko zaczyna działać w zorganizowany sposób bez żadnej centralnej kontroli. Tak działa rafa koralowa.

Współczesne centra przetwarzania danych i aplikacje działają jak komercyjne farmy: całym środowiskiem zarządza centralny punkt kontroli (farmer). Zdecentralizowane nieodwołalne mechanizmy zarządzania danymi będą oferować mikrousługi, których dane będą używać do wykonywania potrzebnych funkcji. Mikrousługi i dane będą współpracować bez centralnego zarządzania.

autor:
Informacja prasowa
Zobaczy wszystkie artykuły
Leave a reply

 

PLIKI COOKIES:

Stosujemy pliki cookies, aby ułatwić korzystanie z serwisu. Szczegóły znajdziesz w Polityce Cookies.