data publikacji

Prognozowany roczny wzrost wartości rynku usług i technologii big data do roku 2017 ma wynieść 27 procent, osiągając pułap 32,4 mld dolarów.

Fot. Intel

Głównym zjawiskiem napędzającym ten trend jest zmasowany napływ danych ze skomunikowanych ze sobą urządzeń w ramach internetu rzeczy, których liczba ma wzrosnąć do 30 miliardów do roku 2020. Internet rzeczy generuje także nowe wyzwania dla przedsiębiorstw, które muszą zmierzyć się z ogromnymi zasobami ustrukturyzowanych i „luźnych” danych.

W obliczu tego trendu firmy opracowują nowe narzędzia i techniki, służące do analizy i przetwarzania dużych zasobów zróżnicowanych danych. Powstają nowe rozwiązania, funkcjonujące zarówno w ramach tradycyjnych rozwiązań analitycznych, jak i dla nowych systemów, przetwarzających dane przechowywane w trybie „in-memory”, czyli w pamięci operacyjnej, a nie na tradycyjnych dyskach. Bazy danych i narzędzia analityczne, pracujące na danych przechowywanych tą metodą, pozwalają osiągnąć wyższą wydajność podczas analizowania złożonych zbiorów zróżnicowanych danych, generując wyniki w ciągu sekund i minut, a nie godzin i dni, oraz udostępniając informacje w czasie rzeczywistym.

Dostępne dziś rozwiązania analityczne, magazynujące dane w trybie in-memory, umożliwiają uzyskanie niedostępnych wcześniej informacji w ciągu zaledwie kilku sekund, zapewniając wiedzę niezbędną do podejmowania szybkich decyzji oraz pozwalając lepiej dostosować produkty i usługi do potrzeb klientów. Możliwość analizowania pokaźnych zasobów różnorodnych danych w czasie rzeczywistym jest największym atutem big data.

Czym jest zaawansowana analiza w czasie rzeczywistym?
Dzisiejsze przedsiębiorstwa rzadko mogą pozwolić sobie na luksus przechowywania i analizowania danych całymi dniami czy miesiącami. Brak możliwości przechwycenia i przeanalizowania danych, kiedy tylko się pojawią, może zagrozić nie tylko utrzymaniu przewagi danej firmy nad konkurencją, ale doprowadzić do przeoczenia szans na dodatkowe przychody (które mogą wynieść nawet setki milionów dolarów).

Analiza danych umożliwia dokonanie rzeczywistego postępu, jeśli chodzi o zdobywanie obiektywnej wiedzy i dogłębne zrozumienie ważnych zjawisk rynkowych, umożliwiając menadżerom podejmowanie decyzji opartych na faktach, a nie intuicji.

Nowe narzędzia do analizy danych przechowywanych w trybie in-memory oparte na skalowalnych, rozbudowywanych systemach, powalają uzyskiwać wyniki analiz w czasie rzeczywistym, odczytując dane znajdujące się w pamięci operacyjnej, a nie na tradycyjnych dyskach twardych. Zanotowano nawet 148 razy zwiększoną szybkość procesów analitycznych rozwiązań in-memory, w porównaniu z systemami korzystającymi z dysków.

Przykładowo dla firm z sektora finansowego duże znaczenie ma możliwość natychmiastowego korelowania danych pod różnym kątem w poszukiwaniu cennych wniosków. Instytucja finansowa może np. wykrywać próby oszustw, porównując w czasie rzeczywistym dane o zachowaniu konsumentów (takie jak liczba, wielkość, wartość, rodzaj i miejsce zakupów, aby szybko zlokalizować praktyki odbiegające od normy.
Możliwe jest także przyjrzenie się prawidłowościom w transakcjach, które zazwyczaj sygnalizują, że doszło do oszustwa – np. duże zakupy w sklepach jubilerskich czy elektronicznych, które mają miejsce tuż po drobnej transakcji próbnej.


Analiza danych w trybie in-memory nie polega na przetwarzaniu informacji zgromadzonych na dysku twardym, lecz przeszukiwaniu całych zbiorów znajdujących się pamięci operacyjnej komputera. Prowadzi to do znacznego skrócenia czasu reakcji i szybszego generowania wyników, umożliwiając szybsze podejmowanie decyzji w oparciu o narzędzia Business Intelligence i inne aplikacje analityczne.
   
   

1 1 1 1 1 1 1 1 1 1
5.0