Nowości

Czym jest Big Data?

​Co kryje się pod hasłem Big Data? Do czego można wykorzystać tę technologię? Poznaj definicję Big Data oraz zastosowania analizy dużych zbiorów danych.

Co to Big Data?

Termin „Big Data” dotyczy dużych zbiorów danych, które mogą być generowane np. podczas zbierania informacji dotyczących korzystania z aplikacji lub stron internetowych. Praktycznie każda interakcja z systemami informatycznymi lub usługami online może być zapisana w formie danych, które można następnie analizować, by określić zależności i wyciągnąć przydatne wnioski dla biznesu. Taka ilość informacji jest jednak za duża dla zwykłych urządzeń – z tego względu wdraża się rozwiązania Big Data wraz z odpowiednią infrastrukturą, zwykle hostowaną w chmurze.

Z uwagi na skalę projekty Big Data są wykorzystywane głównie w dużych firmach. Jest to bardzo przydatne narzędzie do rozwijania usług i produktów, a także przewidywania potrzeb klientów czy przeciwdziałania różnego rodzaju oszustwom.

Big Data i model 4V

Technologia Big Data opiera się na czterech kluczowych aspektach, dzięki którym rozwiązania tego typu są w stanie oferować bezpieczeństwo danych oraz możliwość analizowania i weryfikowania informacji. Zazwyczaj opisuje się je w tzw. modelu 4V.

  • Volume – ilość. Ta wartość określa rozmiar przestrzeni dyskowej, która jest potrzebna do obsługi projektów Big Data. Nieustanny napływ danych powoduje, że niezbędna jest naprawdę spora ilość miejsca. W większości przypadków lokalna infrastruktura będzie niewystarczająca, przez co Big Data często łączy się z usługami cloud.
  • Velocity – prędkość. Rozwiązania Big Data muszą działać szybko i bez opóźnień, co można osiągnąć m.in. przez przetwarzanie danych w chmurze w czasie rzeczywistym. Dzięki temu można uniknąć analizowania nieaktualnych informacji, a tym samym zadbać o wydajną pracę i dostęp do rzetelnych wyników.
  • Variety – różnorodność. To określenie dotyczy głównie różnych źródeł informacji, ale może wiązać się także z zasobami w przestrzeni dyskowej. Aby skutecznie analizować dane w ramach procesów Big Data, należy zwracać uwagę m.in. na różnice w plikach oraz pochodzenie danych. W ten sposób można wyciągać odpowiednie wnioski, co pozwala lepiej planować nowe działania, ulepszać produkty czy modernizować usługi.
  • Veracity – wiarygodność. Wszystkie zbierane informacje muszą być prawdziwe i precyzyjne; w przeciwnym wypadku wyciągane wnioski nie będą odwzorowywać realnej sytuacji. Aby zapewnić rzetelność danych, stosuje się liczne mechanizmy związane z weryfikacją i walidacją.

Artykuł partnera

Zobacz