Image Image Image Image Image Image Image Image Image Image

it-manager | 23/09/2017

Scroll to top

Top

Od BI do „Big Data”.

Od BI do „Big Data”.

Tomasz Słoniewski, IDC:

Wartość, to zdecydowanie najistotniejsza cecha wyróżniająca dla Big Data – zarówno w kontekście kosztu pozyskania technologii, jak i korzyści, jakie organizacje mogą uzyskać w wyniku jej stosowania.

Gdy w listopadzie 2003 roku rozpoczynaliśmy cykl konferencji pod szyldem „IDC Business Intelligence Roadshow”, na sali zgromadziła się garstka entuzjastów i praktyków oraz duża grupa osób zainteresowanych tym nowym, w tamtym czasie, zjawiskiem na rynku IT. Liczba firm oferujących usługi wdrożeniowe tych systemów była niewielka, większość dużych dostawców nie posiadała jeszcze systemów BI w swojej ofercie – fala przejęć specjalizowanych firm miała ruszyć dopiero trzy lata później. Spośród naszych ówczesnych partnerów tylko trzy firmy wciąż działają na rynku pod swoim szyldem – to Microsoft, Microstrategy i SAS Institute. Cognos i Hyperion funcjonują za to z powodzeniem w strukturach odpowiednio: IBM i Oracle.

Naszym głównym celem w tamtym czasie była edukacja – zapoznać jak największą ilość managerów IT oraz osób odpowiedzialnych za analitykę z nowymi technologiami, możliwościami jakie daje analiza danych z systemów transakcyjnych oraz właściwym wyważeniem potrzeb biznesu i zastosowanych technologii. Próbowaliśmy pokazać, że analiza danych przydaje się nie tylko w wielkich bankach czy firmach telekomunikacyjnch, ale że praktycznie każda firma o pewnym potencjale danych źródłowych może odnieść wymierne korzyści z wdrożenia BI.

Od tamtych czasów minęła prawie dekada. Systemy Business Intelligence (nazywane przez IDC Business Analytics) stały sie powszechnie znanym i wykorzystywanym narzędziem. Wiele firm, nawet relatywnie małych, dostrzega korzyści z zastosowania narzędzi BI i aplikacji analitycznych. Wiedza wdrożeniowa i biznesowo-analityczna jest również dużo bardziej dostępna. Światowy rynek analityki biznesowej ma się wciąż świetnie – prognoza opublikowana w raporcie IDC z czerwca 2012 pt. „Worldwide Business Analytics Software 2012–2016 Forecast and 2011 Vendor Shares” mowi o średniorocznym 10% wzroście na przestrzeni kolejnych 5 lat.

Czy jednak firmy wykorzystały w pełni potencjał tkwiący w BI? Wydaje się, że nie zawsze i nie do końca. I według mnie nie jest to ich wina – po prostu narzędzia, które dotychczas były w użyciu miały określone ograniczenia. Wiele z nich było natury technicznej (wolne przetwarzanie, słaba jakość danych, ograniczona ilość źródeł), inne natury biznesowej (ograniczony krąg odbiorców analiz, opór zarządów przed wykorzystywaniem danych). Wreszcie – systemy BI skupiały się głównie na kwestiach finansowych, tylko w niektórych przypadkach schodziły na inne pola, takie jak systemy billingowe, czy CRM. W wielu przypadkach dane zawarte w systemach analitycznych nie mogły być w pełni wykorzystane ze względu na czas potrzebny na ich przetworzenie i analizę.

Z wyżej wymienionych powodów wiele ciekawych trendów, zjawisk gospodarczych czy zachowań klientów umykało uwadze analityków, czy osób zarządzających firmami. Lekarstwo na te przypadłości pojawiło się wraz z nadejściem idei „Big Data” – czyli rozwiązań do przetwarzania wielkich woluminów danych. Cechą wyróżniającą Big Data jest idea czterech V: Volume (ilość danych), Variety (różnorodność analizowanych danych i informacji), Velocity (przetwarzanie w czasie rzeczywistym) i Value – czyli wartość jaką możemy uzyskać z połączenia wszystkich poprzednio wymienionych czynników.

Volume czyli ilość danych

Gdy myślimy o ilości danych, powinniśmy zdawać sobie sprawę, że jest to pojęcie względne. Dla niektórych sektorów, albo firm dużą ilością będą tera i petabajty, podczas gdy dla innych może to być o rząd wielkości więcej (np. dla biznesów internetowych o dużej skali czy instytucji badawczych). Wiele zależy również od charakteru danych jakie przychodzi nam analizować. Informacje zawarte w ustrukturyzowanych bazach danych mogą być dużo większe w rozmiarze niż np. archiwa poczty elektronicznej, a mimo to ich przeszukiwanie i analiza będą dużo szybsze i mniej skomplikowane. W wielu przypadkach to jednak informacje zawarte w poczcie są dużo bardziej wartościowe dla firmy: mogą zawierać informacje o niezadowolonych klientach, kontrakty, oferty, projekty techniczne itp.). Jednocześnie przeszukiwanie i analiza takich danych potencjalnie nastręcza najwięcej problemów i wymaga relatywnie największej mocy obliczeniowej.

Variety czyli różnorodność danych

Różnorodność danych poddawanych analizie nie ogranicza się jedynie do podłączenia wielu systemów transakcyjnych. W Big Data chodzi o połączenie wielu typów danych – wspomianych wcześniej ustrukturyzowanych i nieustrukturyzowanych, wewnętrznych i zewnętrznych, historycznych i aktualnych. Mieszanina taka może być bowiem bardzo interesująca z analitycznego punktu widzenia. Dobrym przykładem mogą być analizy ustrukturyzowanych danych z systemu ERP połączone z danymi geograficznymi i demograficznymi oraz danymi ze strony internetowej. Dzięki temu analityk jest w stanie nie tylko zidentyfikować źródła przychodu i wydajność poszczególnych oddziałów firmy w perspektywie historycznej, ale może zobaczyć dane w szerszym tle: potencjału gospodarczego regionu, statystyk sieciowych i popularności konkretnych produktów na stronie firmowej. Dodatkowo, jeśli system działa w czasie rzeczywistym, biznes może stosować określone promocje w celu poprawy wyników, tudzież promować określone towary na stronie internetowej firmy. Kolejnym przykładem takich połączeń jest choćby analiza danych pogodowych – a zatem danych ustrukturyzowanych ze stacji pogodowych i danych geograficzno-klimatycznych, pochodzących z obserwacji satelitarnych. Możliwość dołączenia tego typu analiz jest jednym z podstawowych kryteriów rozróżnienia między Big Data a klasyczną analityką.

Velocity – czyli szybkość analizy danych

Przetwarzanie danych w organizacjach odbywa się wciąż na różne sposoby – od przetwarzania wsadowego (batch processing) – gdzie dane ładowane są do systemu w określonych interwałach, do ciągłego przepływu danych z systemów transakcyjnych do systemów analitycznych. Chociaż pierwszy ze sposobów jest charakterystyczny dla klasycznych systemów opartych na hurtowniach danych, to w świecie Big Data również jest mocno obecny – właśnie tak dostarczane są dane do przetworzenia w środowisko Hadoop. Podobnie jest w przypadku np. danych pochodzących z inteligentnych liczników energii – porcje danych ładowane są do systemu zazwyczaj co kwadrans. Z kolei ciągły dopływ danych, to domena systemów typu CEP (Complex Event Processing), które są odpowiedzialne za reagowanie na określone zdarzenia, systemów do analizy tekstu i wyszukiwania i innych rozwiązań dedykowanych do automatycznej reakcji na zdarzenia i procesy wśrodowisku informatycznym (np. wykrywanie nadużyć w bankowości). Kluczami do oceny potrzeb w zakresie szybkości analizy Big Data są procesy biznesowe i wymagania użytkowników. Dobrym przykładem są np. fundusze hedgingowe inwestujace na rynkach światowych – w ich przypadku znaczenie mają ułamki sekund. Z drugiej strony wyszukiwarki sieciowe muszą często „przerobić” ogromne woluminy danych, jednak nie musi to się dokonywać w czasie rzeczywistym. Podsumowując – w Big Data liczy się właściwa informacja dostarczona we właściwym czasie i z właściwym poziomem dokładności.

Value czyli wartość

Wartość, to zdecydowanie najistotniejsza cecha wyróżniająca dla Big Data – zarówno w kontekście kosztu pozyskania technologii, jak i korzysci jakie organizacje mogą uzyskać w wyniku jej stosowania. Koszt technologii jest bardzo istotną różnicą w porównaniu z systemami z przeszłości, ponieważ poszczególne elementy układanki Big Data istniały od lat – tyle, że nie były powszechnie dostępne dla przeciętnej firmy. Wielkie hurtownie danych istniały w sektorze finansowym, telekomunikacyjnym, czy handlu detalicznym. Monitorowanie w czasie rzeczywistym również było obecne na rynku – chociażby w usługach finansowych (trading), przewidywaniu zjawisk pogodowych, czy wykrywaniu nadużyć. Analiza danych nieustrukturyzowanych w zakresie analizy tekstu również nie jest najnowszym wynalazkiem, podobnie jak superkomputery do zastosowań naukowych. To co wyróżnia obecną sytuację, to znacząco niższy koszt pozyskania wysokowydajnych technologii obliczeniowych i analitycznych. Jest to efekt spadających cen sprzętu komputerowego o wysokich parametrach oraz dostępności oprogamowania open source w „chmurze”.

Wartość odnosi się również do korzyści, jakie osiągają firmy i organy administracji w wyniku implementacji Big Data:

  • Redukcja kosztów kapitałowych – oprogramowanie, sprzęt i inne
  • Wydajność operacyjna – oszczędności w kosztach pracy wynikające z bardziej efektywnych metod integracji danych, zarządzania, analiz i dostarczania do użytkownika
  • Udoskonalenie procesów biznesowych – zwiększenie obrotów i/lub zysku dzięki nowym lub lepszym sposobom prowadzenia biznesu w zakresie usprawnienia transakcji, zarządzania społecznościami klientów czy właściwej dystrybucji usług publicznych (zdrowotnych, edukacyjnych lub społecznych)

Nieporozumienia związane z Big Data

Podobnie jak w przypadku chmury, istnieje wiele nieporozumień dotyczących pojęcia Big Data. Wielu dostawców technologii i usług próbuje wykorzystać marketingowo to pojęcie przyczyniając się do stworzenia szeregu mitów na jego temat. Najpopularniejsze z nieporozumień to:

– Relacyjne bazy danych (RDBMS) mają ograniczenia skalowalności i dlatego nie są częścią koncepcji Big Data

– Hadoop (czy też inne środowiska oparte na koncepcji MapReduce), to najlepszy wybór w zakresie technologii Big Data niezależnie od obciążeń i zastosowania

– Epoka usystematyzowanych baz danych dobiegła końca, schematy tylko przeszkadzają we wdrożeniach Big Data

– Wdrożenia Big Data potrzebne są tylko w celu przetwarzania analitycznego

– Analityka oparta na Big Data, to coś zupełnie nowego i innego, co nie było dostępne do czasu stworzenia obecnych technologii

To prawda, że bazy NoSQL zyskują na popularności we wdrożeniach Big Data, jednak standardowe bazy relacyjne nadal grają ważną rolę na tym rynku. Hadoop jest oczywiście najczęściej wymienianym środowiskiem, ale nie jest ani jedyną formą zarządzania danymi, ani jedyną formą implementacji funkcji MapReduce. Wreszcie – sama idea Big Data jako czegoś zupełnie nowatorskiego jest fałszywa. Koncepcje wykorzystania wielkich woluminów danych były wykorzystywane od wielu lat. Tym, co rzeczywiście się zmieniło, to dostępność tej technologii dzięki spadającym cenom oraz możliwości odkrywania zależności między wielkimi zbiorami różnych typów danych pochodzących z szerokiego spektrum systemów źródłowych.

Co dalej?

Big Data to wciąż młody i rozwijający się rynek. Podobnie jak na rynku Business Intelligence w jego początkach, napędzany jest on przez rzeszę małych, innowacyjnych firm, które próbują poszerzyć i przyspieszyć możliwości działania wielkich woluminów danych. Ich głównymi obszarami działalności są; organizacja i zarządzanie danymi, analizy i wyszukiwanie informacji. W Big Data zaangażowane są również wielkie międzynarodowe koncerny, które postrzegają Big Data jako kolejny czynnik wzrostu ich biznesu. Dodatkowo duże znaczenie dla rynku Big Data mają inicjatywy takie jak Hadoop czy NoSQL, które rzucają wyzwanie tradycyjnym podejściom, obecnym na rynku często już od ponad 30 lat. Ich właściwością jest także to, że umożliwiają społeczności przeprowadzanie operacji, które wydawało się, że nie będą nigdy możliwe bez wysoce wyspecjalizowanego oprogramowania i sprzętu.

Przed rynkiem Big Data stoi jednak wiele wyzwań. Aby w pełni się rozwinął, jego uczestnicy będą musieli trafnie odpowiedzieć na większość z nich. Do najważniejszych zaliczane są niedobory kadrowe – brak wystarczajacej ilości osób z wysokimi umiejętnościami w zakresie zaawansowanych analiz. Uniwersytety i inne placówki naukowe starają się odpowiedzieć na to wyzwanie, zwiększając ilość miejsc na kierunkach powiązanych z zaawansowana statystyką i naukami matematycznymi. Niedostatek umiejętności wśród załóg przedsiębiorstw będzie prowadził do prac nad rozwojem jednolitych platform dostepu do danych, które będą pozwalać nawet mniej obeznanym osobom na przeprowadzanie analiz na podstawie wielu źródeł – tak tradycyjnych jak i nieustrukturyzowanych. Intuicyjność jego obsługi będzie kluczem dla sukcesu rynkowego – tuż obok zaufania do jakości danych generowanych przez taki system.

Firmy, które zainwestują w rozwój infrastruktury Big Data dostaną szansę nie tylko na poprawienie działania swoich dotychczasowych linii biznesowych, ale także stworzenia nowych, opartych na nowych informacjach o trendach konsumenckich lub oferowniu dostępu do takich zbiorów innym podmiotom. Wiele firm, zwłaszcza w branżach o wielkich ilościach danych pochodzących od klientów (finanse, telekomunikacja, handel detaliczny, ochrona zdrowia, administracja państwowa) może w znaczący sposób podnieść wydajność swojej działalności i zmodyfikować procesy biznesowe, bazując na trendach uzyskanych z repozytoriów Big Data.

W kontekście samego rynku IT, w najbliższym czasie możemy spodziewać się kolejnej fali przejęć. W latach 2006-2007 producenci narzędzi BI Cognos, Business Objects i Hyperion zostali kupieni przez wielkich dostawców rozwiązań IT – odpowiednio: IBM, SAP i Oracle. Podobne zjawisko może nastąpić już wkrótce – obiektami przejęć będą firmy, które zademonstrują innowacyjne mechanizmy powiązane z Big Data, staną się liderami swoich rynków i wykażą się dobrą dynamiką przychodów. Klienci takich firm będą poszukiwali rozwiązań, które przybliżą ich do ideału analiz w czasie rzeczywistym. Zainteresowanie będzie ukierunkowane na oprogramowanie umożliwiające monitorowanie, powiadamianie, analizę i inteligentną automatyke procesów. Jednocześnie kontynuowana będzie presja na dostawców serwerów, pamięci masowych i urządzeń – klienci będą oczekiwali dalszego spadku cen przy jednoczesnej poprawie wydajności tak, aby być w stanie analizować coraz szybciej i coraz lepiej. Wielu użytkowników systemów Business Intelligence twierdzi, że powodują one w organizacji coraz większy „głód danych” – wśród użytkowników pojawia się coraz więcej potrzeb na coraz bardziej skomplikowane raporty i analizy. W przypadku  Big Data zjawisko to zapewne ulegnie znacznemu nasileniu. Systemy Business Intelligence wciąż będą w firmach potrzebne – zaryzykuję stwierdzenie, że będzie ich coraz więcej, zarówno pod względem ilości firm jak i procentu pracowników mających do nich dostęp. Jednak prawdziwa transformacja biznesu będzie wynikała z właściwego wykorzystania możliwości, jakie daje nam Big Data.

W niniejszym artykule wykorzystany został raport IDC „IDC’s Worldwide Big Data Taxonomy, 2011”, October 2011, IDC#231099. W celu uzyskania dostępu do tego raportu i innych z zakresu Business Intelligence, Big Data i analityki biznesowej prosimy o kontakt z Pawłem Olechowskim, Account Managerem IDC Polska (polechowski@idc.com, +48 22 548 40 53).

 W lutym 2014 r. opublikujemy aktualny raport na temat Business Intelligence. Tomasz Słoniewski z IDC przygotuje kolejną analizę rynku. Poprzednią naszą publikację o BI można pobrać na naszym portalu.

Wszelkie prawa zastrzeżone