Mágia a Big Data mögött

Mágia a Big Data mögött

Mágia a Big Data mögött

még több IoT

2 perc

Az IoT-fejlesztések többnyire adatgyűjtő, adatelemző és a mérések alapján feladat-végrehajtó részekből állnak. Az adatgyűjtés és a végrehajtott feladat kapcsolata tisztának látszik, de az információk elemzése mintha varázslat lenne.

Bob O’Donnell, a Technalysis Research alapítója és főelemzője véleménycikkben fejtette ki gondolatait az IoT és az adatelemzés kapcsolatairól a re/code online magazinban. Szerinte az adatelemzés sokkal fontosabb eleme a gépek közti kommunikáció (M2M) által lehetővé tett fejlesztéseknek, mint ahogy ma elképzelik. Ezzel együtt arra is felhívja a figyelmet, hogy sok esetben viszont túlzott elvárásaik vannak a cégeknek a tömeges adatelemzéssel kapcsolatban.

A Nagy Adat bűvöletében

A Big Data az egyik legdivatosabb kifejezés az informatikában már lassan öt-tíz éve, és várható, hogy még a következő évtizedben is ugyanennyire meghatározó lesz. Az egész IoT-hullám (Internet of Things – Dolgok Internete) is mondhatni, hogy a Nagy Adat farvizén jött létre, és szorosan összekapcsolódik a két terület.

A tömeges adatelemzés alapvetése, hogy megfelelően nagyméretű mintán összegyűjtve az adatokat részletes és pontos kiértékeléseket lehet készíteni gyakorlatilag bármiről. Például, ha egy webshop az oldalra látogatók minden egyes kattintását és minden egyéb demográfiai jelzőjét nyomon követi, akkor már az oldalra érkezésnél fel tudja ajánlani a felhasználó számára ideális termékeket. Ezen az elven jött létre az Amazon, de hasonló gondolat áll a Google, a Spotify vagy a Netflix algoritmusai mögött is.

A Dolgok Internete ezt a részletes és nagyméretű adatkinyerést két szempontból is megújítja. Egyfelől segít a rengeteg apró eszköz által még több adatot összegyűjteni, másfelől segít konkrét feladatokat, szolgáltatásokat valóra váltani az összegyűjtött információk segítségével.

Mágikus fekete dobozok

A probléma O’Donnell szerint abban rejlik, hogy nagyon sok IoT-fejlesztő az adatelemzést egyfajta fekete dobozként fogja fel. Az egyik felén bemegy az adat, a másik felén pedig kijön az elmélet: elég bedobálni a vásárlási szokásokat és a demográfiai adatokat, a gép pedig kiköpi az ideális terméket.

Prediktív elemzés a mindennapokban

Ez még nagyjából igaz is lehetne, de a fejlesztők túlértékelik az adatelemzés nyújtotta lehetőségeket, például azt hiszik, hogy a végtelenségig felhasználhatóak az adatok. Igaz, jóval könnyebben megfejthetőek újabb összefüggések a gyárak működéséről, a felhasználói szokásokról, vagy újabb megfigyelések tehetőek az állatok viselkedésével kapcsolatban. Ezek alapján további hatékonyságnövelő lépéseket tehet az adott cég, de eljuthat egy pontra, ahol már hiába lesz több adat, csak minimálisan tökéletesíthető az eredmény.

Kis Adat – a felhasználó szintű begyűjtés

A másik fontos megállapítás, hogy rengeteg esetben felesleges a Nagy Adattal foglalkozni. Kétségtelen, hogy számtalan területen hasznos és jól működik a nagy mennyiségű adatelemzés, de ellenpélda is bőven akad, amikor elég a kisebb minta feldolgozása is.

O’Donnell szerint nem szabad, hogy a hozzá nem értés ahhoz vezessen, hogy feleslegesen túl sokat költsön a cég az adatgyűjtőkre, adatfarmokra és elemzőkre.

Az elvárások kordában tartása

A szakértő összességében nem azt kívánja kifejteni, hogy az IoT eredendően rosszul kezelné az adatelemzést. Szerinte az a helyes irány, ha a Dolgok Internetének eszközeiben ugyanakkora a hangsúly az adat gyűjtése, kiértékelése és a végrehajtott szolgáltatás között.

5 tévhit a Big Datáról

Fontos, hogy kordában tartsák a cégek az elvárásokat az adatelemzéssel kapcsolatban, tudják, mit várhatnak el ettől a területtől. Nem szabad, hogy varázserőként tekintsenek a Big Datára, és értéktelennek gondolják, ha egy adott szituációban nem tud segíteni.