Category

Tech Trends

Ötcsillagos IT-innovációk az öt karika világában

By | Artificial Intelligence, Data Science, Tech Trends | No Comments

Az újkori nyári olimpiák történetének talán legkülönlegesebb világjátékán vagyunk túl. Tokió rengeteg izgalmat és megannyi, eddig soha nem látott újdonságot hozott. Eleve szokatlan volt, hogy a pandémia miatt 2021-ben rendezték meg a nevében a 2020-at változatlanul hordozó versenyt, az olimpiához kapcsolódó számok sorában azonban korántsem ez a legnagyobb érdekesség. Ilyen volt az olimpia IT-s szemmel…

Cégünk, a United Consult munkatársai nem csupán a remek magyar sikerek – a hat arany-, a hét ezüst- és a hét bronzérem – miatt figyelték izgatottan a világ talán leginnovatívabb országában, Japánban zajló olimpiát, hanem mert az IT-szféra elképesztő mértékű fejlődése bizony a sportra is óriási hatással van, ez pedig Magyarország egyik vezető informatikai vállalataként természetesen minket sem hagy hidegen. Kollégáink szakmai érdeklődése ezúttal főként a bigdata-terület és a mesterséges intelligencia (AI) sportba integrált újdonságai felé irányult, melyekről például az amerikai-indiai szakportál, az Analytics Insight is beszámolt a napokban. Lássuk tehát, milyen szenzációkkal szolgált Tokió az IT világában!

A stopperórától a mesterséges intelligenciáig

„Ez volt az az olimpia, ahol a mesterséges intelligencia immár érezhetően megváltoztatta az IT sportban betöltött szerepét és jelentőségét” – hangsúlyozza Adilin Beatrice szakíró cikkében. Mint fogalmaz, a sport világában már évtizedek óta jelen van az informatika; ez, valamint a – részben a pandémia miatt – berobbanó digitalizáció pedig rendkívül erős alapot teremtett a mesterséges intelligencia térnyeréséhez. (A sport és az AI kapcsolatáról egyébként már korábbi, a Premier League 21. századi IT-vonatkozásait taglaló cikkükben is írtak nemrég.)

Persze a történet egyáltalán nem most, a tokiói olimpián kezdődött, hanem hosszú évekre, sőt évtizedekre nyúlik vissza, lényegében egyfajta IT-evolúciós folyamatként érdemes vizsgálni azt. A sportolók és edzőik régóta dolgoznak saját és konkurenseik statisztikái alapján, az egyre komplexebb adatbázisok kezelése és elemzése azonban komoly erőforrásigényekkel bír. A haladó szellemű, innovatív sportolók és menedzsereik régóta nyitottan tekintenek a mesterséges intelligencia alkalmazására mindennapi munkájuk során. A technológia ugyanis nem csupán a sporttal kapcsolatos stratégiai döntések meghozását segíti elő, hanem az egyéni teljesítmény fokozására, sőt akár egy-egy mozdulatsor finomhangolására is alkalmas.

A technológia beszivárgása nem újkeletű, lényegében már az első stopperórák megjelenésével elkezdődött – tekint vissza a cikk szerzője, majd hozzáteszi: az első lényeges áttörést 1948 jelentette, amikor elkezdték használni az Omega fantasztikus innovációját, a célfotók készítésére alkalmas fényképezőgépet. Mára a fejlődés egészen odáig jutott, hogy az AI alkalmazása teljesen elfogadott, sőt bizonyos sportágak esetében már-már általános volt Tokióban, s ez új színt, új élményeket vitt az olimpiába mind a résztvevők, mind pedig a nézők számára.

Az AI mindennapi haszna az olimpián

A mindkét területet jól ismerő sport- és IT-szakemberek szerint nem kérdés, hogy az adattudomány és a mesterséges intelligencia rövid időn belül forradalmasítja a sportipart. Lényegében ez a folyamat már el is kezdődött, szemtanúi lehettünk Japánban is. Mielőtt azonban rátérne erre, az idézett cikk szerzője néhány olyan gyakorlatias példát is említ, mely egy olyan komplex, nagy volumenű rendezvény megszervezéséhez szükséges, mint a tokiói olimpia volt. A fejlett IT-szolgáltatások (köztük az AI) segítséget nyújtottak egyebek mellett abban, hogy a világ megannyi országából érkező sportolókat szervezett körülmények között helyezhessék el, szolgálhassák ki az olimpiai faluban, hogy a résztvevők (a sportolók mellett a delegációk más tagjai, a versenybírók, a média képviselői stb.) probléma nélkül mozoghassanak a repülőtér, az olimpiai falu és a versenyek helyszínei között a világ egyik legzsúfoltabb városában.

Világszerte egyre több hír terjed az önvezető járművekről, azonban a japánoknak köszönhetően az elmúlt hetekben az eddig lényegében futurisztikusnak tűnő elképzelések a szemünk láttára váltak valósággá.

Az autonóm működő, olimpiai járművek praktikus megoldást jelentettek a mobilitási problémák kezelésére a világjátékok alatt. A részben gépi tanuláson alapuló önvezető autók ráadásul nem csupán a sportolók szállításában játszottak komoly szerepet, hanem a sporteszközöket – például gerelyeket, diszkoszokat és dobókalapácsokat is – ezek szállították az egyes helyszínek között.

A mesterséges intelligencia fontos alkalmazási területe volt a kommunikáció is, hiszen az olimpiát lebonyolítani – különösen egy olyan, nyelvileg zárt környezetben, mint Japán – hasonlóan nagy kihívás, mint megszervezni Bábel tornyának építését. A világ több mint kétszáz nemzete több mint százféleképpen beszél, az AI pedig egyszerű átjárást biztosított ezek között még a leggyakoribb idegennyelvek ismerete nélkül is. Sokan talán nem is tudják, de a tokiói olimpián mesterséges intelligenciával támogatott valós idejű fordítási rendszereket használtak, hogy a különböző országokból érkező emberek megértsék az utasításokat. A kifejezetten az ötkarikás rendezvényre fejlesztett nyelvi alkalmazás okostelefonokra vagy más kompatibilis eszközökre volt telepítve, és valós időben tolmácsolt a résztvevők között. A mesterséges intelligenciát a legkülönbözőbb nyomkövető eszközökben, a felhőalapú sugárzás támogatására, a robotasszisztensek használata során és az 5G-vel összefüggésben is használták az elmúlt hetekben Tokióban.

Mesterséges (sport)intelligencia

Ha tovább lépünk a szervezést és az infrastruktúrát érintő előnyökön, a tokiói példákat látva megállapíthatjuk azt is: a mesterséges intelligencia alkalmazása fontos áttörést jelent a sport világában. Évtizedek óta úgy tűnik ugyanis, hogy bizonyos sportágakban a versenyzők már

elérték az emberi teljesítőképesség határait, ezt jelzi az is, hogy ma már egyre ritkábban dőlnek meg olimpiai és világrekordok. A kétes eredetű, hatású és legalitású teljesítményfokozó szerek és módszerek után végre megérkezett a mesterséges intelligencia, mely az emberi mozdulatok tökéletesítése, finomhangolása révén újra lehetővé teszi, hogy a sportolók túltegyenek a nagy elődökön és csúcsokat dönthessenek. Persze ideális esetben nem csupán az eredmény számít, hanem az is, hogy a sikerek eléréséért egy-egy versenyző ne fizessen a saját egészségével. Az AI a túlhajszoltság elkerülésében, az edzésmunka optimalizálásában is segíthet, s ezzel akár a komoly sérülések vagy éppen a tragédiák is elkerülhetők.

Most lássunk néhány konkrét példát az AI használatára Tokióból!

Adilin Beatrice, az idézett cikk szerzője úgy fogalmaz, hogy a big data drasztikus szerepet játszik a sportolók teljesítményének javításában, példaként pedig a szörfözést említi. Az Egyesült Államok nemzeti szörfszövetsége rengeteg bigdata-módszert alkalmazott az elmúlt években azért, hogy segítsen sportolóinak előnyt szerezni versenytársaikkal szemben. Egyfelől saját teljesítményeiket, másfelől pedig a konkurensek eredményeit is folyamatosan elemezték, de a sportolók fiziológiai állapotának figyelemmel kísérésére is használták, beleértve a kardiovaszkuláris teljesítményt, az alvási szokásokat vagy éppen a pulzusszám változását.

Itt van egy másik innováció is. Az Intel és az Alibaba közösen készítette el a 3DAT (3D Athlete Tracking) névre keresztelt rendszerét, mely képes arra, hogy szorosan figyelemmel kísérje a sportolók mozdulatait, az adatokból pedig megfelelő, a teljesítmény fokozására alkalmas konzekvenciákat vonjon le. A 3DAT először az amerikai olimpiai próbákon debütált, Tokióiban pedig már élesben használták. Az AI-alapú rendszer öt speciális pályamenti kamerától kap vizuális adatokat, majd elküldi a felhőbe, ahol a képeket releváns, elemezhető információcsomagokká alakítják.

Végül pedig egy érdekesség, mely tökéletesen szimbolizálja az AI és a sport kapcsolatát. A Toyota mesterséges intelligenciájú humanoid kosárlabdázója a maga nemében egy igazi legenda. A robot történelmet írt 2019-ben, amikor a Guinness-világrekordot érte el „a humanoid robot által elvégzett, egymást követő legtöbb sikeres kosárlabdadobás” kategóriában. A robot Tokióban is szerepet kapott: minden reklámszünetben megmutatta dobótudását, mely az AI révén egyre csak fejlődik.

Forrás: Analytics Insight

Mikor lassít az önvezető autó a zöldségesnél?

By | Big Data News, Data Science, Tech Trends | No Comments

Tudod, mi a különbség a sarki zöldséges és a képelemző algoritmus között? Az egyik kilóban, a másik pedig pixelekben méri a dinnyét. És mi a hasonlóság? Mindkettő úgy szereti, ha minél pirosabb belülről a gyümölcs. A poén persze komolytalan, a téma viszont nagyon is komoly – mutatjuk, hogyan került képbe a dinnye!

A 2010-es évek talán leglátványosabb technológiai vívmányai az önvezető autók, illetve a kép- és arcfelismerő rendszerek. Lassan egy évtizede sorra jelennek meg cikkek, tévériportok, blogbejegyzések a témában, melyekkel nem csupán az IT-szakma, de a laikus átlagember is gyakran találkozik, így viszonylag tájékozott lehet a felhasználással kapcsolatban. Azt azonban ma is kevesen tudják, hogyan is működnek ezek a rendszerek, miként „foghatja fel” egy gép, hogy mit is lát az elé táruló élő képeken vagy éppen fotókon.

E bejegyzésünkben segítünk kicsit megérteni, hogy milyen alapelvek szerint működik a képfeldolgozás, és hogy hogyan találnak meg egy-egy objektumot az algoritmusok a hatalmas pixelrengetegben. Ebben segített egy OpenCV (Open Source Computer Vision) csomag, mely bárki számára elérhető. A cikkben az alapfogalmak tisztázását követően bemutatunk két eljárást, ami segíthet a számítógép számára különböző objektumokat megtalálni, akár azonos képeken, akár teljesen más forrásból származó fotók esetében.

Kezdjük az alapoktól!

A kép képpontok, azaz a pixelek összessége,  amelyek egy mátrixba csoportosulnak, és vizuálisan felismerhető, értelmezhető alakzatokat jelenítenek meg. Ezen mátrixok nagyságát befolyásolja a kép szélessége és magassága, a rétegeit pedig a színrendszer határozza meg. A fontosabb színskálák az úgynevezett rgb, hsv, hls, luv és a yiq. A továbbiakban az rgb, tehát a red, green és blue színrendszer alkalmazásával bontjuk elemeire a képeket. Az rgb rendszer esetén a kép mátrix-összetétel a következő: a mátrix magassága, a szélessége és a színrétegek száma, ami jelen rendszer mellett három. A rétegek elemei 0-tól 255-ig terjedő egész értékű számok. Fekete-fehér kép esetén a 0 a teljesen sötét, míg a 255 a fehér árnyalatot jelenti, és hasonlóan oszlik el az rgb színskálán is: a piros árnyalat esetén például a 0 a fekete, míg a nagyobb értékek a piros erősségét írja le.

Az önvezető autók működésének alapjául szolgáló, komplex képfelismerő rendszerek képesek arra, hogy azonosítsák a különböző tereptárgyakat, a járműveket, a gyalogosokat, a jelzőtáblákat és útburkolati jeleket, hogy felismerjék a jelzőlámpák fényeit. Mi azonban kezdjük az alapoktól, az alábbi dinnyés fotóval szemléltetve a rendszer működését.

Ahogyan a példaképeken – vagyis a dinnyeszeleteken – is látszik, az első kép az eredeti, ami az összes színréteget tartalmazza, ezt követi a piros, a zöld és a kék árnyalatok kiemelése. Jól látszik, hogy a kép dimenziói nem változtak, azonban például a piros esetén a többi réteg elemei nulla értéket kaptak, azaz teljesen feketévé váltak, így a maradék réteggel megjeleníthetővé vált a kiválasztott piros réteg. Természetesen azonos módszerrel jeleníthetők meg a kék és a zöld árnyalatok is.

A cikkben kétféle objektum keresési eljárást fogok ismertetni, az úgynevezett template matching és a feature matching eljárásokat.

Template matching, avagy objektumillesztés

A legegyszerűbb objektumkeresési eljárások közé tartozik, hiszen a teljes kép egy kis részlete a keresett alakzat a képen, tehát a kicsi lényegében része a nagy képnek.

Ebben az esetben elegendő a kis és a nagy kép pixeleinek az összeegyeztetése, amihez többfajta műveletet is alkalmazhatunk, azonban a legismertebbek a következők:

  • két különböző kép pixeleinek vagy pixel csoportjai közötti korrelációs vizsgálat (lineáris kapcsolatot leíró metrika, mely értéke -1 és 1 között található, ahol az 1 az erős azonos irányú, -1 az erős ellentétes irányú és a 0 érték pedig a kapcsolat meg nem létét írja le),
  • differenciálszámítás a két kép pixel csoportjai között, ahol a hiba 0, ott lesz a teljes egyezés.

A következő képsor a folyamat lépéseit tartalmazza, aminek az első eleme a teljes kép, amiből származik a második kép, amit egyben szeretnénk is megtalálni a teljes képen. A harmadik kép egy korrelációs kép, ami egy részlet a teljes képből. Ezen jól látható, hogy kék színnel mutatja, ahol nincs pixelegyezés a nagy és a kis kép között, azonban a sárgával jelzett részen megvan a teljes egyezés. Az utolsó kép pedig a találat eredményét jeleníti meg immáron egy piros kerettel jelezve a kis kép helyzetét a teljes képen.

A bemutatott egyszerűbb módszertan alkalmazása több helyzetben is elegendő lehet, például akkor, amikor tudjuk, hogy a vizsgált képsokaságokon vannak pontok, melyek mindig állandók, és ezen objektumok mellett következhet be változás, így az állandó alakzatok helyzetéből meghatározható és feldolgozható az újdonság a képeken. Ezzel szemben indikátorként is alkalmazható, ha tudjuk, hogy egy képen csak egyetlen mátrixban történhet változás, és ennek a meg nem találása jelenti a változás megtörténtét.

Feature Matching, avagy sablonillesztés

A template matching esetén a hasonló pixelek feltárásánál nem volt szükség a kép előkészítésére, azonban ha a keresett kép nem része az eredetinek, hanem teljesen más forrásból származik, akkor ki kell emelni a különböző tulajdonságokat. Ezek segítségével az algoritmusok könnyebben találják meg a hasonló egységeket a képeken. Ilyen előkészítések lehetnek a következők:

  • a gray scaling, avagy szürke skála, aminek a segítségével meghatározhatjuk a színárnyalatok fokozatait. Ebben az esetben a kép fekete, fehér és szürke színeket tartalmaz és csupán egy réteget, nem pedig hármat, mint az rgb színrendszer esetén,
  • blurring, smoothing: zaj eltávolítása, egy előre definiált, pár képpont nagyságú mátrix mentén a teljes képen hajt végre képpontátlagolást → ennek következtében a megkapjuk azokat a képrészleteket, ahol a legnagyobb fényváltozások fellelhetők a képen. Fontos figyelni, hogy ennek következtében a kép veszít élességéből így ezt figyelembe tartva kell meghatározni ezeknek a beavatkozásoknak a súlyát.
A feature matching különböző algoritmusok összessége, amelyek együttes alkalmazásával képes megtalálni két különböző, azonban hasonló kép közötti hasonló egységeket. Ezekben a következő algoritmusok segítenek (a lista nem teljes):
  • edge detection, avagy az élek feltárása: alapvető fontossága van, hiszen a képek nagy részletességgel bírhatnak, így ennek a csökkentésére szolgál az algoritmus, aminek segítségével egyszerűbbé válik a képfeldolgozás a számunkra is fontos élek feltárásával.
  • contour detection, avagy a kontúrvonalak megtalálása: segít meghatározni egyes tárgyak formáját, kiterjedését, segítve az elválasztást a többi tárgytól.

A feature matching alkalmazása két pontból tevődik össze. Először is a korábbiakban felsorolt eszközök segítségével feltárja mindkét kép esetében a kulcsfontosságú részeket a képeken. Ezek lehetnek a különböző élek, kontúrok. Ezt követően a két kép esetén meghatározott kulcsfontosságú elemeket hasonlítja össze és rögzíti az összes egyezést. Mivel mindkét kép esetén több kulcsfontosságú elemet is vizsgál, így több esetben is előfordulhat, hogy lehetnek rosszabb és jobb egyezések is a két kép esetén. Tanácsos a folyamatot követően csak a legjobb egyezéseket kiválasztani.

A fent látható képeken megtörtént a feljebb említett szürke skálázás és a pixelek átlagolása. Az összeegyeztetés sikeresnek mondható, hiszen mind a mag, mind a héj esetében megtalálta az egyezéseket még akkor is, ha a képek teljesen más paraméterekkel rendelkeznek, és más körülmények között készítették azokat.

Az önvezető autók persze sokkal bonyolultabb és szofisztikáltabb rendszereket használnak, azonban az alapjai ezekből a folyamatokból tevődnek össze. Ezen alkalmazások segítségével képes meghatározni a sávokat, klasszifikációval a felismert táblákat és más alapvető funkciók összességét, ami a biztonságos vezetéshez szükséges. Talán egyszer majd az útszéli dinnyeárusnál is megáll, ha egy mézédes görögre vágyik a sofőr – azt ugyanis már tudjuk, hogy a dinnye felismerésére is képes a technológia.

CDP Proof Of Concept a MOL-nál – Projekt referencia

By | Big Data News, Business, Cloudera, Tech Trends | No Comments

A CDH (Cloudera Distribution Hadoop) egyik első magyarországi felhasználója a MOL csoport volt.

A MOL 2020 Q1 folyamán egy rövid, 3 hónapos POC projekt keretében azzal bízta meg a United Consult-ot, hogy tesztelje az új CDP (Cloudera Data Platform) platformot, integrálja azt a Cloud szolgáltató rendszeréhez és végezzen hatásvizsgálatot a CDP nagyvállalati környezetben történő használatóságra. Ezen túl pedig készítsen költség-kalkulációkat a lehetséges megoldások összehasonlítása érdekében.

A projekt keretében elkészítettünk egy közel 60 oldalas megvalósíthatósági tanulmányt, amely részletesen elemzi, hogy a Cloudera milyen infrastruktúrális alternatívákban telepíthető, legyen az on-premise, felhő, vagy hibrid megoldás. Az alternatívákat kiértékeltük és összehasonlítottuk olyan nagyvállalati igények mentén mint pl. skálázhatóság, biztonság, üzemeltetési elvárások, machine learning képességek, várható költségek, stb.

Ezt követően egy Proof of Concept projekt keretében alaposan megvizsgáltuk a Cloudera legújabb termékét a Cloudera Data Platformot (CDP). Megvalósítottuk a CDP – Active Directory integrációját, összekapcsoltuk a CDP-t a vállalat Azure környezetével, és üzembe helyeztük a CDP management konzolt. Számos use case megvalósításával megbizonyosodtunk róla, hogy a CDP alkalmazásával gyorsan és rugalmasan akár órák vagy percek alatt vagyunk képesek feldolgozási clustereket létrehozni, amelyek elérik a felhőben tárolt adatokat és hatékonyan összekapcsolhatóak más feldolgozó eszközökkel is mint pl. a PowerBI.

A projekt során performancia teszteket végeztünk, amely segítségével összemérhetőek a különböző méretű klaszterek feldolgozási képességei és költségszintjei.

A POC projekt során kollégáink (fejlesztés, üzemeltetés, IT security) értékes tapasztalatokat szereztek a CDP platform használatával járó előnyökről. A MOL meggyőződött róla, hogy a CDP enterprise data platform megfelelő irány lehet a jövőben a nagy mennyiségű adatfeldolgozás terén.” — Ott Károly, Innovation Manager, MOL Group

2020. 07. 23-án vállalati adatmanagement témakörben tartunk webinart , ahol bemutatjuk a MOL projekt során használt Cloudera Data Platform-ot. Többek között megvizsgáljuk azokat a problémákat és megoldásokat, amik manapság meghatározzák az adat-management legfontosabb elemeit.

Beszélünk azokról az üzleti kihívásokról, amelyekkel nap mint nap találkozhatunk, veszélyeztetik a vállalat fejlődését, a növekedés, és a hatékony teljesítmény útjában állnak. Bemutatjuk, hogy a CDP milyen módon képes támogatni a vállalati adat-management-et, és hogyan inthetünk búcsút játszi könnyedséggel a bemutatott problémáknak. Továbbá egy use-case-en keresztül betekintést nyújtunk abba, hogy hogy viselkedik a CDP éles akció közben.

Ha szeretne részt venni a webinaron, az alábbi linken jelentkezhet Ön is:
https://thebigdataplatform.hu/cdp-adat-management-webinar/

Kritikus sikertényezők: üzleti villámcsapások a hibrid felhők világában

By | Big Data News, Business, Cloudera, Tech Trends | No Comments

A cégeknek sosem volt annyi lehetőségük a rendelkezésükre álló adatot a saját előnyükre fordítani, mint napjainkban. De vajon élnek is ezzel a lehetőséggel? Van kidolgozott adatstratégiájuk? Egyáltalán hol állnak most és, hogyan látják a jövőt? Ezekre a kérdésekre kereste a választ a Harvard Business Review nevű menedzsment magazin a Cloudera felkérésére nemrég.

A Harvard Business Review Analytic Services felmérése olyan kritikus pontokra mutat rá, amelyek veszélyeztetik a vállalat fejlődését, és a növekedés, illetve a teljesítmény útjában állnak. A probléma általában abból fakad, hogy a vállalati IT-szempontok egyszerűen nem egyeznek meg az üzleti igényekkel, és a felhasználók fontosabbnak tartják a gyorsaságot a biztonsággal, a pontossággal és a maximális üzleti hatékonysággal szemben.

A felmérés 2019 végén készült mintegy 185 vezető pozícióban álló szakember bevonásával. A szakértők diverzitása több értelemben is magas. A szervezetek mérete – ahol a megkérdezettek dolgoznak – a száz főnél kisebb létszámtól egészen a tízezer fős cégóriásokig terjed, a cégek pedig lefedik a tech, a banki, a consulting és az ipari szektorokat is. A világ négy földrészéről érkeztek vissza kitöltött kérdőívek a kutatás szervezőihez.

Az eredményekből kiderült, hogy a megkérdezettek majd’ háromnegyede (73%) egyetért abban, hogy az adatforrások kulcsszerepet játszhatnak az üzleti érték megteremtésében, és több mint felük (51%) tervezi ezt multi-cloud segítségével megvalósítani.

A statisztikák alapján csupán a megkérdezett cégek 24%-a használ már jelenleg is multi-cloud megoldásokat, ami kevesebb, mint a technológiát használni kívánók fele. Természetesen a saját üzemeltetésű infrastruktúrának is van létjogosultsága, hiszen nem minden adatot szeretnénk kiadni a kezünkből. Ráadásul vannak különböző korlátozások, melyek egyenesen tiltják, hogy bizonyos adatok elhagyják az országot. Egyetlen felhőszolgáltatóval való együttműködés esetén fennállhat a vendor lock-in jelenség. Ez azt jelenti, hogy egy szervezet annyira függ egy felhőszolgáltatótól, hogy jelentős költségek nélkül képtelen másik szolgáltatóra váltani. Ez a kutatás szerint a cégek mintegy 21%-át fenyegeti.

Ahogyan a válaszadók szervezetei kezelik az adatokat:

multi-cloud kutatás

Az adatok tárolása mellett a másik fontos kérdés az adatfeldolgozás állapota volt. Mint kiderült, a cégek a keletkező adatok nagy részét eltárolják, de többnyire csak utólag dolgozzák fel azokat.

A cégek alig több mint ötöde rendelkezik stream-feldolgozó képességekkel és képes ezen beérkező adatok alapján valós idejű döntéseket hozni. Ez üzleti előnyhöz juttatja ezeket a cégeket a versenytársaikkal szemben, hiszen lehetőségük van valós időben ajánlatot adni a felhasználók viselkedése alapján, vagy akár valós idejű diagnosztikát is végezhetnek eszközeiken.

 

A kutatás azt is vizsgálta, hogy a szakemberek miként látják a jövőt. Az űrlapon megfogalmazott kérdés arra vonatkozott, hogy az adatelemző szervezetek mely módszereket használják most, és melyeket tervezik használni az elkövetkező három évben.

Amiket az adatelemző szervezetek bővíteni/fejleszteni terveznek az elkövetkező három évben
(összehasonlítva a jelenleg alkalmazott elemző technológiákkal)

A megkérdezett cégek szerint a hagyományos, riportok készítésére használt üzleti intelligencia és az adattárházak szerepe csökken, és a különböző, valóban intelligens feldolgozó módszerek kerülnek előtérbe. Ilyenen például a gépi tanulás módszerei, a mesterségesintelligencia-fejlesztések és az intelligens automatizációs megoldások. Ezeken a területeken 60%-os növekedést érhető el belátható időn belül a kérdőív kitöltői szerint.

A tapasztalatokat összegezve megállapítható, hogy a cégek több mint fele szeretne a multi-cloud alapú megoldások felé mozdulni, de csak a szervezetek 34%-a rendelkezik ehhez szükséges adatmenedzsment-stratégiával, és a felhőbe költözés számos egyéb nehézséget is rejt magában.

A kitöltők szerint jelentős feladat, hogy a muli-cloud környezetekben a biztonsági és governance szabályokat többszörösen kell implementálni más és más eszközökkel, hiszen a felhőinfrastruktúra használatával plusz támadási felületet biztosítunk. Úgy vélik, problémát okoz az is, hogy a jelenleg használt „legacy” alkalmazások nem felhőkompatibilisek, és egy nem felhőre optimalizált alkalmazás felhőben való futtatása jelentősen drágább lehet, mint a saját infrastruktúrán.

 

Ajánljuk figyelmébe a CDP vállalati adatmenedzsment-platformot, mely jelentősen megkönnyíti bigdata megoldások hibrid vagy multi-cloud környezetekben történő kialakítását.

Kérjük töltse ki az űrlapot a teljes angol nyelvű tanulmányhoz!

 

Ipar 4.0 Big Data-s szemmel

By | Tech Trends | No Comments

Első céges gyárlátogatásom az Ipar 4.0 buzzword köré fűződött egy budapesti „mintagyárban”. Ez a vállalat a gyártás mellett egyben jó példával is szolgál a feltörekvő cégek számára. Ennek kapcsán mutatták be megoldásaikat egy, körülbelül háromórás kiselőadás és körbevezetés során.

Íme, így működnek már a magyar fővárosban is az ipar jövőbe mutató megoldásai…

A lokációt szemmel láthatóan jó nagy alapterületű gyárak csarnokai töltik meg. Bár a tömegközlekedést tízperces, GPS-es gyaloglással kombinálva viszonylag könnyen megközelíthető a helyszín, azért az autó használata erősen javallott. A portán és recepción túljutva az emeleti tárgyalóban, az U-alakban elhelyezett tárgyalóasztalok mögött megtekinthetőek a mérőeszközökkel felszerelt, asztalszerű szerelőpadok, mindenféle kapcsolóval, monitorral, oldalt fémdobozokra erősített villanymotorokkal és szelepekkel, a sarokban 3D-nyomtatónak tűnő objektumok és egy-két jól felismerhető kompresszor.

A kezdetben fafeldolgozásra, majd pneumatikára szakosodott cég láthatóan nagyon komolyan veszi a gyártást. Magyarországon a második legnagyobb európai gyárkapacitással rendelkeznek, ezen belül gyártás és gyártmányfejlesztés, terméktervezés, logisztika és értékesítés is zajlik itt. A gyártás mellett ez a gyártóközpont egyben kompetenciaközpontként is szolgál, úgy tűnik, elég komolyan veszik az oktatást is, ami persze el is várható egy közel 100 milliós beruházástól.

Optimalizált folyamatok

A cég az úgynevezett „pull” gyártási filozófiát igyekszik követni, amely nagyvonalakban annyit tesz, hogy a középpontba az ügyfél és annak egyedi igényei kerülnek. Így a megrendeléstől a gyártáson át a kiszállításig minden ezek köré szerveződik, így a teljes értékáram húzza magával a termelést. Mindez a megrendelési variabilitás növekedésének a következménye, ahol a gyárnak egy 30 ezres cikkszámú katalógusból történő, havi szinten 70 ezres nagyságrendű megrendelést átlagosan három rendelési mennyiséggel kell tudni kielégíteni úgy, hogy a megrendeléstől számított 24 órán belül már szállítás alatt kell lennie a legyártott terméknek.

Emellett a cég törekszik arra is, hogy a lehető legkevesebb komponens, legyártott termék, alapanyag legyen raktáron, ezzel csökkentve a tárolási költségeket. Ennek szellemében nincs is késztermékraktár és az alapanyagraktár is minimális. Az egyes gyártási folyamatokat analizálják, és folyamatoptimalizációval igyekeznek

  • minimalizálni a fölösleges fázisokat,
  • csökkenteni a szükséges, de nem értékteremtő lépéseket (ilyen például a ragasztás szárítási ideje),
  • és persze maximalizálni az értékteremtő szakaszokat.

Informatika a fejlődés szolgálatában

A cég folyamatosan vizsgálja annak lehetőségét, hogyan lehet a mindennapi informatikát beépíteni a gyártási folyamatokba, ezáltal egyszerűsítve és optimalizálva annak lépéseit. Itt jön képbe a mobilitás, a gyártási adatokból származó információk ügyfélrendszerekbe történő integrálása. Ilyen például az automatikus rendelés a folyamatos feltöltéshez a minimum- és maximumszintek biztosításával, ha valamely fontos alapanyag éppen kifogyóban van.

Bár a manuális lépések – például a 12 hetes termeléstervezés – még az egyes folyamatok részeit képezik, a meglevő folyamatokból származó információk visszacsatolása már nagyon sok szinten beépült a gyár mindennapi életébe. Szinte mindenről valós időben tájékoztatást kapnak a felelősök; real time ismerik a készletinformációkat és a megrendelések állapotát, illetve azonnal értesülnek a meghibásodásokról is. Ahol csak lehetséges, ezt segítő módszereket (Lean, Kanban stb.) alkalmaznak.

Gyakorlatias technológiahasználat

Mivel a gyártócsarnokban folyamatos az erős háttérzaj, nagyon jól jött a fülre erősíthető rádióvevő, melyen keresztül narráció kísérte a körbevezetést. A csoportot az előadó vezette, miközben egy másik személy hátulról biztosította, hogy senki se „kalózkodhasson” az üzemi területen. Elsőként a minőségellenőrző állomást tekinthettük meg, majd megismertünk egy teljesen automatizált magasraktárat, ahol az egyes alkatrészeket, illetve a beszerzés során beszállított alapanyagokat tárolják. Ehhez persze automatikus kiszolgálás párosul.

Láthattuk a fémalkatrészeket megmunkáló CNC-eszközöket is; majd a fröccsöntő gépeket is, melyek apró, mérgező granulátumokból változatos műanyagformákat állítanak elő. Megnéztünk, hogyan munkálkodnak a mérnökcsapatok, amelyek az egyes munkafolyamatok optimalizálásán, illetve a gyártóeszközök fejlesztésén szorgoskodtak.

Külön részleg foglalkozott az egyes munkafolyamatok lehetséges fejlesztéseivel (Continuous Improvement). Megtudtuk, hogy ha valakinek a gyártási folyamatok javítására irányuló ötlete támad, ennek megvalósíthatóságát a gyárban használt eszközökön helyben kipróbálhatják és lemérhetik a hasznosságát, vagy akár nagyobb méretű projekt is indulhat a hatékonyság lehetséges növelésének kivizsgálására.

A második emeleti összeszerelő részlegen a magasraktár ismét nagy szerepet kapott. Láthattuk, hogy a csomagolás és szállítás során a raktárban dolgozók okoskesztyűk segítségével végzik a munkájukat. Utunkat az oktatóhelyiséggel zártuk, ahol – előre meghatározott példadarabok legyártásán keresztül – minden új alkalmazott elsajátíthatta a gyártás alapjait és megismerheti a gyártósorok működését. A cég láthatóan nagy hangsúlyt fektet az oktatási folyamat lerövidítésére; elhangzott, hogy az átlagos betanítási időt sikerült három hónapról három hétre redukálniuk.

Modulokban gondolkodnak

A gyárlátogatás során különösen tetszett, hogy a cégnél modulokban gondolkodnak. A legkisebb egységeket is igyekeznek vonalkódokkal azonosítani, hogy a megrendelőhöz jutva a gyártási és tesztelési információk azonnal elérhetővé váljanak nem csak a kész alkatrészekre, hanem azok egyes moduljaira vonatkozóan is. A gyakorlatban mindez az jelenti, hogy egy kompletten legyártott levegőelőkészítő bármely komponenséről már a gyártás megkezdésétől kezdve gyártói adatok érhetők el a megrendelők számára online.

A legtöbb helyen a termelésáram iránya optimalizált, a gyártócsarnokokat már eleve eszerint rendezték be. A karbantartók számára a nagy távolságok leküzdése céljából motorkerékpárok állnak rendelkezésre, így minimalizálva a leállási időket, melyeket az esetlegesen elromlott gépek kihasználatlan állapotban töltenek. Az operátorok munkája visszakövethető, vonalkóddal ellenőrizhető, és ahol lehet, ott a gyártási folyamat önmagát is ellenőrzi. Egy-egy univerzálisabb összeszerelő gépbe például csak a megrendeléshez tartozó présgépek illeszthetők be, minden más esetben az operátor figyelmeztetést kap. A berendezések jelentős része képes az autonóm karbantartásra akár egyetlen operátor közreműködésével is.

Szabványokhoz igazított innováció

Az infrastruktúrát főként belső fejlesztésű rendszerek alkotják, melyeket integráltak a cég cloud alapú megoldásaihoz. A gyártás folyamatát támogató eszközöket szigorúan az ipari szabványok követésével alakították ki (pl. OPC UA).

Ezzel kapcsolatban megtudtuk, hogy az ipari folyamatoknál csakis vezetékes jeltovábbítás engedélyezett, kivételt csupán a kevésbé kritikus csomagoló és szállító részlegek jelentenek, ahol WiFi-alapú megoldásokkal is találkozhattunk. A megrendeléseket egyébként prediktív becslés alapján teljesítik a valós idejű számokkal kalkulálva; ez főként a drága és nehezen tárolható alkatrészek esetében fontos.

Ipar: Adatok és optimalizáció

Adatokkal foglalkozó mérnökként érdekes volt számomra, hogy nem gyűjtenek minden apró szenzorból adatokat csak azért, hogy majd később analizálják azokat. Csakis azokat az eseményeket, státuszinformációkat tárolják, amelyekről azt gondolják, hogy optimalizációs lehetőséget rejtenek magukban. Felmerül azonban a kérdés, hogy honnan lehetnek biztosak benne, hogy ezzel a megközelítéssel nem szűrnek-e ki rejtett optimalizációs lehetőségeket.

A távlati célok és aktuális problémák terén – saját bevallásuk szerint – nem biztos, hogy a további optimalizáció lenne a legfontosabb cél (bár ennek ellenére felvásároltak egy mesterséges intelligenciával foglalkozó céget), ehelyett inkább egyszerű kapacitásnövelést kellene kivitelezni, emiatt épült egyébként új gyártócsarnok is a közelben. Igazi optimalizációt az jelentene, ha a terméktervezésbe a gyártási folyamatot is bevonnák.

A cég igyekszik új irányokat megnyitni a virtuális valóság gyártási folyamatokra történő kiterjesztésével; ez kifejezetten hasznos lehet például a veszélyes termékek gyártása során. Kutatóközpontjuk vizsgálja a bionikus eszközök fejlesztését és alkalmazhatóságát is, elsősorban az önszerveződés ipari célú felhasználása céljából.

A koncepcióból látszik, hogy az Ipar 4.0 nem egyenlő a teljeskörű automatizáltsággal (persze, hiszen automatizációt alkalmaztak már a ’70-es években is); viszont az jelentős előfeltétele a jelenlegi megoldásoknak és a jövőbeli fejlesztési irányoknak. A különböző típusú visszacsatolások beépítése a folyamatokba azonban jelentős mértékű megtakarításhoz és egyben piaci előnyhöz is juttathatja azokat a cégeket, amelyek képesek ezt megérteni és ügyesen kihasználni. A teljesen adatalapú megközelítések használata azonban még az önmagukat Ipar 4.0 kategóriába soroló cégeknél is váratnak magukra. Ha ez egyszer teljesen megvalósul, már nemcsak a gyártási folyamatokból, hanem magából a legyártott termékekből is visszacsatolást kaphatnak a gyártók. Az sem kizárt azonban, hogy a saját beszállítóik előrejelzései alapján automatikus módszerekkel is optimalizálhatják a rendelési költségeiket.

 

Ha az ipar kevésbé vonzó, tekintsd meg milyen egyéb adatokkal kapcsolatos cikkeinket:
https://datandroll.hu/2020/02/12/adatelemzes-trend-bizni-az-adatokban/

datandroll.hu/2020/03/16/megjosoljuk-hogy-megjosoljak-facebook-prophet/

Nézz körbe a Big Data szolgáltatásaink között:

https://thebigdataplatform.hu/big-data-uzleti-megoldasok/

Ha érdekel a cégünk, csapatunk, esetleg csatlakoznál, látogass el a főoldalunkra:

https://united-consult.hu/

Trendinek lenni = bízni az adatokban

By | Big Data News, Business, Data Science, Machine Learning, Tech Trends | No Comments

Az esetek többségében ismeretlen területre lép az a cégvezető, aki az adatelemzés és -vizualizációt készül integrálni a vállalkozása üzleti folyamataiba. Ahogyan azonban szakértő segítséggel – a számára szükséges mértékben – egyre jobban átlátja a rendszert, és lépésről lépésre tisztul a kép a végeredményt illetően is, úgy egyre nő a bizalom, az ügyfél pedig minden tekintetben partnerré válik.

Természetesen hosszú egy megbízás útja, amíg a csapat felállításától eljutunk a felhasználók betanításáig, illetve az új rendszer élesítéséig. Kollégáink tapasztalatai szerint – közép- és nagyvállalati környezetben – átlagosan több mint fél évet vesz igénybe, mire az előkészítésből, az üzleti megértésből, a fejlesztésből, a tesztelésből, majd az átadás/átvétellel záruló üzembe állításig eljut egy projekt. Ahogyan látszik: miként a feladat, úgy az ügyfél döntése is igen komoly, hiszen a vállalkozás mindennapjaiba, üzleti folyamataiba drasztikus változásokat hoz egy ilyen rendszer.

Miért lehet bizonytalan az ügyfél?

Fejlesztőként érdemes tisztában lenni azzal, hogy az ügyfél esetleges bizonytalansága hátterében több tényező is állhat. Az ML (machine learning) modellek egyelőre viszonylag ismeretlen terepet jelentenek a hagyományos üzleti szféra számára – különösen igaz ez a KKV szektorra –; a meglévő folyamatba egy, az üzlet számára kevésbé kontrollálható elemet engednek be; szükségessé válik a megszokott működési folyamatok átalakítása, az adatelemzés beillesztése az operatív döntéshozatalba; és persze kritikus pont az is, hogy a fejlesztés érdekében külső szakértőkkel kell megosztani az üzleti információkat.

Munkatársunk, Fodor Szabolcs szerint az üzleti szféra jövőjét mindezek ellenére egyértelműen az adatvezérelt döntéshozatal jelenti, minden jel ebbe az irányba mutat. „Egyfajta hype is övezi az adatvezérelt döntéshozatalt, a BigData vagy AI megoldásokat, ami sok vezetőnek, cégtulajnak felkelti az érdeklődését, azonban a valóság és a hype között még nagy a szakadék. De ez a folyamat öngerjesztő, hiszen ha egy szektorban egy vállalat piaci előnyhöz jut egy adatvezérelt megoldással, a versenytársak lépéskényszerbe kerülnek, hiszen hosszú távon aki ebből kimarad, az lemarad” – fogalmazott kollégánk.

Széles körű felhasználás

Az adatelemzés és -vizualizáció az üzleti élet minden szegmensében hatékonyan támogatja a menedzsment munkáját, a vállalati döntéshozatalt. Zsolt és Szabolcs a BI Fórumon megtartott előadásban kitértek arra is, hogy a technológia olyan területeken is sikerrel bevethető, mint például az árkalkuláció, a termékajánlás, az ügyfelek mikroszegmentációja, a Customer Lifetime Value Prediction vagy éppen az üzlethelyiség ideális helymeghatározása.

Szabolcs ezzel kapcsolatos tapasztalatairól is beszámolt. Hangsúlyozta, mindig az adott iparág igényeitől függ, hogy a technológia mely funkcióit, lehetőségeit, előnyeit használják ki szívesebben és nagyobb bizalommal a cégek. „Egy pénzintézet esetén elsősorban az ügyfél scoring rendszerek a legfontosabbak, amellyel az ügyfelek hitelképességét vizsgálják. Egy gyártóüzemben ez nyilván nem használható eszköz, ott első sorban a predictive maintenance-nek van a legnagyobb szerepe, ami az üzem eszközeinek hatékony karbantartását, a karbantartási költségek leszorítását támogatja. Egy termékajánlási megoldás pedig főként az online termékértékesítésben érdekelt cégeknek lehet fontos, ahol széles termékkörből kell kiszolgálni az ügyfelet az egyedi igényei alapján” – osztotta meg kollégánk.

Ha érdekel még milyen újdonságot tartogat 2020 az adatok terén, olvasd el az alábbi cikkünket is:
https://datandroll.hu/2020/01/29/2020-az-adatok-eve-lesz/

Vagy tekintsd meg cégünk más témában megosztott tartalmait:
https://united-consult.hu/category/cikkek-rolunk-es-masrol/

 

Mi is az a Qlik Sense?

By | Qlik, Tech Trends | No Comments

A Qlik Sense egy gyors, rugalmas interaktív elemzési lehetőséget biztosító rendszer, amellyel több száz felhasználó akár nagy adatmennyiséget is egyszerre képes feldolgozni. Mondhatnánk, hogy egy egyszerű BI eszköz, de azért annál jóval több.

Miért különleges?

  • Memóriában kezeli az adatokat, ezáltal gyors;
  • A szabadalmaztatott, úgynevezett “asszociatív technológia” lehetővé teszi a teljes adathalmaz felfedezését adatvesztés nélkül, így az adatok rugalmasan elemezhetőek;
  • Nagy adatmennyiséget képes hatékonyan kezelni;
  • Saját és felhő infrastruktúrán is elérhető.

In-Memory technológia

A Qlik Sense in-memory technológiára épül, vagyis lemez helyett memóriában, tömörítve tárolja az adatokat. Az in-memory tárolás előnye, hogy gyorsabban elérhetők az adatok RAM-ból, mint lemezről. A memória nem olcsó, viszont az utóbbi időben egyre olcsóbban elérhető és felhőben könnyedén skálázható.

Asszociatív technológia

A Qlik asszociatív technológiája lehetővé teszi, hogy:

  • egyrészt különböző forrásokból származó adatok adatvesztés nélkül automatikusan egymáshoz kapcsolódjanak;
  • másrészt az összekapcsolt és össze nem kapcsolt adatok is elérhetőek és könnyedén kereshetőek legyenek.

Az úgynevezett “associative technology” a Qlik egyik legfontosabb eleme az in-memory technológián kívül. Ez a technológia tehát lehetővé teszi, hogy a felhasználó a teljes adathalmazt átlássa függetlenül attól, hogy az adathalmaz mely része honnan érkezett és az összekapcsolás során mely rekordok esnének ki. Gyakorlatilag ezáltal egy FULL OUTER JOIN valósul meg minden adatforrás összekapcsolásakor úgy, hogy az eszköz azokat az adatokat kiemeli, amelyek a kulcsok mentén ténylegesen összekapcsolódnak. Még egy tapasztalt SQL fejlesztővel is előfordul, hogy két forrástábla összekapcsolásával adatot veszít. A Qlik asszociatív technológiája kiküszöböli ezt a problémát.

Big data

A Qlik Sense-hez tartozik egy big data megoldás is, ami az on-demand elnevezést kapta. Ennek lényege, hogy a felhasználó a nagy mennyiségű adathalmaz 1-1 kisebb szeletét választhatja ki, amelyből a Qlik Sense Server egy új, részletesebb lekérdezést generál, ezáltal a “nagy adatmennyiség” probléma redukálódik “kis adat”-ra.

Saját és felhő infrastruktúra

A Qlik egy ökoszisztéma, amely több változatban elérhető.

Felhő infrastruktúrán (Software as a Service – SaaS) ingyenesen elérhető és használható a Qlik Sense Cloud Basic verziója, amire itt tudsz regisztrálni. Ha 5-nél több felhasználóval szeretnéd az elemzéseid megosztani és a teljes funkcionalitást ki akarod használni, akkor elő kell fizetned a Business verzióra, ami jelenleg havi 15 EUR/fő áron elérhető.

A Qlik Sense Desktop ingyenesen használható, elérhető bárki számára. A Desktop nagyszerűen alkalmas dashboardok, vizualizációk készítésére lokálisan, a megosztás azonban vagy Qlik Sense Cloudon vagy Enterprise Serveren keresztül lehetséges.

Az Qlik Sense Enterprise a Qlik Sense server változata. A server változat elérhető különböző konstrukciókban: felhasználó, server vagy előfizetés alapon. A server felinstallálható virtuális gépekre (felhőben) vagy saját fizikai vagy virtualizált környezetre. Saját hardver infrastruktúra esetén az adatok tárolása és kezelése mindvégig saját kézben maradhat.

Kíváncsi vagy, hogy működik a Qlik Sense a gyakorlatban vagy milyen áron érhető el a keretrendszer? Lépj kapcsolatba velünk a http://thebigdataplatform.hu, illetve a http://www.united-consult.hu weboldalakon található elérhetőségeken, a LinkedIn-en, vagy a Facebookon és kérj egy demót!