facebook LinkedIN LinkedIN - follow
IT SYSTEMS 6/2023 , AI a Business Intelligence

Není čas roky plánovat

Datová platforma musí začít nést ovoce hned, aby dávalo její pořízení smysl

Aleš Kotek


Dostat data ve firmě pod kontrolu se tradičně rovnalo náročné ope­raci. Dnes ale pozoruji výrazný odklon od robustních projektů za­ložených na všeobsažné analýze a úvodní práci na kompletní architektuře. Už i velké firmy mají možnost dostat data pod kontro­lu poměrně snadno a bez složitých příprav. Většina našich klientů implementuje datové platformy jako první do oblastí, kde je možné v bezprostředním čase dosáhnout největších výsledků. Platforma poté prostupuje dalšími oblastmi a nabaluje na sebe pokročilejší agendy, které typicky začínají datovou kvalitou a postupně se rozšiřují o datový katalog, master data management a složitější analytiku. Podívejme se tedy, jak probíhá implementace datové platformy v praxi.


Problémy s daty nejvíce řeší velké globální firmy, které mají minimálně desítky tisíc záznamů v databázi, typicky spíš miliony až stovky milionů. Telefonní operátoři, finanční instituce, aerolinky, tam všude je nemyslitelné data spravovat ručně, takže nasazení automatizace za pomoci AI, která umí automaticky identifikovat datové domény či kontrolovat aktuálnost záznamů napříč databázemi různých podsystémů, je dnes téměř nutnost. V případě datového katalogu vzhledem k GDPR dokonce nutnost vyžadovaná legislativou.

Platforma pro správu dat nabízí přidanou hodnotu celému spektru klientů. Na jedné straně si můžeme představit operátora T-Mobile s 8 pentabajty dat ve 22 tisících databázích. A na té druhé městskou knihovnu v kanadském Torontu, kterou ročně navštíví nižší desítky milionů návštěvníků. Tito klienti profitují z nasazení naší datové platformy, ale podobný nástroj může pomoci celému spektru mezi těmito dvěma limity, ať už jde o velké banky, pojišťovny, nebo aerolinky, které spravují různě citlivá data o svých zákaznících.

Kdy je čas na datovou platformu?

U každé firmy tato potřeba vzniká z jiných důvodů, ale nejčastějším impulzem pro implementaci datové platformy je moment, kdy si firma začne všímat zhoršené kvality dat. Začátky bývají velmi náročné na komunikaci, protože jakmile se otevře citlivé téma „potřebujeme lepší data“, je nutné jednat obezřetně, aby to nebylo řídícími pracovníky vnímáno jako útok na jejich práci. Protože tomu tak nikdy není.

Zaměstnanci to ale obvykle vidí jinak. Vědí přesně, jaké strašáky mají v databázi, a i zcela běžné úkoly, jako oslovování klientů, se pro ně s rostoucím chaosem stávají velmi stresující. V praxi jsme narazili na klienta, kterému na call centrum volal zákazník, aby se zeptal, jaké má sjednané finanční produkty. Řekli mu, že už má hypotéku a životní pojištění. Bohužel mu ale právě přečetli informace zcela jiného zákazníka. Jak to? Možná to někdo špatně zadal, možná se to špatně spárovalo. Stejně tak mně samotnému jednou přišel e-mail od pojišťovny s výpisem všech smluv cizího člověka. To už nejsou chyby, za které se stačí omluvit, jako když pošlete e-mail se špatným oslovením. Tady už se pohybujeme nebezpečně blízko úniku dat nebo podvodu.

Jakmile firma začne řešit kvalitu dat (data quality, DQ) a postupně se před ní odkrývají další možnosti datové platformy, začíná pracovat na konsolidaci zákaznických dat pomocí nástroje master data management (MDM), správě osobních údajů (personal identifiable information, PII) a pro přehlednost vytváří datové katalogy. Instalací těchto modulů postupně dospívá do bodu, kdy má smysl zkoumat data analyticky a hledat v nich zajímavé vzorce, které mohou vést k úsporám nebo lepšímu cílení nabízených služeb. Analýzu dat lze již z větší části automatizovat, a to jak hledání anomálií, tak výklady v datech po vzoru našeho nástroje Data Stories pro vizualizaci dat.

Jak probíhá implementace datové platformy?

Prvním krokem je vždy vytvoření návrhu architektury, jenž popisuje, jak a na které všechny systémy se bude platforma v organizaci napojovat. Záleží na konkrétním případě, ale například jen PII mohou být zpracovávány přímo v databázi, souborovém systému nebo v tzv. data lake, které agreguje neformátovaná data z několika systémů. Tímto návrhem většinou trávíme týden až dva, především proto, že v průběhu vyvstávají různé otázky, které s klientem průběžně konzultujeme.

Nejnáročnějším krokem je vytvoření API, která datové platformě umožní přístup na servery. To většinou trvá několik dní. Zákazníci dnes očekávají, že datové platformy dokážou fungovat v mnoha režimech, které pokryjí drtivou většinu dnešních technologií. Jakmile tohle všechno máme připravené, je instalace samotné platformy otázkou několika hodin. Po spuštění začne automatická profilace dat a hodnocení jejich kvality podle nastavených pravidel. V této fázi začíná klient řešení rozvádět buď sám, nebo je mu k dispozici konzultant, se kterým dlouhodobě vylepšují jednotlivé oblasti a zvyšují přínos datové platformy pro organizaci.

Klientovi poté stačí naučit se používat jedno prostředí, do kterého integrujeme veškeré datové moduly. To je naší obrovskou výhodou, jelikož naši datovou platformu vyvíjíme od prvopočátku jako hybridně cloudové plně integrované řešení, které je pro koncového uživatele jednodušší používat – a nám umožňuje snadno vyvíjet nadstandardní funkce napříč moduly.

Liší se v něčem český přístup k datům oproti zahraničí?

U českých a slovenských klientů vidím mnohem výraznější preferenci robustního přístupu. Je to trochu těžkopádné, ale na začátku je většinou potřeba jít do hloubky, definovat velký projekt a udělat velké výběrové řízení. Už jen příprava toho projektu znamená spoustu práce, která ve finále nemusí vůbec dopadnout. Svět, speciálně Spojené státy, jde mnohem rychleji do podstatných oblastí přinášejících největší užitek a ty se snaží postupně prohlubovat.

Světové trhy se snaží být rychlejší, agilnější. Nemohou si dovolit měsíce a roky čekat na vypracování projektů do výběrových řízení. To je nepřijatelné, a vše proto akceleruje. Jako první vždy vzniká MVP, které v našem podání znamená most valuable product, tedy funkci schopnou přinést největší benefit. Od začátku se snažíme zachytit šíři funkcionalit, aby zákazník získal základní představu, a postupně se soustředíme na oblasti, které zaslouží největší péči nebo přinesou největší benefit. V tomto ohledu bych byl rád, kdybychom i my Češi dokázali fungovat agilněji a soustředili se na maximální efektivitu, nikoli formalistickou správnost.

Jaké problémy při integraci potkáváme?

Nejčastějším nešvarem je ve firmách chybějící vlastník dat, kdy se často neví, kdo danou oblast řeší, respektive za ni zodpovídá. Překvapivě nám nedělají vrásky nějaké zastaralé legacy systémy, ale spíš rozpor mezi byznysem a technickou realizací. Tam se často svádí boj o to, že jedna strana chce problém řešit, a druhá si nepřipouští ani jeho existenci. V tomto směru je vždycky výzva najít společnou řeč a vysvětlit, že datová platforma může pomoci všem.

V tomto ohledu jsme schopni zajistit nejvyšší stupeň ochrany zákaznických dat i v tak náročných prostředích, jako jsou například bankovní systémy. Naše platforma nemusí data nikde ukládat a vystačí si s agregacemi. V případě master data managementu a monitoringu je s daty nakládáno podle příslušných pravidel zabezpečení. Veškeré spojení je šifrované a podle preferencí klienta umíme fungovat v libovolném cloudovém prostředí nebo čistě jako on-premise řešení instalované na IT infrastruktuře klienta.

V českém prostředí jsme se setkali s firmou, která se snažila o data governance, aby získala pod kontrolu citlivá data. Naráželi ale přesně na tento odpor z vnitřních struktur firmy, které nešly jejich snažení naproti. IT oddělení si přálo problematiku dat řešit, ale jednotliví odběratelé byli skálopevně přesvědčení, že jejich data jsou 100% v pořádku a není potřeba s nimi nic dělat, případně absolutně nestáli o řešení od centrály. Další kuriozity, na které jsem u klientů narazil, byl třeba legacy systém, do kterého se klient neuměl přihlásit, běžnou věcí je i datový katalog formou excelové tabulky. Na tyto neduhy se dá narazit i ve světě, takže ano, i takové věci tu jsou pořád s námi a datové platformy se v některých odvětvích prosazují jen pomalu.

Aleš Kotek
Autor článku je professional services director v česko-kanadské softwarové společnosti Ataccama, která stojí za unifikovanou platformou pro automa­ti­zo­va­nou správu dat Ataccama ONE.
Chcete získat časopis IT Systems s tímto a mnoha dalšími články z oblasti informačních systémů a řízení podnikové informatiky? Objednejte si předplatné nebo konkrétní vydání časopisu IT Systems z našeho archivu.

Inzerce

Microsoft Fabric umožňuje analýzu dat založenou na AI

GOPASEfektivní řízení a analýza dat je klíčovým faktorem úspěchu každé organizace. Společnost Microsoft představila platformu Microsoft Fabric, která nabízí revoluční možnosti v oblasti sběru, ukládání a analýzy dat.