Hallittua tiedolla johtamista – onko kaikki kunnossa konehuoneen puolella?

Arto Nimander.

Puhuttaessa tiedolla johtamisesta ajattelemme ensimmäiseksi päätöksentekoa ja perusteita, joilla päätöksiä tehdään. Onko meillä BI:n ja raportoinnin ansiosta oikea tieto oikeaan aikaan käytettävissä päätöksenteon tueksi. Kun laajennamme käsitettä sanalla hallittu, mukaan tulee vielä ajatus yhteisten strategisten tavoitteiden mukaisten päätösten tekemisestä ja strategisia tavoitteita seuraavien mittareiden käytöstä. Pidämme kuitenkin helposti itsestäänselvyytenä, että päätöksiä tukeva informaatio syntyy ja säilyy johdonmukaisena vähän kuin itsestään. Emme uhraa liikaa ajatuksia BI-alustalle ja sen ylläpidolle. Kuitenkin BI ympäristön ja tietovirtojen hallinta ja ennakoiva ylläpito on oleellisen tärkeää BI:n toimivuuden varmistamisessa.

Millaisilla asioilla sitten voimme vaikuttaa siihen, että BI-alustamme pysyy kunnossa ja sen tuottaman tiedon laatu korkealla. Onko asioita, joiden avulla saisimme perustan vakaammaksi ja vähemmän herkäksi erilaisten muutoksien aiheuttamille virheille?

Ensimmäinen asia on tietovirtojen hallinta. BI sovellukset ja niiden datamallit on suunniteltu aina rakentamishetken tilanteen mukaisesti. Ajan kuluessa rakenne helposti monimutkaistuu ja pahimmassa tapauksessa erilaiset väliaikaisiksi tarkoitetut purkkaratkaisut jäävät elämään. Kun perusjärjestelmissä tai niiden käytössä tapahtuu muutoksia, voi lähdedatamme muuttua ja aiheuttaa virheitä analyyseihimme. Tällöin on tärkeää pystyä eristämään muuttumattomana tietolähteistä luettu data myös BI-alustan puolella. Tämä helpottaa ja nopeuttaa mahdollisten muutosten ja virheiden käsittelyä. Usein samoja mittareita käytetään myös eri analyysinäkymissä ja raporteilla, jolloin niiden pitää tietenkin olla yhtenevät eri näkymissä. Ylläpidon näkökulmasta on tällöin tärkeää, että tällainen tieto hallitaan keskitetysti yhdessä paikassa. Näin mahdolliset muutokset päivittyvät kerralla oikein kaikkiin näkymiin, joissa tietoa hyödynnetään.

Toinen näkökulma on ympäristön stabiilius ja suorituskyky. Hienoimmillakaan analyyseillä ei ole mitään arvoa, jos käyttäjä ei pääse niihin käsiksi juuri silloin, kun tietoja tarvitaan. Jotta ympäristön käytettävyys ja suorituskyky pysyy koko ajan hyvällä tasolla, pitää ympäristöä monitoroida ja tunnistaa mahdolliset pullonkaulat. Itse asiassa pullonkaulat pitäisi osata ennakoida niin, ettei niitä ylipäätään pääse syntymään. Sovellusten, käyttäjämäärän ja datamäärien kasvaminen voi äkkiä johtaa tilanteeseen, jossa ympäristön käytettävyys kärsii. Ennakointia ei voi tehdä, jos meillä ei ole työkaluja ja näkymää ympäristöön oikean analyysin tekemiseksi. Mustaa laatikkoa on vaikea ylläpitää ja hallita.

Kuten kerroimme viime viikolla Qlik for the Enterprise –tapahtumassamme, olemme kehittäneet QlikView ympäristöjen hallintaan työkaluja täydentämään Qlikin omien työkalujen tuottamaa informaatiota. Pystymme helposti kehittämällämme Tutka-sovelluksella visualisoimaan koko Qlikin ETL-arkkitehtuurin, jolloin mahdollisten riskien tunnistaminen ja arkkitehtuurin suunnittelu helpottuu. Samalla mahdollistuu datan muutosten jäljittäminen läpi ETL-prosessin. Konehuone-sovelluksellamme voimme analysoida palvelinympäristön kapasiteettia ja suorituskykyä. Yhdistämällä Windowsin työkalujen kuten Task Manager ja Resource Monitor tarjoamat tiedot Qlikin lokitietoihin, pääsemme analysoimaan yksittäisten QlikView sovellusten vaikutusta palvelimien resurssien käyttöön ja suorituskykyyn. Näin saamme helposti kiinni paljon resursseja käyttävät sovellukset tai tietojen latauksiin liittyvät ajalliset pullonkaulat ja pääsemme tekemään korjaavia toimenpiteitä nopeasti ja kohdistetusti. Kaikki tämä johtaa stabiilimpaan ympäristöön ja käytettävyyteen eli oikea tieto on oikeaan aikaan käytettävissä päätöksenteon tueksi.

Seuraavassa blogissani tarkastelen, miten sovelluskehitystä ja sovellusten julkaisua tehdään hallitusti.