Wie heeft nog geduld voor technologie?

De zogeheten ‘consumerization’ van ICT heeft soms nare gevolgen. Gebruikers van bedrijfssoftware verwachten voortdurend ogenblikkelijke resultaten, zoals ze dat ook in hun persoonlijke omgeving gewend zijn. Maar wat als die software honderdduizenden lijnen van een database moet inladen op zoek naar een antwoord?

Met de Wet van Moore evolueren ook de verwachtingen rond snelheid en vermogen van digitale toestellen. De anekdote dat de smartphone van vandaag meer rekenkracht bevat dan de toestellen die Neil Armstrong op de maan kregen, zijn al voldoende bekend. Maar de gevolgen zijn niet altijd te overzien.

Want als de mobiele toestellen al een raket op de maan zouden krijgen, waarom zouden we dan tientallen seconden of zelfs minuten willen wachten op het resultaat van een ‘wat als’-scenario in onze business intelligence-omgeving?

Veel heeft te maken met de consumerization van IT, meent ook James Richardson, een in BI gespecialiseerde analist van het onderzoeksbureau Gartner: “Veel van de vernieuwing die vandaag plaatsvindt, gebeurt eerst bij de consument thuis en pas daarna bij diezelfde gebruiker binnen zijn bedrijfsomgeving.”

Dat heeft ook een economische verklaring: vaak wordt technologie aan een lagere prijs aangeboden aan consumenten dan aan bedrijven. Daardoor hebben de consumenten een technologie al lang en breed getest voor die voor bedrijven betaalbaar wordt.

“De adoptie door de consument zorgt er trouwens voor dat de prijzen van producten dalen, ook voor de bedrijfswereld”, verklaart Richardson de haast onvermijdelijke trend van consumerization. Toegepast op business intelligence en analytics heeft deze consumerization vooral gevolgen voor de verwachtingen rond de snelheid van de hiervoor gebruikte software.

Richardson: “Mensen zijn gewend aan snelle en relevante antwoorden op hun vragen wanneer ze als consument naar iets op zoek gaan. Wat ze vooral niet willen in een BI-omgeving, is een eindeloze wachttijd wanneer ze een nieuwe zoekopdracht lanceren, of een totaal zinloos antwoord. Dat verklaart mee waarom slechts 28% van de potentiële BI-gebruikers daadwerkelijk deze software gebruikt.”

Veel leveranciers hebben deze boodschap intussen gebrepen. Qlikview, bijvoorbeeld, is al verscheidene jaren bezig aan een opmars in de BI-wereld, voornamelijk dankzij de responssnelheid die ze met hun software meestal realiseren. Gaandeweg hebben ze deze snelheid ook voor grotere databases kunnen behalen.

Tegenwoordig zijn er al gebruikers bekend die in enkele seconden ruim vijfhonderd miljoen records kunnen doorzoeken. Maar ze zijn niet de enigen. Ook traditionelere namen in de BI- en analytics-arena zoals Oracle, SAS Institute en SAP hebben van snelle analytics – door de leveranciers meestal high-perofmance of in-memory analytics genoemd – een speerpunt gemaakt.

De term ‘in-memory’ verklaart al meteen het verschil met de vroegere manier om grote databases te analyseren. Vroeger werd die analyse verstuurd naar de database, waar ze ter plekke met het beschikbare geheugen werd uitgevoerd. Tegenwoordig worden de voor de analyse benodigde gegevens ingeladen in het werkgeheugen van de server en op die manier veel sneller verwerkt.

Een ander verschil is dat de gegevens niet meer per rij maar per kolom worden bevraagd. Dat zorgt voor een zichtbaar sneller resultaat. Maar het verschil zit ook in de aanpak en snelle werkwijze, meent Vincent Peters, managing director voor onder meer Qlikview Benelux: “Als je een cube in-memory behandelt, blijf je met de beperkingen van een cube zitten. In-memory moet ook gewoon in je DNA zitten. Je kan een Dell wit verven, maar daarmee wordt het nog geen Apple.”

Uiteraard verwijst hij hiermee vooral naar het verschil tussen de traditionele BI- en analytics-leveranciers, maar het gaat ook op voor de manier waarop u met de nieuwe mogelijkheden omgaat. Naarmate de mogelijkheden groeien om grote hoeveelheden gegevens tegelijk te bevragen, groeien ook de mogelijkheden om in een mum van tijd geïnformeerde beslissingen te nemen, "wat als"-scenario’s uit te werken en dus ook voorspellende modellen te bouwen.

Het lijkt een luxe, maar met de explosie van gegevens is dit ook stilaan een noodzaak aan het worden, waarschuwt Jim Goodnight, CEO van SAS Institute: “Enkele jaren geleden deden sommige banken er nog 18 uur over om het risiconiveau van bepaalde transacties te berekenen, maar dat is vandaag gewoon onaanvaardbaar geworden.”

Diepgravende analyse is dus wel mainstream aan het worden, maar is daardoor ook onderhevig aan de druk die elke mainstreamtechnologie te wachten staat: het moet voor steeds meer gebruikers en steeds sneller beschikbaar zijn. En zo blijven de uitdagingen elkaar ook in deze sector aan een hels tempo opvolgen.

Gerelateerde artikelen

Volg ons

69% korting + 3 maanden gratis

69% korting + 3 maanden gratis

Bezoek NordVPN

Business