
De grondstof van de controller bestaat uit data en de ontwikkelingen op het gebied van datacreatie, -verwerving en -gebruik hebben dan ook direct invloed op uw werkzaamheden. Dataficatie is geen dreiging, er liggen veel kansen om u vergaand te ondersteunen bij uw taak: adviseren op basis van betrouwbare informatie. Tijd om hier eens verder in te duiken.
Uit onderzoek van cm: van najaar 2020 blijkt dat de bewustwording van de kansen die digitalisering biedt onder organisaties steeds groter wordt. Toch zegt bijna de helft van de respondenten dat er kansen blijven liggen of dat het beter kan. Dat is een lichte verbetering ten opzichte van het jaar ervoor, maar er is duidelijk nog een hoop te doen.
Digitalisering is in dit verband een containerbegrip waaronder ontwikkelingen als cloud computing, cyber security en data science te plaatsen zijn. Dit artikel richt zich op de ‘dataficatie’ van het vakgebied. Dataficatie wordt nogal eens beschreven als een dreiging (‘er komt veel op ons af’), terwijl er zoveel kansen liggen om de controller vergaand te ondersteunen. Wat zijn deze kansen? En wat is er nodig om werkelijk ‘data-driven’ te opereren?
Toepassing van data science en AI in organisaties
Eerst maar eens een schets van het speelveld: wat gaat er nu precies schuil achter de buzzwords AI, data science, machine learning en data-driven? En wat is er eigenlijk nieuw aan data science? Bedrijven en controllers baseren hun beleid, adviezen en besluiten immers van oudsher al (in meer of mindere mate) op data-analyses. Waarom staat data science de laatste jaren dan zo in de belangstelling?
Data science
Om met het laatste te beginnen: data science heeft de laatste jaren een vlucht genomen, omdat bij vrijwel iedere stap in een dataproces verbeterde technieken zijn ontwikkeld, waardoor er nieuwe waarde uit data kan worden gehaald. Of het nu gaat om datacreatie, -opslag, -analyse of -visualisatie: het is makkelijker en goedkoper geworden om deze stappen te doorlopen. Het koppelen en combineren van datasets, het toepassen van geavanceerde analysetechnieken en innovatieve visualisaties zijn daarmee bereikbaarder geworden en dat leidt gezamenlijk tot nieuwe inzichten.
Dat betekent echter niet dat organisaties zonder meer geavanceerde data science-technieken kunnen gaan toepassen. Voor correct gebruik van data science-oplossingen is het gestructureerd doorlopen van een dataproces van belang. En daarin geldt: om iedere stap in zo’n proces succesvol te kunnen uitvoeren, moet de vorige stap correct zijn afgerond. Dat vraagt om een goede datahuishouding én om de combinatie van verschillende disciplines: domeinkennis, statistiek, en kennis van tooling (zie figuur 1).

Big data en AI
Door de beschikbaarheid van tooling om grote hoeveelheden data (big data) op te slaan en snel te verwerken, is het mogelijk om veel variabelen tegelijk tegen elkaar af te zetten en daar conclusies uit te trekken. En dat geeft ons de mogelijkheid om Artificial Intelligence (AI) in te zetten. Met AI gaan we een stap verder dan analyse. De software past de resultaten van de analyse toe om zelfstandig voorspellingen over de toekomst te doen én beslissingen te nemen. Een duidelijk voorbeeld is de coronapandemie. De verspreiding van het virus is afhankelijk van vele factoren. AI kan op basis van het verleden de juiste weging toekennen aan de vele variabelen. Op basis daarvan worden voorspellingen gedaan over het effect van bepaalde maatregelen. In een zelfrijdende auto gaat het nog verder: de software neemt zelfstandig beslissingen op basis van de vele variabelen: locatie, andere verkeersdeelnemers, obstakels, verkeersborden enzovoort.
Machine learning
AI maakt vaak (maar niet altijd) gebruik van machine learning (ML). Hierbij is de software niet volgestopt met concrete opdrachten zoals ‘als dit gebeurt, dan moet je dat doen’, maar ‘leert’ deze door het ‘verwerken’ van datasets. Hierbij wordt aan de software duidelijk gemaakt hoe bepaalde data verwerkt moeten worden. Denk bijvoorbeeld aan factuurverwerkingssoftware: deze kan worden getraind om crediteuren te herkennen. Dit gebeurt door een set facturen van dezelfde crediteuren in te scannen en aan te geven om welke crediteuren het gaat. Vanaf dat moment herkent de software op basis van een aantal geconstateerde kenmerken de betreffende crediteuren. Dit wordt ‘supervised learning’ genoemd.
Bij ‘unsupervised learning’ zal de software zelf de patronen moeten herkennen. Er worden dan grote sets facturen van verschillende crediteuren ingevoerd, waarna de software herkent dat het om verschillende partijen gaat en wat de kenmerken per partij zijn. Het hangt van de situatie en het doel af wanneer bepaalde technieken moeten worden ingezet en dat vereist uiteraard kennis van die technieken.
Data-driven organisatie
De organisatie die optimaal gebruik weet te maken van de mogelijkheden én haar beleid daar grotendeels op baseert, noemen we een data-driven organisatie. Beslissingen worden daarbij minder genomen op basis van intuïtie of onderbuikgevoel, maar vooral op basis van de cijfers en analyses en de voorspellingen die op basis daarvan worden gepresenteerd. Veel bedrijven streven ernaar om meer data-driven te opereren, maar deinzen er ook voor terug om de data geheel voor zichzelf te laten spreken: de menselijke maat moet immers niet uit het oog worden verloren.
Toegevoegde waarde voor controllers
In hoofdlijnen hebben controllers verantwoordelijkhedenen op de volgende drie resultaatgebieden (Roozen et al., 2019): finance operations (transactieverwerking), financiële planning en analyse, business control. AI biedt mogelijkheden op al deze resultaatgebieden: enerzijds kan het bijdragen aan het automatiseren van processen en anderzijds maken AI-ontwikkelingen het mogelijk om beter gebruik te maken van de steeds groter wordende hoeveelheid data waarover organisaties beschikken. Wat kan die dataficatie voor de controller betekenen?
Datakwaliteit
Ook voor data-driven organisaties blijft datakwaliteit van cruciaal belang. Veel controllers klagen over de kwaliteit van de data in hun interne (ERP-)systemen. Daarnaast kost het vaak veel moeite en tijd om gegevens uit meerdere systemen met elkaar te combineren tot samenhangende rapportages. Het blijft een randvoorwaarde om de datakwaliteit en data-integratie op orde te hebben voordat data science toegevoegde waarde kan hebben.
Voorspellingen
Een kleine groep bedrijven maakt al gebruik van machine learning om betere voorspellingen te kunnen doen over bijvoorbeeld de omzet per product of productgroep. Deze voorspellingen worden vergeleken met de voorspellingen die op traditionele wijze tot stand komen. Veelal levert ML betere voorspellingen op. Toch wordt op dit moment ML meestal alleen gehanteerd als ’sanity check’ om te controleren of de eigen voorspellingen niet te veel afwijken van de ML-voorspellingen. Als eenmaal blijkt dat ML over een langere periode consistent beter presteert dan de traditionele methodes dan zal het vertrouwen in ML sterk toenemen. De verwachting is dan ook dat over enkele jaren de rollen omgekeerd zullen zijn, waarbij de ML-voorspelling leidend zal zijn en de handmatige controle de ‘sanity check’.
Walmart
Kaggle is een bekend platform onder data scientists. Het Amerikaanse Walmart is een voorloper in het gebruik data science-technieken en heeft op Kaggle een wervingswedstrijd georganiseerd. De deelnemers met de meest accurate voorspellingen van de omzet kregen een baan aangeboden. Studenten van de minor Data Science for business improvement aan de Haagse Hogeschool hebben deelgenomen aan deze competitie. Zij kregen de beschikking over een dataset met meer dan 400.000 regels. Op basis van informatie over inflatie, werkloosheid, temperatuur en marketing bleken zij in staat om de weekomzet van de afdelingen van 40 Walmart-vestigingen zeer accuraat te voorspellen. Eén studentengroep eindigde bij de beste 35 procent van alle deelnemers. Dit nadat zij slechts 8 weken daarvoor voor het eerst in aanraking waren gekomen met data science. Dit geeft aan dat de eerste stappen op het gebied van machine learning door bedrijven snel gezet kunnen worden, mits natuurlijk aan de randvoorwaarden wordt voldaan.
Deze wedstrijd is een goed voorbeeld van het integreren van externe data en interne data: historische omzet- en marketinggegevens worden gecombineerd met externe gegevens zoals werkgelegenheid, temperatuur en inflatie.
Predictive maintenance
De integratie van verschillende datasets is breder zichtbaar. Denk hierbij aan bijvoorbeeld ‘predictive maintenance’. Dit is mogelijk door het toenemend gebruik van sensoren: de gemeente Zoetermeer experimenteert op dit moment met het voorspellen van onderhoud aan wegen en riolering door gebruik te maken van machine-learningtechnieken. Dit biedt controllers op termijn de mogelijkheid om de kosten voor onderhoud veel nauwkeuriger te budgetteren.
Rol van de controller en de relatie met andere stakeholders
Bij de meeste organisaties speelt de controller een cruciale rol in het forecasting- en budgetteringsproces. Nadat de controller omzetvoorspellingen en kostenramingen heeft gemaakt, volgt een spel waarbij managers zo gunstig mogelijke budgetten uit het vuur willen slepen. De controller moet hierbij de belangen van de gehele organisatie afwegen tegen de individuele belangen van de afdelingsmanagers. Managers leveren hierbij vaak kritiek op de accuraatheid van de inschattingen. Opmerkingen zoals: ‘Je hebt vorig jaar 20 procent van mijn budget afgenomen terwijl ik het juist veel drukker kreeg’, zijn eerder regel dan uitzondering. Als een controller in staat blijkt te zijn om bij iedere budgetbespreking accurate voorspellingen te laten zien, kunnen een hoop conflicten worden vermeden.
Daarnaast kunnen ML-technieken worden toegepast om de besluitvorming te verbeteren. De verwachte impact van besluiten kan veel nauwkeuriger worden bepaald, omdat veel meer variabelen kunnen worden meegenomen. De controller wordt hierdoor een nog betrouwbaardere sparringpartner voor zowel het topmanagement als het middenkader.
Randvoorwaarden
Data science biedt dus aantrekkelijke kansen voor de controller. En: we lijken nog maar aan het begin van de digitale transformatie te staan. Voordat de mogelijkheden daadwerkelijk benut kunnen worden, moet aan een aantal randvoorwaarden worden voldaan.
- Datakwaliteit is heel belangrijk. Als hulpmiddel om inzicht te krijgen in de datakwaliteit zijn er verschillende visualisatiemogelijkheden. Deze worden vaak pas achteraf benut bij rapportages, maar kunnen ook bij het verkennen van data een handig hulpmiddel zijn om ‘outliers’ in de data te herkennen. Bekende tools zijn Power BI en Tableau.
- Koppel datasets. Het combineren van datasets kan een enorme verrijking betekenen bij de inzage in de bedrijfsvoering. Een probleem daarbij is de gedistribueerde opslag over verschillende systemen en bijbehorende formats. Als oplossing hiervoor wordt gebruikgemaakt van datawarehouses of datalakes: gecentraliseerde opslag van (kopieën van) systeemeigen data. Hierin kunnen koppelingen worden gelegd en analyses uitgevoerd zonder de bronsystemen direct aan te spreken.
- Juridische en ethische aspecten. Zowel in de voorbereiding als uitvoering van datatrajecten spelen juridische en ethische aspecten van datagebruik een belangrijke rol, met name voor wat betreft de privacy van medewerkers, klanten en andere stakeholders. De regelgeving vanuit de AVG stelt strenge eisen aan de opslag en verwerking van data in relatie tot het beoogde doel. Daarnaast spelen ethische afwegingen: is alles wat mag ook wenselijk? Belangrijk aspect daarbij is transparantie: alle betrokkenen moeten weten waarvoor data worden gebruikt en hoe de analyse tot stand komt. Vooral bij machine learning bestaat het risico dat er een ‘black box’ ontstaat waarvan niemand meer weet hoe conclusies en voorspellingen tot stand zijn gekomen.
Data maturity
Organisaties die met data aan de slag willen om uiteindelijk echt data-driven te opereren, doen er goed aan om de eigen situatie in kaart te brengen aan de hand van een ‘data maturity model’, zoals dat van Nouwen (2020). Hiermee worden de lagen management, organisatie, data en technologie gewaardeerd op hun data-volwassenheid. Op basis hiervan kan bepaald worden welke stap voor de organisatie realistisch is.
Lees meer
- Cuadrado-Gallego, J. J., en Y. Demchenko (eds.),The Data Science Framework: A View from the EDISON Project. Springer Nature, 2020.
- Jalink, A. Verdergaande digitalisering is een kans die u ook oppakt. Cm: 2020, afl. 10, geraadpleegd op cmweb.
- Nouwen, J., Digitale transformatie aan de hand van het Data Maturity Model, 2020, geraadpleegd van: van thebigstory.nl: https://thebigstory.nl/data-maturity-model/
- Roozen, F., B. Steens en L. Spoor, Technology: Transforming the Finance Function and the Competencies Management Accountants Need. Management Accounting Quarterly, 2019, 21(Fall).
Auteurs: Erik van den Ham en Peter Becker zijn beiden docent aan de Haagse Hogeschool en werken aan een zelfstandige bachelor Applied data science & AI (Wil je daarover van gedachten wisselen? p.g.becker@hhs.nl)
Maak kennis met Power BI
Overstappen op Power BI is niet moeilijk, maar vereist enkele nieuwe vaardigheden. Op de cm: kennisdag Power BI voor financials leert u wat Power BI voor financials kan betekenen en wordt aan de hand van financiële gegevens een dashboard gecreëerd. Sprekers Henk Vlootman (Excel MVP) en Michiel Rozeman (topexpert Power BI in Europa) geven u in vier sessies de kennis die u als financiële professional nodig heeft om aan de slag te gaan met het visualisatieprogramma.