Winkelmand

Geen producten in de winkelwagen.

Maak jij nu de legacy van de toekomst?

De huidige legacy-software was ooit een topapplicatie die je moest hebben. Met die gedachte in het achterhoofd is het wijs nu al te kijken hoe je voorkomt dat je in de toekomst met de nu nog gloednieuwe datagedreven projecten in je maag zit.

datagedreven projecten legacy
Foto: Yung Chang via Unsplash

Data is een actueel pioniersgebied. Voor veel IT-beslissers staat het op de agenda: ze willen van de organisatie een datagedreven machine maken. Dat is de droom – de weg ernaartoe vraagt om creativiteit en strategische focus.

Dat blijkt uit onderzoek van MT, Proact en NetApp. Naast de enquête hebben we hiervoor ook tien IT-verantwoordelijken uitgebreid geïnterviewd. Uit die gesprekken kwam naar voren dat de meesten ervan dromen de eigen datastroom in te zetten om marktbewegingen en veranderingen in klantwensen van de toekomst te kunnen voorspellen.

In de praktijk is dat een proces waarbij een projectteam applicaties ontwikkelt die de organisatie stap voor stap meer datagedreven maken. Wat daarbij vaak vergeten wordt, is dat die nieuwe data-applicaties onderhouden moeten worden. Daarom is het raadzaam om te anticiperen op de toekomst.

Immers, veel ‘jonge’ techbedrijven ervaren nu al een remmende voorsprong vanwege de achterhaalde technologie van het verleden waarop hun succes is gebouwd. Kan dat ook gelden voor het databouwwerk dat veel ondernemingen nu optuigen? En hoe voorkom je dat de datagedreven applicaties van nu de legacy-software van de toekomst worden?

Dataprojecten: goed is goed genoeg

Als de ontwikkeling van een data-driven organisatie goed verloopt, loopt het aantal dataprojecten uit de hand. Het risico dat daarmee samenhangt, is dat degenen die met big data bezig zijn zelf de focus verliezen of de controle kwijtraken over hun tijdsbesteding. Want met alle datasets valt wel iets bijzonders te doen, maar het zakelijke rendement verschilt.

Ondernemingen hebben daarom baat bij een goede focus op de baten van een dataproject. Nicky Willebrand, solution architect bij clouddienstverlener Proact adviseert daarom vooraf te besluiten wanneer de uitkomst voldoende is. ‘Zorg er in de praktijk voor dat het daarbij blijft. Elk model zal altijd beter kunnen, maar goed is goed genoeg. Het is soms beter een team te zetten op een nieuw kansrijk project dan op de verbetering van het laatste halve procent van een bestaand project.’

Data is te laagdrempelig

Een van de risico’s van werken met data is dat online tools het mogelijk hebben gemaakt om snel conclusies te trekken. ‘Werken met data is heel laagdrempelig geworden,’ aldus Willebrand. ‘Iedereen kan een public clouddienst vinden, een algoritme uit de muur trekken en die op een dataset loslaten. Het risico is dat je je strategie baseert op de verkeerde conclusies – machine learning is namelijk net zo goed een wiskundige als een technische uitdaging.’

Let op dat de conclusies die getrokken worden ook altijd een wiskundige basis hebben, is zijn advies. ‘Data science bestaat uit drie onderdelen: domeinkennis, ofwel kennis van de bewuste industrie, wiskundige kennis, en computer-science-kennis, ofwel kennis van het ontwikkelen en ontwerpen van modellen. Bij elk dataproject zijn alle drie de onderdelen nodig.’

Rekening houden met IT-trends

Het is verstandig rekening te houden met de grote IT-trends, vindt Willebrand. ‘De huidige infrastructuur is in de meeste bedrijven een mix van centraal en decentraal georganiseerd: je hebt de cloud, de productieomgeving. de apparaten van je mensen – en de applicaties die je nog moet ontwikkelen. Deze worden veelal beheerd vanuit op zijn minst een centraal beheersorgaan.’

Dat alles mag dan nu vanzelfsprekend zijn, in de toekomst hoeft dat niet meer zo te zijn. Willebrand wijst op de trend van edge computing, waarbij applicaties steeds vaker op data dichtbij de bron van de eindgebruiker leunen. ‘De applicaties zullen dan meer op het apparaat zelf draaien.’

Hoe flexibel is je datacenter?

Nu al hoor je steeds vaker dat modellen worden gebruikt op mobiele apparaten, zegt Willebrand. ‘Zo draait op een Google Phone al het eigen spraakherkenningsprogramma. Dat zelflerend model is in een datacenter op basis van reeds beschikbare data ingewerkt – dat heet pre-training. Vervolgens gebruikt het lokaal de rekenkracht van de telefoon om snel feedback te kunnen geven.’

Het flexibel houden van de data-applicaties is onder andere relevant voor de opzet van je data-infrastructuur, vindt Willebrand. ‘Wanneer je weet dat er binnenkort een grote decentralisatie plaatsvindt, wordt investeren in een datacenter minder aantrekkelijk voor dergelijke projecten. Zoek een model dat flexibel is, public of private, waarbij op- en afschalen makkelijk wordt gemaakt. Alleen zo houd je zelfs het ijzer aan de achterkant flexibel en bereid je de organisatie voor op de komende decentralisatiegolf.’

Dit artikel is onderdeel van het dossier ‘IT-security’ op mt.nl. Dit dossier wordt mogelijk gemaakt door Proact. Deze clouddienstverlener levert flexibele, toegankelijke en veilige IT-oplossingen en -diensten.

Lees ook: