Wat doen uw data nu?

Leestijd: 16 minuten
0
(0)

Actuele trends in de wereld van data

Je hebt vast wel gemerkt dat de data-economie alvast is begonnen. Über bestaat nog maar 12 jaar en is nu al het grootste taxi bedrijf ter wereld. En er staan zowaar geen auto’s op de balans! Hetzelfde geldt voor Booking.com en airbnb: geen eigen hotels, maar wel groter dan Marriot en Hilton samen. En waar een taxi te regelen is, kan met über-eats in een handomdraai een pizza aan je deur worden bezorgd. Data is immers gewoon data en de tech-reuzen begrijpen dat data de schakels vormend in de waardeketen. 

Smart home, Internet of things, sociale media, mobiele applicaties en andere technologieën genereren een ongekende hoeveelheid data. Ondanks het potentieel om waarde te ontsluiten en grote maatschappelijke uitdagingen aan te pakken, hebben data van zichzelf weinig waarde. Net als bij ruwe olie in de raffinaderij, worden data pas waardevol wanneer deze worden omgezet in inzichten, applicaties en services. Hoewel dit proces zich vaak binnen individuele bedrijven afspeelt, maken nieuwe toepassingen en technologieën plaats voor een nieuw soort waardekringloop, die zich over organisaties heen uitstrekt. De economie, waarbij data de nieuwe olie zijn.

En waar staan jullie in de data-economie? Lukt het een beetje met de ambities rondom data? Is het gelukt om het data-platform te moderniseren met de cloud als uitgangspunt? Lees je met vertrouwen Gartners’s hype cycles en vul je de data maturity check van Deloitte of Forrester verwachtingsvol in? Nou ja, de ene is de ander niet en ambities zijn niet overal gelijk. Maar voor alle bedrijven zou moeten gelden dat ze weten waar ze staan in de ontwikkeling van de meest waardevolle asset van dit moment: data. 

Lees dit artikel vooral als een checklist. Het geeft voor jezelf namelijk een beeld van de algehele datavolwassenheid van jouw organisatie. Je kan het woord volwassen letterlijk nemen: heb je de meeste groeistoornissen achter je gelaten in de data-gedreven strategie? Volwassenheid betekent dat de meest voorkomende fouten zich niet meer voordoen en dat de organisatie zich ten volle ontplooit en dat talenten met betrekking tot data helemaal gebruikt worden om resultaat te boeken. 

Even een paar jaar terug in de tijd. Wat ieder keer terugkwam in de bespreking van trends, waren adviezen om je data-platform vooral te moderniseren met drie basisprincipes als uitgangspunt: het data-platform van de toekomst, dat is dus nu, is intelligenter. Het biedt met andere woorden mogelijkheden voor advanced analytics en machine learning. Daarnaast moest het platform opkomende technologieën kunnen omarmen, waarbij toekomstbestendigheid vooral voortkwam uit concurrentievoordeel van strategische partners. Tenslotte werd geadviseerd om vooral te kiezen voor schaalbare oplossingen, omdat het vooral in de hoek van data kan uitdijen en vastlopen. Deze basisprincipes, intelligent, opkomend en schaalbaar, gelden nog steeds. 

Een aantal zaken wordt niet behandeld, omdat deze verondersteld worden al ingevuld te zijn en als vanzelfsprekend gelden. De agile manier van werken bijvoorbeeld, met het daaruit voortkomende iteratief ontwikkelproces. En ook de snelheid waarmee gereageerd wordt op veranderingen in de markt en de eerder genoemde data-centric architectuur zullen niet in dit artikel behandeld worden. 

Om het eenvoudig te houden, kunnen we hier onderscheid maken in trends die nog veraf zijn en binnen handbereik, met de volgende insteek:

  • Actuele trends. Dat zijn ontwikkelingen die nu relevant zijn.  Gartner plot deze aan het einde van de hype cycle, dus die de fase van desillusie achter zich laten: slope of enlightenment en plateau of productivity
  • Verwachtingsvolle trends. In de IT wereld worden deze ontwikkelingen veel ter sprake gebracht (vooral door consultants) en verwachtingen over de technologie is volledige opgeblazen. Het is nog te vroeg om van succes of teleurstelling te spreken, dus het kan nog alle kanten op gaan. 
  • Innovatief. Spreekt voor zich. Is nog in een prille, experimentele fase en klinkt nog als toekomstmuziek.

In dit artikel lees je vooral de eerste categorie, omdat hiervoor al use cases bekend zijn. Dit betekent niet dat alle behandelde trends voor iedere organisatie even relevant. 

Actuele trends in

  1. Analytics and Business Intelligence
  2. Data Science and Machine Learning
  3. Data Management

1 – Analytics and Business Intelligence

Data and Analytics Services

Bij Data and Analytics Services gaat het om het volledig outsourcen van de dienst en het platform die het mogelijk maken om bedrijfsbeslissingen te nemen, analyses te maken en de organisatie te voorzien in informatie. Advies, implementatie en beheer van dienst en platform worden uitgevoerd op een technologieplatform dat de op feiten gebaseerde besluitvorming van een organisatie ondersteunt. Totaaloplossingen bevatten competenties op het gebied van informatieanalyse en informatiemanagement, met commerciële kant-en-klare en bedrijfseigen middelen. Oplossingen voor informatieanalyse zijn gericht op use cases en resultaten; informatiemanagement-oplossingen zijn gericht op informatie-infrastructuur en governance. Vergelijking van aanbieders

Logical Data Warehouse

Een logisch data warehouse (LDW) wordt meestal gedefinieerd als een architectuurlaag die bovenop de bestaande data van het data warehouse rust en het mogelijk maakt om gegevens te bekijken zonder zonder dat de data omgezet of verplaatst hoeft te worden. Verschillende data warehouses uit eerdere fusies kunnen met een LDW samengevoegd worden, alsof het één is. 

Location Intelligence

Location Intelligence is de informatie afgeleid van geodata, visueel in kaart gebracht door data ruimtelijk en chronologisch in lagen te zetten. Location Intelligence wordt vaak geassocieerd met business intelligence, maar is breed toepasbaar geworden in veel verschillende industrieën en segmenten om een verscheidenheid aan problemen op te lossen, ook binnen de publieke sector.

Locatie-intelligentiegegevens bieden bedrijven in verschillende sectoren en overheden waardevolle inzichten. De schaal waarmee locatiegegevens beschikbaar komen breidt zich zeer snel uit vanwege het toenemende aantal locatie bewuste consumentenapparaten, IoT-verbonden apparaten en telematica gegevens. Dit gaat zo snel, dat het erop lijkt dat bestaande tools voor het analyseren van locatie- en GIS data achterop raken. Er wordt onderscheid gemaakt in outdoor en indoor Location Intelligence.

Social Analytics

Sociale Analytics is het proces van het verzamelen, meten, analyseren en interpreteren van de resultaten van interacties en relaties tussen mensen, onderwerpen en ideeën uit social media bronnen. Sociale Analytics wordt steeds meer een markt van diensten: het onderzoeken van oplossingen voor sociale analyse, waaronder social filtering, tekstanalyse, sentiment analyse, beeldanalyse en openbare social media analyses. 

Cloud Analytics

Cloud Analytics is het proces waarbij gegevens in de cloud worden opgeslagen, geanalyseerd en worden gebruikt om bruikbare zakelijke inzichten te verkrijgen. Net als bij gegevensanalyse op locatie, worden algoritmen voor cloud analyse toegepast op grote gegevensverzamelingen om patronen te identificeren, toekomstige resultaten te voorspellen en andere informatie te produceren die zakelijke beslissingen versterken. Ook de tools die nodig zijn bij data analytics worden aangeboden vanuit de cloud, zoals bijvoorbeeld het maken van een virtual machine en het runnen van je Jupyter notebook in Google Cloud.

Wat verder gelden als verwachtingsvolle ontwikkelingen met betrekking tot Analytics and Business Intelligence, zijn Embedded Analytics , Data and Analytics Governance, Natural Language Query, Prescriptive Analytics, Explainable AI en Digital Ethics. Het is nog wat onzeker of deze zich door gaan zetten of in andere vorm terugkomen. Wellicht kan ik daar bij een volgende gelegenheid aandacht aan besteden.

2 – Data Science and Machine Learning

Predictive Analytics

Predictive analytics is datamining met de volgende kenmerken: de nadruk ligt op voorspelling (in plaats van beschrijving, classificatie of clustering). Verder gaat het om een snelle analyse, eerder in uren of dagen in plaats van de maanden die normaal nodig zijn. Ten derde ligt de nadruk op de zakelijke toepassing van de resultaten. En tenslotte ligt de nadruk bij Predictive Analytics steeds meer op gebruiksgemak, waardoor de tools toegankelijk worden voor gebruikers.

Text Analytics

Bij Text Analytics worden grote hoeveelheden ongestructureerde tekst vertaald naar kwantitatieve gegevens om inzichten, trends en patronen te ontdekken. In combinatie met data visualisatie tools stelt deze techniek bedrijven in staat het verhaal achter de cijfers te begrijpen en betere beslissingen te nemen.

In-DBMS Analytics

In-DBMS Analytics verwijst naar een principe waarbij gegevensverwerking wordt uitgevoerd binnen een database om de overhead van het verplaatsen van grote gegevenssets naar analytische toepassingen te elimineren. In zo’n model is de analytische logica ingebouwd in een database in plaats van in een aparte applicatie.

Event Stream Processing

Event Stream Processing, of ESP, is een reeks technologieën die is ontworpen om een verzameling gebeurtenissen (events) in informatiesystemen te ondersteunen. Analyses worden nu gedaan op datapunten, maar vergelijkbare analyses kunnen gedaan worden op data stromen. ESP-technologieën omvatten gebeurtenis visualisatie, gebeurtenis databases, gebeurtenis gestuurde middleware en gebeurtenis verwerkingstalen, of complex event processing (CEP). In de praktijk worden de termen ESP en CEP vaak door elkaar gebruikt. ESP houdt zich bezig met het verwerken van stromen van gebeurtenis gegevens met als doel het identificeren van het betekenisvolle patroon binnen die stromen, gebruikmakend van technieken zoals detectie van relaties tussen meerdere gebeurtenissen, gebeurtenis correlatie, gebeurtenis hiërarchieën en andere aspecten zoals causaliteit, relaties en timing.

Advanced Image / Video Analytics

Advanced Image of Video Analytics is een technologie die een digitaal beeld- of videosignaal verwerkt met behulp van een speciaal algoritme om een functie voor veiligheid erop  uit te voeren, bv voor beveiliging voor een zelfsturend voertuig. 

Wat verder gelden als verwachtingsvolle ontwikkelingen met betrekking tot Data Science en Machine Learning, zijn Data Labeling and Annotation Services, Citizen Data Science, Augmented DSML, Deep Learning, ML Ops, Explainable AI. Het is nog wat onzeker of deze zich door gaan zetten of in andere vorm terugkomen. Wellicht kan ik daar bij een volgende artikel aandacht aan besteden.

3 – Data Management

Stevig fundament voor ethiek, beveiliging en privacy

Terwijl we de mogelijkheden van data-gestuurde besluitvorming en de ontwikkeling van innovatieve technologieën verkennen, mogen de cruciale aspecten van ethiek, beveiliging en privacy niet uit het oog verloren worden. Deze elementen vormen de basis van vertrouwen en integriteit binnen de data-economie en zijn onmisbaar voor duurzaam succes.

Ethische Overwegingen: data-ethiek gaat over het juist handelen in de context van het verzamelen, verwerken en gebruiken van data. Dit betekent dat organisaties transparant moeten zijn over hun datapraktijken, inclusief hoe data wordt verzameld, gebruikt en gedeeld. Het is essentieel dat beslissingen die genomen worden op basis van data-analyse eerlijk, onpartijdig en vrij van vooroordelen zijn. Organisaties dienen ethische richtlijnen te ontwikkelen en te implementeren die rekening houden met de impact van hun datagebruik op individuen en de samenleving als geheel.

Beveiligingsmaatregelen: data-security is een ander kritiek aspect dat organisaties moeten adresseren. Naarmate de hoeveelheid verzamelde en opgeslagen data groeit, worden ook de risico’s op datalekken en cyberaanvallen groter. Het implementeren van robuuste beveiligingsmaatregelen, zoals encryptie, toegangscontrole en regelmatige security audits, is cruciaal om de integriteit en vertrouwelijkheid van data te waarborgen. Organisaties moeten een proactieve aanpak hanteren in het beveiligen van hun data en voorbereid zijn op potentiële bedreigingen.

Privacybescherming: privacy is een fundamenteel recht en het beschermen ervan in de data-economie is van het grootste belang. Dit vereist dat organisaties voldoen aan wet- en regelgeving zoals de Algemene Verordening Gegevensbescherming (AVG) in de Europese Unie. Het waarborgen van de privacy van individuen omvat het minimaliseren van datacollectie, het verkrijgen van toestemming voor het gebruik van persoonsgegevens, en het bieden van transparantie over hoe deze gegevens worden gebruikt. Privacy by design moet een kernprincipe zijn in de ontwikkeling van nieuwe producten en diensten.

Integratie in de Datastrategie: de integratie van ethische, security en privacy overwegingen in de datastrategie van een organisatie is geen eenmalige actie maar een continu proces. Dit vereist een cultuur waarin deze waarden worden erkend en omarmd op alle niveaus van de organisatie. Het trainen van medewerkers, het regelmatig bijwerken van beleid en procedures en het betrekken van stakeholders zijn allemaal essentiële stappen in het handhaven van ethische normen en het beschermen van data.

Door ethiek, beveiliging en privacy te verankeren in de kern van de datastrategie, kunnen organisaties niet alleen risico’s minimaliseren, maar ook hun reputatie versterken en vertrouwen opbouwen bij klanten en partners. Dit is een essentiële investering in de toekomst van elke gegevensgestuurde organisatie.

In-Memory Data Grids

Een in-memory data grid (IMDG) is een set van op netwerk gebaseerde of geclusterde computers die hun RAM (Random Access Memory) bundelen om applicaties gegevens te laten delen met andere applicaties die in het cluster worden uitgevoerd. IMDG’s zijn gebouwd voor gegevensverwerking met extreem hoge snelheden.

Data Virtualisation

Data Virtualisation is een benadering van gegevensbeheer waarmee een toepassing gegevens kan ophalen en manipuleren zonder dat technische details over de gegevens nodig zijn, zoals hoe deze bij de bron zijn geformatteerd of waar ze zich fysiek bevinden en die een enkel klantbeeld (of enkele weergave van een andere entiteit) van de algemene gegevens.

Content Migration

Steeds meer gegevens zijn opgeslagen in allerlei content management omgevingen. Content Migration is het proces van het verplaatsen van informatie die is opgeslagen in een bepaald systeem naar een nieuw systeem. Content Migration maakt consolidatie mogelijk in de gegevens laag, zonder verandering in de presentatie van de informatie.

Wide Column DBMS

Een database met brede kolommen wordt ook een NoSQL-database genoemd. Deze vorm van gegevensopslag organiseert in flexibele kolommen die kunnen worden verspreid over meerdere servers of databases. Gegevens worden tweedimensionaal opgeslagen, maar multidimensionale toegewezen afhankelijk van kolom, rij of tijdstempel. Er worden geen relaties gedefinieerd en enige mate van gegevensredundantie wordt geaccepteerd, ten gunste van de snelheid. Het gaat bij Wide Column DBMS eigenlijk over een wederopleving van een bestaande techniek dan over een nieuwe technologie, want bijna alle transactionele gegevens op mainframes worden al verzorgt met behulp van IBM’s IMS in combinatie met CICS. Dit is Wide Column DBMS. Vergeleken met een relationele DBMS, is een DBMS op basis van wide column razendsnel. Bovendien is een Wide Column DBMS gemakkelijker om gedistribueerd neer te zetten. 

Multimodel DBMS

De meeste database beheersystemen zijn georganiseerd rond één enkel gegevensmodel dat bepaalt hoe gegevens kunnen worden georganiseerd, opgeslagen en gemanipuleerd. Multimodel DBMS maakt het mogelijk om gegevens te beheren over meerdere modellen heen en zelfs over modellen met verschillende opslag principes, zoals het combineren van relationele DBMS met Wide Column DBMS. 

iPaaS for Data Integration

Integration Platform as a Service (iPaaS) is een moderne applicatie-integratieoplossing die gebruik maakt van belangrijke data-integratieconcepten. Met iPaaS kun je niet alleen meerdere applicaties integreren, maar ook de gegevenskwaliteit manipuleren, verbeteren en valideren terwijl gegevens worden verplaatst. iPaaS biedt een volledig beheerde service met continue, automatische systeemupdates in de cloud en maakt handmatige upgrades en onderhoud van software overbodig. In een multicloud-wereld kiezen data gedreven organisaties steeds vaker een robuuste iPaaS die elk type gebruiker, elke data, elke app en elk integratiepatroon kan ondersteunen voor maximale flexibiliteit en schaalbaarheid.

Data Integration Tools

Simpel gezegd, is Data Integration een proces waarbij gegevens vanuit verschillende bronnen naar één enkele bestemming worden gebracht. En vanuit deze ene plek worden zinvolle inzichten verzameld. Verzamelde gegevens worden zodanig geïntegreerd, dat de gegevens zelf alomvattend, betrouwbaar, correct en actueel zijn. Kortom, alles staat klaar voor bedrijfsanalyse en rapportage. Integratie van data ten behoeve van bedrijfsapplicaties bestaat al langer (data landing zone), maar de trend is om dit ook voor (advanced) analytics toe te passen. Staat ook bekend als Integration Data Hub.

Data Preparation Tools

Eerder maakte ik de vergelijking met olie. Data moet om verschillende redenen voorbereid worden, noem het “raffineren”, voordat zij business waarde toevoegen. Natuurlijk moeten de inzichten correct zijn, dus data moeten accuraat zijn en voorbereid worden op reporting. En steeds vaker zullen machine learning modellen de business bepalen. En machine learning moet gedegen voorbereid worden. We noemen dit proces Exploratory Data Analysis (EDA). Tools voor gegevensvoorbereiding zijn softwareproducten waarmee organisaties hun gegevens kunnen consolideren, verwerken, standaardiseren en verrijken. Ze stellen je in staat om je rommelige, ongeorganiseerde gegevens te gebruiken en om te zetten in iets bruikbaars.

Time Series DBMS

Een Time Series data base (TSDB) is een DBMS dat is geoptimaliseerd voor het opslaan en weergeven van tijdreeksen door middel van tijd(en) en waarde(n) waar een logisch verband tussen zit. In sommige velden kunnen tijdreeksen profielen, curven, sporen of trends worden genoemd. 

Perfect Storm

Als eindopdracht in mijn certificering voor Data Analytics heb ik met time series de basis gelegd voor een machine learning model voor het toetsen van sluiting van de stormvloed keringen. Time series heb ik gerealiseerd met dataframe/pandas in python. Resultaat van de eindopdracht was best-in-class en interesse vanuit Rijkswaterstaat.

René Jansen

Certified Data Analyst

SQL Interface to Object Stores

Technisch is het mogelijk om grote objecten, zoals video’s of tekeningen op te slaan in een relationele database. We noemen dat een BLOB (Binary Large Object). Het opslaan van gegevens in een DBMS is relatief duur. De kosten zijn niet te overzien met grote hoeveelheden objecten die we willen kunnen benaderen nu en in de toekomst. Een uitkomst is dat de objecten buiten de warehouse worden opgeslagen en via SQL benaderbaar zijn. Dit wordt helder uitgelegd in een video van IBM.

Data Classification

Data Classification is het proces van het analyseren van gestructureerde of ongestructureerde gegevens en het organiseren ervan in categorieën op basis van bestandstype, inhoud en andere metagegevens. Gegevensclassificatie helpt organisaties bij het beantwoorden van belangrijke vragen over hun gegevens die informeren over hoe zij risico’s beperken en hoe gegevensbeheer geregeld wordt. Dataclassificatie is vaak de eerste stap in een strategie voor (data) beveiliging. 

Master Data Management

Master data management (MDM) is ontstaan uit de noodzaak voor bedrijven om de consistentie en kwaliteit van hun belangrijkste data-assets, zoals productgegevens, asset-, klant- en locatiegegevens te verbeteren. Hoe meer systemen er zijn, waarin gegevens opgeslagen worden, des te meer mogelijkheden om gegevens te interpreteren. Op sommige basisvragen is dan moeilijk antwoord te krijgen, zoals “wie zijn onze meest winstgevende klanten?”, “welk product(en) hebben de beste marges?” of zelfs, “hoeveel werknemers hebben we”? Een data catalog maakt meestal onderdeel uit van MDM.

Data Lakes

Een data lake is een plaats om je gestructureerde en ongestructureerde gegevens op te slaan, evenals een methode om grote hoeveelheden zeer diverse gegevens uit verschillende bronnen te organiseren. Het kan veel gegevensstructuren aan, zoals ongestructureerde en (multi)gestructureerde gegevens, en het kan je helpen waarde uit de gegevens te halen. “Data lake” wordt te pas en te onpas gebruikt en vaak verward met data warehouse. Het belangrijkste verschil tussen een data lake en een data warehouse, is dat het data lake de neiging heeft om gegevens zeer snel op te nemen en later voor te bereiden als mensen er toegang toe hebben. Bij een data warehouse daarentegen bereid je de data vooraf heel zorgvuldig voor voordat je ze ooit in het data warehouse binnenlaat. In dit kader kunnen we “Lakehouse” nog noemen: een moderne architectuur die de voordelen van een data lake en een data warehouse combineert in één platform.

Blockchain

Blockchain-technologie als platform maakt het mogelijk om een gedistribueerd en gerepliceerd een register van transacties te bij te houden. Blockchain biedt garanties en veiligheid dat er niet geknoeid wordt met de gegevens die worden gegenereerd uit verschillende processen. Dit wordt extra belangrijk wanneer de de hoeveelheid gegevens groeit en niet meer (veilig) beheerd kan worden door mensen. 

Augmented Data Management

Augmented Data Management is de toepassing van AI om datamanagement taken te verbeteren of te automatiseren. Het heeft de mogelijkheid om data teams te ondersteunen met tijdrovende en data-intensieve taken die normaal gesproken handmatig zouden kunnen worden uitgevoerd. Voorbeelden zijn het opsporen van onregelmatigheden in grote datasets, het oplossen van problemen met de gegevenskwaliteit en het terug herleiden van specifieke gegevens uit een rapport naar de oorsprong ervan. AI-modellen zijn geavanceerder en specifiek ontworpen voor het uitvoeren van deze gegevensbeheer taken en nemen vaak minder tijd in beslag, maken minder fouten en kosten op de lange termijn minder. Het is logisch om zware databeheer over te laten aan AI.

Graph DBMS

In de wiskunde bestaat de theorie van graph. Het stelt een structuur voor die neerkomt op een reeks objecten waarin sommige paren van de objecten in zekere zin “gerelateerd” zijn. Graph databases lijken op netwerk model databases uit de jaren 70, maar dan geavanceerder. De gegevensopslag bij Graph DBMS concentreert zich op de relatie tussen entiteiten, in plaats van de entiteiten zelf. Een voorbeeld is het uitlezen en opslaan van netwerk nodes. 

Augmented Data Cataloging and Metadata Management

Een Augmented Data Cataloging is cruciaal voor alle datagedreven organisaties. Volgens Gartner, die de term heeft bedacht, is een augmented data-catalogus een datacatalogus die machine learning gebruikt om de handmatige taken te automatiseren die nodig zijn bij het catalogiseren van data, waaronder het analyseren, opnemen, categoriseren, beheren en verrijken van metadata. Augmented Data Cataloging is in de toekomst een must have voor professionals in data analytics.

Data Engineering

Data-engineering is de praktijk van het ontwerpen en bouwen van systemen voor het verzamelen, opslaan en analyseren van gegevens op grote schaal. Het is een breed vakgebied met toepassingen in zowat elke branche. Terreinen als machine learning en deep learning kunnen niet slagen zonder data-engineers om die gegevens te verwerken en te kanaliseren.

Wat verder gelden als verwachtingsvolle ontwikkelingen met betrekking tot Data Management, zijn Augmented Transactions, Application Data Management, File Analysis, Data Hub Strategy, Data Fabric, Private Cloud dbPaaS, Ledger DBMS, Distributed Transaction Databases. Het is nog wat onzeker of deze zich door gaan zetten of in andere vorm terugkomen. Wellicht kan ik daar bij een volgende artikel aandacht aan besteden.

Conclusie

Bij het schrijven van dit artikel heb ik zo compleet mogelijk willen zijn in het weergeven van alle ontwikkelingen in het werkveld van data, ongeacht of ze al aan de voordeur aankloppen of dat ze nog in experimentele fase zitten.

De conclusie is eigenlijk aan jezelf. Waar staat jullie organisatie op het gebied van data? Zijn nieuwe zaken gemakkelijk van de grond te krijgen? Waar had je willen staan en bij het ontwikkelingen en: wat is op dit moment reëel voor jullie organisatie? Zonder meer vraagt de aard van jullie organisatie op welke trend je inzet. Als bijvoorbeeld het data team van een nutsbedrijf nog niet bezig is met Location Intelligence, kan mag je je wel achter de oren krabben. Of is het nog fundamenteler: wat is voor de organisatie op dit moment haalbaar?

Wat ik persoonlijk een goede maatstaf vind, is de mate waarin nieuwe zaken opgemerkt worden en ingezet. Wordt het snel gesponsord en makkelijk geadopteerd? Zijn er kleine succesjes zichtbaar? Dat geeft eigenlijk een goed beeld en snijdt meer hout dan het afvinken van bovenstaande zaken: “been there, done that – got the t-shirt!”

Hoe nuttig vond je dit artikel?

Beoordeel het met de sterren!

Gemiddelde beoordeling 0 / 5. Aantal stemmen: 0

Nog geen stemmen! Beoordeel dit artikel als eerste.

Aangezien je dit artikel nuttig vond ...

Volg mij op LinkedIn!

Wat jammer dat dit artikel niet nuttig was voor jou!

Laten we samen dit artikel verbeteren!

Hoe kan ik dit artikel verbeteren?

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *