Computable.nl
  • Thema’s
    • Carrière
    • Innovatie & Transformatie
    • Cloud & Infrastructuur
    • Data & AI
    • Governance & Privacy
    • Security & Awareness
    • Software & Development
    • Werkplek & Beheer
  • Sectoren
    • Channel
    • Financiële dienstverlening
    • Logistiek
    • Onderwijs
    • Overheid
    • Zorg
  • Awards
    • Overzicht
    • Nieuws
    • Winnaars
    • Partner worden
  • Vacatures
    • Vacatures bekijken
    • Vacatures plaatsen
  • Bedrijven
    • Profielen
    • Producten & Diensten
  • Kennisbank
  • Magazine
  • Nieuwsbrief

Data post mortem

Data driven
14 januari 2020 - 11:583 minuten leestijdOpinieInnovatie & Transformatie
Gijs in ‘t Veld
Gijs in ‘t Veld

Datagedreven werken is voor de meeste organisaties iets wat op de roadmap staat. Meer en meer kunnen sturen op data, waarbij het kunnen voorspellen van toekomstige scenario’s en het kunnen voorschrijven welke acties moeten worden ondernomen om bepaalde doelstellingen te bereiken de heilige graal is.

Om dit te kunnen bewerkstelligen is het verzamelen van zo veel mogelijk data niet het enige wat er moet gebeuren. Bij veel organisaties is datakwaliteit een probleem. Dit wordt met name veroorzaakt door bronapplicaties met een niet optimale user experience, zodat vaak verkeerde, verkeerd geformatteerde of niet complete informatie in databases terechtkomt. Dit soort problemen kunnen of beter gezegd, zouden eigenlijk niet in een dataplatform opgelost worden. Wat een dataplatform wel kan doen, is rapporteren over de datakwaliteit, en de trends in datakwaliteit. Zodat vervolgens de eigenaren van de bronapplicaties actie kunnen ondernemen en zo langzamerhand de kwaliteit kunnen verbeteren en zo de informatie die uit de data kan worden gehaald steeds betrouwbaarder wordt.

Gebrek aan datakwaliteit is het grootste issue als het gaat om betrouwbare voorspellingen kunnen doen. Bij het analyseren van, en rapporteren over datakwaliteit kan al prima gebruik worden gemaakt van de AI mogelijkheden in het dataplatform. Zo wordt datakwaliteit steeds beter inzichtelijk en kost het ook minder moeite om het te analyseren.

Fail fast?

Belangrijk is ook om te kunnen leren van het falen van data gerelateerde projecten. Als het gaat om data science is het lastig om dit snel te kunnen doen. De ervaring leert dat data science erg arbeidsintensief is, veel experimenteren vereist en dat het dus lang kan duren alvorens er enige resultaten beschikbaar komen. En die resultaten kunnen (enorm) tegenvallen.

Het kan dus betekenen dat er een streep wordt getrokken door zo’n project. En dat doe je het liefst zo snel mogelijk, zodat het zo min mogelijk geld kost. Het is ook moeilijk om van te voren een business case te bedenken. En opdrachten die als uitgangspunt hebben ‘hier heb je een berg data, ga eens kijken of je er iets interessants in kunt vinden’ zijn natuurlijk helemaal onzeker. Het is dus belangrijk dat dit soort trajecten voor het nageslacht goed worden vastgelegd om toekomstige trajecten van betere input te kunnen voorzien.

Leren van anderen?

De afgelopen jaren zijn er met name in de retail aardig wat faillissementen geweest. Denk aan V&D, Hudson’s Bay, Coolcat, Intertoys, et cetera. Ik weet niet waar de data blijft die die organisaties over de jaren hebben verzameld, maar dit lijkt mij een aardige bron van informatie. Waar veel organisaties van kunnen leren als het gaat om verkeerde keuzes voorkomen.

Bij deze een oproep: Kunnen we de data die die organisaties hebben verzameld, als onderdeel van de afhandeling van het faillissement door de curator publiekelijk beschikbaar maken? Als open data? Zodat iedereen er van kan leren om daarmee de kans op volgende mislukkingen te voorkomen?

Meer over

DatabasesFaillissementenKunstmatige intelligentie

Deel

    Inschrijven nieuwsbrief Computable

    Door te klikken op inschrijven geef je toestemming aan Jaarbeurs B.V. om je naam en e-mailadres te verwerken voor het verzenden van een of meer mailings namens Computable. Je kunt je toestemming te allen tijde intrekken via de af­meld­func­tie in de nieuwsbrief.
    Wil je weten hoe Jaarbeurs B.V. omgaat met jouw per­soons­ge­ge­vens? Klik dan hier voor ons privacy statement.

    Whitepapers

    Computable.nl

    Innovatie in uitvoering: industrieel bouwen

    Wees voorbereid op de bouwplaats van de toekomst.

    Computable.nl

    Agentic AI in actie

    De stappen van automatiseren naar écht autonoom werken. Welke toepassingen zijn succesvol?

    Computable.nl

    Slimme connectiviteit: de toekomst van bouwen

    Hoe stoom jij jouw organisatie in de bouw en installatie sector klaar voor de digitale toekomst?

    Eén reactie op “Data post mortem”

    1. Een oudlid schreef:
      16 januari 2020 om 10:42

      Gijs,
      De voornaamste taak van de curator is het liquideren van de onderneming en het verzamelen van zoveel mogelijk geld waarmee de vorderingen van de schuldeisers kunnen worden voldaan. Data is een belangrijke asset en met regelmaat wordt deze verkocht. Le roi est mort, vive le roi want de klant is koning en klantenbestanden hebben een duidelijke waarde, deze immateriële vaste activa is volgens artikel 2:365 BW bekend als goodwill maar kan dus ook uit slimme algoritmen bestaan. Een verdamping van de goodwill door deze als open data aan te bieden zou dan ook weleens onrechtmatig kunnen zijn.

      “Hier heb je een berg data, ga eens kijken of je er iets interessants in kunt vinden”

      Een in de ramsj verkregen klantenbestand biedt potentie voor een direct marketing campagne maar de vraag is of dit gezien veranderende privacywetgeving ook nog rechtmatig is, de Autoriteit Persoonsgegevens heeft hier een uitspraak over gedaan.

      Login om te reageren

    Geef een reactie Reactie annuleren

    Je moet ingelogd zijn op om een reactie te plaatsen.

    Populaire berichten

    Meer artikelen

    Uitgelicht

    Partnerartikel
    AdvertorialData & AI

    AI in softwaretesten: tussen belofte e...

    De opkomst van kunstmatige intelligentie (AI) wekte hoge verwachtingen in de wereld van softwaretesten. Zelflerende testsuites, automatisch gegenereerde testgevallen en...

    Meer persberichten

    Meer lezen

    Fred Streefland
    Awards NieuwsInnovatie & Transformatie

    Cyber Resilience: de randvoorwaarde voor elke business

    AchtergrondData & AI

    Intelligentie op de plek waar het ontstaat

    ActueelData & AI

    Kort: 100 miljoen voor Nederlandse ai, down under investeert ook (en meer)

    ActueelCloud & Infrastructuur

    Navo moderniseert it-infrastructuur met Oracle en Thales

    OpinieInnovatie & Transformatie

    ASMI, de stille kracht achter chip van morgen

    Groei
    ActueelInnovatie & Transformatie

    ING: it-dienstensector groeit licht harder dan economie

    ...

    Footer

    Direct naar

    • Carrièretests
    • Kennisbank
    • Planning
    • Computable Awards
    • Magazine
    • Ontvang Computable e-Magazine
    • Cybersec e-Magazine
    • Topics
    • Phishing
    • Ransomware
    • NEN 7510

    Producten

    • Adverteren en meer…
    • Jouw Producten en Bedrijfsprofiel
    • Whitepapers & Leads
    • Vacatures & Employer Branding
    • Persberichten

    Contact

    • Colofon
    • Computable en de AVG
    • Service & contact
    • Inschrijven nieuwsbrief
    • Inlog

    Social

    • Facebook
    • X
    • LinkedIn
    • YouTube
    • Instagram
    © 2025 Jaarbeurs
    • Disclaimer
    • Gebruikersvoorwaarden
    • Privacy statement
    Computable.nl is een product van Jaarbeurs