Copyright All Rights Reserved © 2019 Salves

Leren van AI in de praktijk

Leren van AI in de praktijk
25 februari '19
  • Deel dit bericht
  • linkedin icon

Leren van AI in de praktijk

door Sander Mol

Hoe wordt AI vandaag de dag toegepast? En wat kunnen we daarvan leren? Dat zijn de vragen van deze blog, onderdeel van de serie die ik schreef na afloop van de fantastische World Summit AI in Amsterdam. Eerder schreef ik al over het vertrouwen in AI en over de vraag of AI voor iedereen is.

Praktische toepassingen tijdens presentaties

Er zijn genoeg conceptuele en ethische discussies te voeren over het gebruik van artificial intelligence, zoals beschreven in mijn vorige blog. Heel belangrijk natuurlijk en zeker zaken om rekening mee te houden, maar iedereen was er wel van overtuigd dat toepassen, ervaren in de praktijk en leren het belangrijkste is op dit moment. Gelukkig zijn er al heel wat bedrijven en organisaties die toepassingen kunnen laten zien.

De toepassingen heb ik voor het gemak in drie categorieën ingedeeld:

  • Het verbeteren van bedrijfsbeslissingen. Zo hebben ING en PGGM samen een tool gebouwd om met betere analyses beleggingsbeslissingen te nemen. Meer op portfolio niveau overigens, dus geen trading bots. Heineken gebruikt het om een betere voorspelling te doen van de vraag naar hun producten. Het Van Gogh museum pakt het heel anders aan, met een proef om via AI te analyseren hoe ze de flow langs de schilderijen konden optimaliseren.
  • Het verbeteren van de klantervaring. Nu.nl gaat, na een gewonnen hackaton, AI toevoegen aan de keuze om iemand een pushbericht te sturen. Dit bleek vele malen beter dan regelgestuurde pushberichten. Op dezelfde manier past Netflix via AI de aanbevelingen voor de volgende video aan. Niet alleen dat; ze passen ook het plaatje bij deze aanbeveling aan op basis van je profiel! Dus als je een film krijgt aangeraden op basis van je ‘avontuur’ profiel, zie je een ander plaatje dan wanneer je dezelfde film krijgt aangeraden op basis van je ‘familie’ profiel.
  • Vervangen van rollen en functies in een organisatie; een presentatie ging over het vervangen van leraren door AI. Blijkbaar gaf dit klinkende resultaten. Erg vernieuwend, maar tegelijkertijd ook beangstigend. Zou het opleiden, in ieder geval van kinderen en jongeren, niet altijd mensenwerk moeten zijn? Een mooie aanvulling op mijn vorige blog over ethiek.

Praktische problemen en oplossingen

Praktische toepassingen werden door één van de sprekers, een professor uiteraard, opgedeeld in drie vormen. Goed om bij ieder AI initiatief na te denken over de exacte vorm die je voor ogen hebt.

  •   Probeer ik met AI hetzelfde werk beter te doen?
  •   Probeer ik met AI nieuwe features toe te voegen aan een bestaand product?
  •   Probeer ik met AI een volledig nieuw product te maken?

In alle presentaties kwamen natuurlijk successen naar voren, maar was er ook ruimte om in te gaan op de obstakels die zijn overwonnen.

  • Inhoudelijk loopt vrijwel iedereen tegen het data-probleem aan. Veel data, zeker van langere tijd geleden, is vaak niet compleet, op z’n minst onbetrouwbaar en zeer slecht ‘zoekbaar’. Een groot deel zit verstopt in de eigen systemen. Dit kan dus niet breed worden gebruikt voor het maken en trainen van modellen. Wetgeving rond vertrouwelijkheid, hoe terecht ook, maakt het uiteraard niet makkelijker. Tenslotte is er nog een enigszins grappig data-probleem; iedereen vindt van zichzelf dat hij een ‘special case’ is. Men vindt het moeilijk om data te gebruiken van buiten de organisatie in de angst dat het te generiek wordt. Met als gevolg dat je met je eigen, niet-representatieve en soms te kleine dataset verkeerde conclusies trekt.
  • Het leren van AI. Zeker als het een zelfstandig onderzoekend systeem is, is het voor de AI moeilijk om aan te geven waar hij tegenaan loopt. In het geval van een robot soms letterlijk, tegen een dichte liftdeur. Voor een AI is het moeilijk om een hulpvraag te stellen. En deze hulpvraag in mensentaal stellen is nóg moeilijker.
  • Hoe stellen we vast dat AI goed genoeg is? Hier schreef ik ook al over in mijn allereerste Salves blog: AI geeft geen ja- of nee-antwoorden, maar vaak een antwoord met een zekerheid van ergens tussen 0% en 100%. De vraag is bij welk percentage je welke actie onderneemt. Je zou het liefst testen tegen een ‘golden standard’, maar die is er meestal niet. Ook mist AI voorlopig nog veel context. Er wordt wel gesproken over – wat ik zou noemen – een ‘common sense bot’ om tegen te controleren, maar dat is nog een utopie.
  • En dan hebben we het nog niet gehad over wetgeving, regulering, verplichte validatie van uitkomsten (zie het vorige blog) en het vrijspelen van de juiste budgetten.

Neemt de AI het over?

Het ging op de World Summit regelmatig over ‘Artificial General Intelligence’, robots die als een mens kunnen denken. Dit bestaat nog lang niet en zal misschien ook nooit bestaan. Maar unsupervised learning (zie de uitleg in de TestNet handleiding) wordt wel steeds groter en ontwikkelt per definitie ook sneller dan supervised learning. We zitten dan ook dicht bij een bijzondere tussenstap genaamd AutoML. Dit is een AI die (via ML, machine learning) zelf nadenkt hoe hij zichzelf het beste kan ontwerpen en trainen. Dit zou al in 2020 volwaardig kunnen bestaan. Overigens is het grappig dat één van de bedrijven die met AutoML is gestart (Alibaba), dit heeft gedaan omdat er niet genoeg Machine Learning specialisten waren!

En nu we het toch over werkgelegenheid hebben; het is sterk de vraag of het aantal banen door de komst van AI drastisch gaat afnemen. De auto-industrie, één van de eerste industrieën met grootschalige robotisering en AI, is met het aantal banen weer terug op het niveau van vóór de crisis in 2008. Dit is in aantal dus volledig hersteld. Wel is duidelijk dat het soort banen gaat veranderen en misschien is het voor ons werkgeluk zelfs positief, want de meer intelligente en mensgerichte banen blijven over. Zie hiervoor het einde van de presentatie van Kai-Fu Lee op TED, die ik in mijn vorige blog al stellig aanraadde.

Ook een mooie stelling, waar ik het absoluut mee eens ben: artificial intelligence moet in geen strategisch plan voor de toekomst zijn. Het moet simpelweg beter zijn dan het alternatief zonder AI. Om wat moeilijk vertaalbare termen te gebruiken; we begonnen in de AI wereld met ‘is het feasible’, toen ‘is het sustainable’, daarna ‘is het acceptable’ en uiteindelijk dus ‘is het preferable’.