Bekijk profielpagina

Flipping AI-burgers; verfijnd, gevarieerd en verantwoord voor iedereen

Flipping AI-burgers; verfijnd, gevarieerd en verantwoord voor iedereen
Door Laurens Vreekamp • Editie #47 • Bekijk online
Hi lezer 👋,
Verantwoord omgaan met AI. Wat houdt dat in, in hemelsnaam?! Het antwoord dat je krijgt is nogal afhankelijk van wie je het vraagt.
De aankomende weken vraag ik het daarom zoveel mogelijk mensen. Ook jou, mijn bovenmatig geïnteresseerde en doorgaans goed ingevoerde lezer ❤️. Be prepared!
Deze week…
Krijg je een inkijkje in de praktijk van de eerste van drie AI'ers die zijn uitgenodigd als gast bij ‘AI for Good #2’. Het zijn Dasha Simons, Oumaima Hajri en David Graus.
Zij tonen op maandagavond 31 oktober in Felix Meritis te Amsterdam hoe ze werken aan verantwoorde AI-toepassingen. Hoe dat zoal bij IBM, Randstad en de Publieke Omroep gaat. Ook geven ze voorbeelden van elders, delen ze hun verdere ideeën en gedachten over verantwoorde AI en beantwoorden ze jouw vragen.
🎁 Extra'tjes
Je krijgt daarnaast ook een tool getipt genaamd IAMA en een link naar een interview met de positief gestemde AI-wetenschapper Sennay Ghebreab.
📢 Oproep aan jou, lezer.
Alledrie de gasten benutten al tools, richtlijnen, checklists en ontwerpmethodes. Ik ga ze verzamelen in een handig lijstje, zodat iedereen ze kan gebruiken. Gebruik (of ken) jij zelf een handige tool of link? Deel ‘m door te reply'en op deze mail.
Veel plezier, m'n waarde AI-burger. Leestijd 3 minuten
Groeten, Laurens.

David Graus en de positieve impact van AI
David Graus
David Graus
‘Als ik nu moet kiezen wat een ambtenaar die algoritmen inzet moet bijleren, zou ik hem eerder een training aanraden in transparantie, verantwoording, uitlegbaarheid en eerlijkheid, dan een technische cursus. Om die waarden in AI te vertalen, heb je eerst mensen nodig die die waarden aanhangen en uitdragen.’
Het is geen uitspraak van David Graus zelf, maar eentje waarop hij me wees toen ik hem eerder deze week sprak. Het citaat komt uit een interview met informaticus Sennay Ghebreab, die werkt aan de Universiteit van Amsterdam (de Volkskrant, 30 september).
Van reactief en slachtoffer naar pro-actief met impact
Zowel Ghebreab als Graus zijn het erover eens dat burgers een grotere rol moeten krijgen (en ook hun eigen verantwoordelijkheid moeten nemen) bij het ontwikkelen, beoordelen en benutten van AI-toepassingen. Je zou het de AI-burger kunnen noemen.
CV
David Graus werkt als lead data scientist bij Randstad Groep Nederland, waar hij AI onder meer inzet voor het samenbrengen van werk en werkzoekenden.
Daarnaast is David bestuurslid van SETUP, het platform voor een technologie-kritische samenleving. Hij is gepromoveerd in zoekmachinetechnologie aan de Universiteit van Amsterdam in 2017, waar hij onderzoek deed naar computationele methoden voor geautomatiseerde verwerking van grootschalige tekstuele digitale sporen. Voor zijn tijd bij Randstad werkte David bij de FD Mediagroep met zijn team aan een aanbevelingssysteem dat redactionele waarden in acht neemt. 
Kleine ingrepen voor positieve impact
David is een pleitbezorger voor het bewust en bedachtzaam ontwerpen en bouwen van AI systemen die positieve impact kunnen maken. Bij Randstad onderzoekt hij onder meer de inzet van synthetische data voor het trainen van minder bevooroordeelde AI systemen. Hij is daarbij voortdurend bezig om te kijken hoe al met kleine oplossingen positieve impact bereikt wordt.
Denk hierbij aan nieuw talent in de database van Randstad. Verschenen bepaalde van deze talenten eerder misschien niet (snel) op de radar van intercedenten, dankzij een met AI-gevoede oplossing hebben David en zijn team daar verandering in gebracht.
‘Niet over nagedacht’
Onlangs, zo vertelde David me, voerde hij een gesprek met leden van een multidisciplinair team. Dat team bestaat bijvoorbeeld uit product owners, juristen, privacy officers, intercedenten en ontwikkelaars. Een van de teamleden vroeg tijdens een vergadering of er eventuele bias in de beoogde dataset kon zitten. “Niet over nagedacht,” antwoordde een ander teamlid eerlijk.
David noemt het een mooi voorbeeld van hoe je het gesprek over vooroordelen in data kunt voeren, met mensen met verschillende kennis en perspectieven. En hoe je er vervolgens een actie aanhangt.
IAMA told me so
Deze vraag werd niet per ongeluk gesteld, maar komt voort uit gebruik van een tool die David vaker gebruikt, het IAMA. Dat staat voor Impact Assessment voor Mensenrechten bij de inzet van Algoritmes. Het wordt aangeboden door de Nederlandse overheid en is gratis toegankelijk.
Waarom en wanneer je het zou moeten gebruiken? Op de overheidssite staat te lezen:
Impact Assessment Mensenrechten en Algoritmes | Rijksoverheid.nl
Gebruik (of ken) jij zelf een handige tool of link? Deel ‘m met me door te reply'en op deze mail.
✅ Dit was ’m al. Volgende week meer over de tweede spreker; Oumaima Hajri.
Leestip
De jonge generatie zal digitale systemen veiliger maken | De Volkskrant
Vond je deze editie leuk?
Laurens Vreekamp

Iedere donderdagochtend schrijf ik over één thema, techniek of tool die je -hopelijk- inspireert en helpt machine learning & AI beter te begrijpen en toe te passen in je werk. (Geen kennis van programmeren, wiskunde of statistiek vereist!)

Je vindt dit en meer in het boek The Art of AI ( www.artofai.nl ) - een praktische introductie in machine learning voor mediamakers. Hierin zijn technieken, tools en thema’s rondom creatieve AI-toepassingen gebundeld, komen 12 creatieve AI-pioniers uit Nederland en Vlaanderen aan het woord en delen we stappenplannen en tips om zelf te beginnen met AI.

Klik hier om je uit te schrijven.
Als deze nieuwsbrief doorgestuurd is en je wilt je aanmelden, klik dan hier.
Gemaakt door Laurens Vreekamp met Revue.
Laurens Vreekamp, Amsterdam, Nederland