We starten met de ‘global view’ van Unesco, zoomen vervolgens in op de EU en de Draft AI Act en eindigen in Vlaanderen en Nederland.
4.1 Unesco
De Organisatie der Verenigde Naties voor Onderwijs, Wetenschap en Cultuur - Unesco - heeft onlangs het
document
‘
Recommendation on the Ethics of Artificial Intelligence’ opgesteld, met daarin vier waarden, tien principes en nog eens tien beleidsacties rondom ethiek en AI:
-
Mensenrechten en fundamentele vrijheden moeten door AI-systemen worden geëerbiedigd, beschermd en bevorderd.
- Alle personen en actoren die betrokken zijn bij AI-systemen (ontwikkeling, ingebruikname,…) moeten zich houden aan wetten, standaarden en praktijken die tot doel hebben het milieu en zijn ecosysteem te beschermen en te herstellen en duurzame ontwikkeling nastreven.
- AI-systemen moeten diversiteit en inclusiviteit eerbiedigen, beschermen en bevorderen.
- AI-actoren moeten een participatieve en faciliterende rol spelen om vreedzame en rechtvaardige samenlevingen te waarborgen. AI-systemen mogen bijvoorbeeld niet segregeren, mensen in gevaar brengen of mensen tegen elkaar opzetten.
De 10 principes zijn: proportionaliteit, veiligheid, fairness en discriminatie, duurzaamheid, privacy, menselijk toezicht en bepaling, transparantie en uitlegbaarheid, responsibility and accountability, bewustzijn en geletterdheid en multistakeholder- en adaptief bestuur en samenwerking.
In principe zou iedere VN-lidstaat zich moeten scharen achter deze principes en de beleidsacties implementeren in nationale wet- en regelgeving…
4.2 EU & AI
De Europese Commissie heeft op haar beurt een eigen
AI Act
in de maak. Deze (concept)regulering die in april 2021 is opgesteld, verbiedt het gebruik van AI-systemen die:
- “lichamelijke of psychologische” schade veroorzaken of kunnen veroorzaken door het gebruik van “subliminale technieken” of door misbruik te maken van kwetsbaarheden van een “specifieke groep personen vanwege hun leeftijd, fysieke of mentale handicap”.
- Sociale scores gebruiken voor algemene doeleinden door overheidsinstanties.
- “Realtime” biometrische identificatiesystemen op afstand, zoals gezichtsherkenning, in openbaar toegankelijke ruimtes voor wetshandhaving doeleinden.
(Bron: ai-regulation)
Tegelijkertijd, zo schrijft Brusselse Nieuwe, wil de Europese Commissie ‘nieuwe regels waarmee biometrische gegevens geautomatiseerd kunnen worden uitgewisseld. Ofwel: computers die gezichtsherkenningsdata efficiënter delen tussen de verschillende Europese politiecorpsen. Met de nieuwe plannen wil de Europese Commissie niet alleen moordzaken en mensenhandel kunnen bestrijden, maar ook migranten-smokkel, zoals recentelijk aan de grens van Polen en Wit-Rusland.’
De AI Act laat overigens waarschijnlijk nog wel anderhalf jaar op zich wachten.
‘There is growing political momentum behind a total ban on controversial technologies such as facial recognition in public places. The majority of the European Parliament and powerful Germany support such a ban.
However, many EU countries and the European Commission are worried this could endanger European security. Decoded reckons Germany will struggle to rally enough EU countries to support a full ban. Restrictions for “unacceptable” uses in the AI Act could become stricter, but a total ban is a long shot.’
In een recentere editie van Decoded valt te lezen hoezeer het reguleren van AI afhangt van drie zaken:
- De (politieke) overtuiging van de opstellers van dergelijke wetgeving.
- Hun macht binnen de verschillende commissies.
- De manier waarop vergaderd wordt (en dus ook hoe consensus wordt bereikt):
‘To make matters worse, there are four committees representing four political groups in charge of tackling one of the most challenging aspects of the bill: Creating a legal definition for an AI system. Politicians on the right would rather see this definition be as narrow as possible to encourage innovation, while politicians on the left want the AI Act to capture as many risky AI systems as possible. ’
Wellicht is dit gegeven niet verrassend voor de politiek-ingewijde lezers hier. Het is evenwel goed om te beseffen dat het reguleren van AI ongetwijfeld ‘met de beste bedoelingen’ zal gebeuren, maar dat de interpretatie daarvan nogal afhangt van wie je spreekt, welke partij deze zegt te vertegenwoordigen en waar op het spectrum van overtuigingen deze zich bevindt… 🤯
Twee zaken vallen op…
Volgens meer juridische onderlegde AI watchers is de Europese AI Act vooral gericht op de uitvoerders die werken met AI-systemen. De wettenmaker lijkt zich niet direct op Big Tech te richten:
‘The regulation does not treat the algorithms used in social media, search, online retailing, app stores, mobile apps or mobile operating systems as high risk. It is possible that some algorithms used in ad tracking or recommendation engines might be prohibited as manipulative or exploitative practices.’
Big Tech-lobby at work?
Nog opmerkelijker is dat politici, wanneer het gaat om het aan banden leggen van AI, de gevaren van algoritmes in sociale media vrijwel altijd in direct verband brengen met bias. Maar juist daartegen doet de nieuwe voorstelwet niet veel… 🧐
Er wordt in de draft act wel gesproken over zogeheten disparate impact analyses, maar deze zijn voor verantwoordelijkheid van de uitvoerder zelf en hoeven niet met het publiek of de gebruiker (de onderworpene) te worden gedeeld. Als je als gebruiker interacteert met een AI-systeem dient dat alleen te worden vermeld, net zoals makers van een deepfake dit moeten aangeven volgens al bestaande wetgeving.
Juridische cliffhanger: de in het wetsvoorstel geformuleerde rol en mogelijkheden voor burgers / gebruikers (of beter gezegd: het gebrek daaraan) komt straks nog terug bij ‘Activisten’…
Voor in de agenda: 9 november 2022 - AI-voting day
Lastly nog wat belangrijke data to whom it may concern:
The European Parliament’s internal market (IMCO) and civil liberties (LIBE) committees, which are jointly leading the negotiations on the AI Act, aim to have a first draft report by early April [2022, red.], according to a draft timeline seen by POLITICO. Other committees are slated to have their opinions on the bill ready by June 20. The IMCO-LIBE report is scheduled to be voted on on September 29, and the whole Parliament will vote on the bill on November 9.
4.3 Overheid in Vlaanderen
Op vrijdag 26 november 2021 heeft de Vlaamse Regering besloten om een
Vlaams Datanutsbedrijf op te richten. Waarom dat er moet komen? Op
Digitaal Vlaanderen
(officiële overheidssite) valt te lezen:
‘[Het] moet de gegevens van burgers beter beschermen en tegelijk die data vlotter laten stromen, zodat ze een meerwaarde vormen voor samenleving en economie. […]
Het Vlaams Datanutsbedrijf zal in het voorjaar van 2022 een zelfstandig bedrijf worden.’
De Vlaamse Minister van Digitalisering, Jan Jambon, wordt er ook geciteerd:
“Data laten stromen is de sleutel om onze samenleving en de Vlaamse economie in de jaren twintig een enorme boost te geven, maar dat vergt vertrouwen. Vlaanderen wil dat vertrouwen in de data-samenleving versterken door de burger zelf controle te geven over zijn data zodat ze die vlotter en veiliger kunnen delen. We bouwen zo een zelf beheerde digitale identiteit.”
Gefinancierd door de Europese Unie heeft het Datanutsbedrijf tot doel ‘het vertrouwen van de burger in het delen van data stimuleren, door in te zetten op verantwoord en veilig data delen. Tegelijk willen we zuurstof geven aan de Vlaamse economie door data beter vindbaar en uitwisselbaar te maken, en door bruggen te bouwen tussen burgers, bedrijven en verenigingen voor een betere samenwerking. We zijn een neutrale derde partner en katalysator van vernieuwende initiatieven en stimuleren de economische en maatschappelijke welvaart. Met die aanpak heeft Vlaanderen het potentieel om koploper te worden in de Europese data-economie.’
Note: Dat geen enkele speler in dit spel een ‘neutrale partner’ kan zijn, zal ik volgende week proberen uit te leggen aan de hand van recent werk van de resp. Nederlandse en Vlaamse filosofen Hans Schnitzler en Lode Lauwaert.
4.4 De Nederlandse overheid
Op nationaal niveau kent Nederland meerdere schandalen waardoor landelijke politici zich roeren: onder andere de -eufemistisch aangeduide- ‘Toeslagenaffaire’ bij de Belastingdienst (waardoor het vorige kabinet viel) en die van het gebruik van het Clearview-systeem voor gezichtsherkenning bij de landelijke politie. Europarlementariër Samira Rafaela (D66) brengt dat laatste systeem in verband met bias in de gebruikte data. Beluister haar reactie op Radio1: