Ga naar inhoud

Kunstmatige intelligentie: Zegen of zorg? (Deel 2)

Kunstmatige Intelligentie of Artificial Intelligence (AI) wordt steeds meer gebruikt in onze samenleving. Niet alleen om teksten te schrijven, maar ook om gezichten te herkennen, (potentiële) fraudeurs op te sporen en tumoren te lokaliseren. Is dit een ontwikkeling die we moeten omarmen of is het verstandiger om voorzichtig te zijn en even op de rem te trappen?

AI-3-

In ons vorige blog hebben we laten zien dat AI steeds verder doordringt in onze samenleving. In dit blog gaan we nader in op de voordelen, maar ook op de nadelen die dit heeft.

Voordelen, maar ook nadelen

AI biedt tal van voordelen. Zo kan het zorgen voor betere volksgezondheid, veiligere auto’s, diensten op maat, en goedkopere producten die langer meegaan. Het zorgt ervoor dat je boeken leest en muziek luistert die past bij je smaak. En het kan voor werkgelegenheid zorgen, het onderhoud van machines verbeteren, de productie en kwaliteit verhogen, klantendiensten verbeteren en energie besparen. Naar schatting 11-37% van de toename van arbeidsproductiviteit tegen 2035, zal gerelateerd zijn aan AI (EP Think Tank, 2020).

Preventie van desinformatie en cyberaanvallen met behulp van AI kan de democratie versterken. Het kan ook diversiteit stimuleren, bijvoorbeeld door vooroordelen bij personeelswerving te beperken. Of voor het opzetten van defensie- en aanvalsstrategieën tegen hacking en phishing in cyberoorlogen.

AI zal ook vaker gebruikt gaan worden bij misdaadbestrijding en strafrecht. Zo kan het vluchtgevaar van gevangenen nauwkeuriger worden ingeschat, en kunnen misdaad en terroristische aanvallen voorspeld of zelfs voorkomen worden. AI wordt nu al gebruikt om illegaal en ongepast gedrag op online platformen te detecteren en erop te reageren.

Nadelen

Naast deze voordelen zijn er ook tal van risico’s, denk alleen al aan de Toeslagenaffaire en SyRI, het algoritme om bijstandsfraude op te sporen op basis van onder meer taal, woonwijk, geslacht en indicaties van financiële en psychische problemen. De rechtbank oordeelde dat het systeem ‘onvoldoende inzichtelijk en controleerbaar’ was, en dat er ‘onvoldoende waarborgen waren ter bescherming van het recht op respect voor het privéleven’, een van de vereisten van het Europees Verdrag voor de Rechten van de Mens.

Ook de aansprakelijkheid is een zorg: wie is er schuldig wanneer AI schade veroorzaakt? Bijvoorbeeld bij een ongeval met een zelfrijdende wagen, moet de schade dan door de eigenaar, de autofabrikant of door de programmeur betaald worden? Er is ook het gevaar van het creëren van online ‘echokamers’ of fabeltjesfuiken door alleen inhoud te tonen die iemand bevalt, gebaseerd op eerder online gedrag (bevestiging van complotdenken). Of neem het maken van realistische nepvideo’s of audiofragmenten (de zogenaamde ‘deepfakes’), hetgeen uiteindelijk kan leiden tot polarisatie en manipulatie van verkiezingen. Duitsland heeft inmiddels ook al de primeur van de eerste rechtszaak om een door AI gegenereerd nep-interview. Het gebruik van AI op de werkplek leidt naar verwachting tot het verlies van vele banen. Ondanks het feit dat AI ook banen kan creëren, verwacht de Denktank van het Europees Parlement dat 14% van de banen geautomatiseerd kan worden en dat 32% van de banen een aanzienlijke verandering zal ondergaan.

Grotere kans op misbruik

Minder onschadelijk is dat onevenwichtige toegang tot informatie kan leiden tot misbruik: een online winkel kan, zonder medeweten van de klant, AI gebruiken om op basis van eerder onlinegedrag of andere data, te voorspellen hoeveel de klant bereid is om te betalen en vervolgens de prijs te verhogen, of haar boodschap aan te passen. Of het kan gebruikt worden om mensen die verbonden zijn aan bepaalde acties of met bepaalde overtuigingen, bijvoorbeeld dieren- of milieuactivisten, traceren en profileren.

Maar, misschien wel de belangrijkste tekortkoming van AI is dat de resultaten van AI sterk afhankelijk zijn van het concept en de gegevens waarmee het getraind is. Zowel ontwerp als gegevens kunnen opzettelijk of onbedoeld ongebalanceerd of bevooroordeeld zijn. Bovendien kan het gebruik van getallen om een ingewikkelde sociale situatie voor te stellen het idee suggereren dat AI feitelijk en precies is, terwijl dat niet zo is (‘mathwashing’). Zo kunnen de huidige AI-tekstgeneratoren met stelligheid de grootst mogelijke onzin beweren.

Wanneer AI niet goed wordt getraind, kan het beïnvloed worden door etnische afkomst, geslacht en leeftijd, bijvoorbeeld tijdens een sollicitatieprocedure of bij het verstrekken van een lening. Waartoe het kan leiden als AI gebruikt wordt voor het profileren van personen, hebben we gezien bij de Toeslagenaffaire, waarbij ouders met een niet-Nederlands klinkende naam al bij voorbaat verdacht werden.

Structureel probleem

Dit blijkt een structureel probleem te zijn. AI moet worden getraind met heel veel voorbeelden en patronen. Een camera bij een brug is getraind op het herkennen van een boot met positieve voorbeelden (wel een boot) en negatieve voorbeelden (geen boot). En omdat de wereld snel verandert, moeten deze systemen continu bijleren, bijvoorbeeld met een nieuw type boot. En dan zie je dat AI onevenwichtig getraind is. De onderstaande kaart laat zien waar de gegevens die gebruikt worden om AI te trainen vandaan komen: een opgeblazen Verenigde Staten en een piepklein Afrika.


Deze kaart komt uit het Internet Health Report 2022 van de Mozilla Foundation, het opensourceproject achter de browser Firefox. Het laat zien dat meer dan 60 procent van de gebruikte datasets uit de Verenigde Staten komt. Data uit Rusland zijn verwaarloosbaar; er zijn nauwelijks data uit Zuid-Amerika en nagenoeg geen data uit Afrika. Wat het kaartje nog niet eens laat zien, is dat maar twaalf organisaties (twee niet-Amerikaans) de datasets produceren die in meer dan 50 procent wordt gebruikt (de top drie: Princeton, Stanford en Microsoft).

Het houdt dus in dat de taal, plaatjes, gedrag en gezichten, waarmee programma’s zoals ChatGPT en DALL-E getraind worden behoorlijk eenzijdig gericht zijn, en dat de modellen en algoritmen die daaruit voortkomen, dat dus ook zijn...
Daar komt nog bij dat de Amerikaanse samenleving ver afstaat van de Nederlandse. De vraag is of wij willen dat het Nederlandse openbaar bestuur en de verzorgingsstaat beïnvloed worden door AI die getraind is op de sociale en raciale verhoudingen in een land waar fundamenteel anders wordt gedacht over zaken als discriminatie, seksualiteit en vrijheid van meningsuiting.

Tegenbeweging

Dat is de reden dat een aantal prominente wetenschappers en industriëlen onlangs een open brief gepubliceerd hebben waarin zij pleiten voor een tijdelijke pauze in de ontwikkeling van AI. Eerst zou de politiek zich moeten buigen over de voorwaarden waaronder AI toegelaten en ingezet mag worden. Italië heeft zelfs (tijdelijk) een verbod afgekondigd op het gebruik van ChatGPT. Ook de ceo van Google, Sundar Pichai, pleit voor terughoudendheid.

Er zijn ook wetenschappers die geen bewijzen zien voor de bewering dat dat AI ‘people, businesses and communities’ helpt om hun ‘potentieel te ontsluiten en nieuwe mogelijkheden biedt die miljarden levens kunnen verbeteren’. Misschien dat AI de mens vooral op technisch gebied kan helpen. Op het terrein van creativiteit en cultuur is de mate van verontwaardiging over nep-foto’s en door AI gemaakte ‘interviews’ in ieder geval nog groter dan de acceptatiegraad.

Afsluiting

Inmiddels heeft het Europees Parlement een commissie voor ‘artificiële intelligentie in het digitale tijdperk’ opgericht om de impact van AI te onderzoeken. Verder probeert de Europese Unie met de Artificial Intelligence Act een kader te schetsen voor kunstmatige intelligentie, zoals de AVG dat doet voor het verzamelen en verwerken van data. De wetgeving deelt kunstmatige intelligentie in in vier groepen: minimaal, beperkt, hoog en onacceptabel risico. Een algoritmetoezichthouder moet dan de controle van algoritmes bewaken.

Tot slot volgt er nog een lichtpuntje. Een nieuwe studie laat zien dat mensen slimmer en creatiever worden als zij het tegen AI moeten opnemen, althans, als het om het bordspel Go gaat. De successen van het computerprogramma AlphaGo blijken menselijke go-spelers aan te zetten tot betere prestaties. Dit onderzoek laat in ieder geval zien dat ‘de mens’ niet geheel weerloos is tegenover AI, maar zich daaraan aanpast, en creatieve oplossingen weet te verzinnen. En dat is in ieder geval iets waarmee we ons nog kunnen (blijven) onderscheiden van AI...

Als er veel geluid wordt gemaakt, gaat het er niet om de boel te overstemmen, maar om de juiste snaar te raken

De juiste snaar

Als er veel geluid wordt gemaakt, gaat het er niet om de boel te overstemmen, maar om de juiste snaar te raken. Dat is waar wij voor staan. Een verhaal wat via slimme online marketing resoneert bij de juiste mensen.

In contact

Zij gingen je voor

  • Basic Essentials B.V. Logo
  • Compleet duurzaam logo
  • Client corrosion
  • Decathlon Kenya Logo
  • image-4-5-
  • Demag-Logo-modified
  • gs-5c6869f304-Logo_Djoser-modified
  • floryn-logo-modified
  • image
  • Helix Academy Logo
  • MarketResponse-logo_RGB_2022-1024x261-modified
  • Peters Aanhangwagens Logo
  • reable-nederland-logo-modified
  • Logo_Verdouw_2022-modified
  • Wessanensvg-modified