Sluit

Hoe kun je AI verantwoord inzetten?

Verhalen
/
27 Jun
/
0 min leestijd

AI heeft de manier waarop we communiceren drastisch veranderd. Alleen is het gebruik ervan niet zonder gevaar. Hoe kun je als maatschappelijke organisatie AI verantwoord inzetten?

Waar moet je je bewust van zijn als je als organisatie AI in gaat zetten?

“Er zijn tal van dingen waar je je bewust van moet zijn. Het belangrijkste is dat je snapt hoe AI precies werkt. Dat klinkt misschien logisch, maar we zien steeds meer instellingen die met AI aan de slag gaan zonder dat ze snappen wat voor gevolgen de inzet van AI kan hebben.”

Wat zijn de gevolgen?

“Allereerst moet je bij de inzet van AI goed beseffen dat technologie nooit neutraal is. Het gaat om systemen die gevoed zijn door mensen. Het gaat om systemen die gevoed zijn door mensen en het gebruik van deze systemen kan bestaande machtsverhoudingen versterken. Algoritmes kunnen bijvoorbeeld leiden tot profilering en stigmatisering. Een goed voorbeeld van waar het flink mis is gegaan is natuurlijk de toeslagenaffaire, maar er zijn tal van andere voorbeelden. Zo heeft de gemeente Amsterdam de inzet van een algoritme uiteindelijk stopgezet bij het Top400 programma. Dat is een programma waarbij de gemeente kinderen die een hoge kans hebben om later de criminaliteit in te gaan, nauw in de gaten houdt. De gemeente liet een algoritme bepalen welke kinderen de hoogste kans hadden om de criminaliteit in te gaan. Alleen konden de mensen achter het programma vervolgens zelf niet aan de ouders uitleggen waarom hun kinderen waren geselecteerd. Dat kan natuurlijk niet.”

"De meest verantwoorde manier om AI te gebruiken is wanneer je als organisatie zelf een AI-model bouwt."

Welke gevolgen zijn er nog meer?

“Ook kan AI de privacy van mensen aantasten en het verspreiden van desinformatie vergemakkelijken. Meta, die onder andere Instagram en Facebook beheert, heeft bijvoorbeeld aangekondigd dat zij alle data van hun gebruikers gaat gebruiken voor het trainen van hun AI. Tenzij je hier als gebruiker expliciet bezwaar tegen maakt. Als je gegevens eenmaal in dat systeem staan, kun je die als gebruiker nooit meer verwijderen. Wat veel mensen zich ook niet realiseren is dat het gebruik van AI heel slecht is voor het klimaat. Het vraagt om heel veel rekenkracht en dat slurpt Diesel.”

Hoe kun je AI op een veilige manier gebruiken?

“De meest verantwoorde manier om AI te gebruiken is wanneer je als organisatie zelf een AI-model bouwt. Op die manier ben je niet afhankelijk van een andere partij. Zo weet je ook zeker dat er niks geks gebeurt met je data. Alleen is dit voor de meeste organisaties niet haalbaar. Daarom zeggen we altijd dat er drie dingen zijn waar je moet letten wanneer je AI gebruikt. De eerste is dat je weet hoe het AI-model dat je gebruikt aan zijn of haar data komt. Hebben de mensen van wie de data zijn hier bijvoorbeeld toestemming voor gegeven of niet? De tweede betekent dat je kijkt waar de server staat waar die data op staan en wie hier allemaal toegang toe heeft. Heel veel van die servers, bijvoorbeeld in het geval van Meta en Amazon, staan in Amerika. Dat betekent dat die data ook in handen zouden kunnen komen van de Amerikaanse overheid. Zeker nu Trump weer aan de macht is, is dat een groot risico. Het derde punt waar je op moet letten is welk bedrijf er achter de AI-tool zit die je gebruikt. Amerikaanse Bedrijven als X en Meta oefenen ook steeds meer invloed uit op het politieke klimaat. Vraag je als organisatie dus goed af of je hier onderdeel van wilt zijn.”


Nog meer tips voor hoe je AI inzet:

1.     Gebruik AI niet lukraak.

Stel duidelijke richtlijnen op over waar je AI wél en niet voor gebruikt. Maak altijd eerst een testomgeving.

2.     Bescherm de persoonsgegevens van je doelgroep

Zorg altijd dat je de persoonsgegevens van je doelgroep goed beschermt. Haal bijvoorbeeld geen gebruikersonderzoek door AI

3.     Vertrouw niet blind op AI

Ga er niet blind vanuit dat wat er uit de AI rolt, ook klopt. Zorg dat je altijd kunt uitleggen hoe AI tot een bepaalde keuze is gekomen. Wijs ook iemand aan die aansprakelijk is voor het AI-project. Anders loop je het gevaar dat iedereen de technologie de schuld geeft en niemand de verantwoordelijkheid neemt.

Meer nieuws

Abe Updates
/
Jun 20

Impactbrief #11: invloed zonder uitnodiging voor de NAVO-top

Abe Updates
/
Jun 13

Impactbrief #10: de zeggingskracht van de rode lijn