Coded Club vindt het belangrijk maatschappelijke thema’s aandacht te geven. Een van die onderwerpen is racisme in relatie tot kunstmatige intelligentie.
Kunstmatige intelligentie is namelijk niet meer weg te denken uit onze samenleving. Het kan ons werk efficiënter maken en de ruimte die wij als mens hebben om ander werk te doen drastisch vergroten. Wanneer A.I. repetitieve of gevaarlijke taken overneemt, hebben wij mensen meer tijd voor taken waarvoor wij het meest geschikt zijn: taken waarbij onder meer creativiteit en empathie betrokken zijn.
Maar als apparaten worden gevoed met vooroordelen, kan dit negatieve gevolgen hebben voor onze maatschappij. Hoe gebeurt dit en waar liggen juist oplossingen en mogelijkheden om bijvoorbeeld discriminatie tegen te gaan?
Wat is kunstmatige intelligentie
Kunstmatige intelligentie (K.I.), of artificiële intelligentie (A.I.), zijn apparaten die reageren op data of impulsen uit hun omgeving. Daarmee nemen ze zelfstandig beslissingen. Het gaat bij K.I. dus niet om de rekenkracht, maar om de mogelijkheid (zelfstandig) te leren en beslissingen te nemen. De apparaten zijn zich echter niet bewust van de taken die ze uitvoeren. Ze volgen algoritmes en herkennen patronen. Door te leren van hun eigen fouten, leveren ze een beter resultaat. Dit wordt ook wel Machine Learning genoemd.
Iedereen is bevooroordeeld
Sennay Ghebreab is neuro-informaticus en is ervan overtuigd dat een toekomst zonder ongelijkheid niet mogelijk is zonder kunstmatige intelligentie. “We hebben extra hulp nodig om uit onze menselijke tekortkomingen te komen. Vooroordelen hebben we namelijk allemaal. Bewust of onbewust. Het is een snelle en grove manier van onze hersenen om doelmatig te zijn. Je bent bijvoorbeeld meer op je hoede op de weg wanneer je een vrachtwagen ziet. Je weet uit ervaring dat vrachtwagens vaker zwabberen dan personenauto’s. Zonder vooroordelen zou je op de weg bij alle voertuigen in de hoogste staat van paraatheid zijn. Vooroordelen helpen dus om de wereld om ons heen te ordenen. Je zou kunnen zeggen dat vooroordelen ontstaan omdat je leert. Claimen dat je niet bevooroordeeld bent staat gelijk aan claimen dat je geen hersenen hebt.”
Mensen denken in categorieën en labels die we van kinds af aan hebben meegekregen. Of die we als volwassenen tot ons krijgen doormiddel van (sociale) media. Dit bepaalt in hele hoge mate hoe we de wereld zien, hoe we de wereld categoriseren, hoe we het ordenen, hoe we met elkaar omgaan… We zitten dus gevangen in onze eigen kaders. Technologie zou ons kunnen helpen met het openbreken van die kaders.
Kunstmatige intelligentie en discriminatie
Onderzoekers van het Georgia Institute of Technology ontdekten dat ultramoderne detectiesystemen, zoals de sensoren en camera's die worden gebruikt in zelfrijdende auto's, mensen met een lichtere huidskleur beter kunnen detecteren. Met als gevolg dat je als persoon met donkere huidskleur meer kans hebt aangereden wordt dan als wit persoon.
En Yonatan Zunger (Google Executive) tweette “THIS IS 100% NOT OK” over een app door Google zelf ontwikkeld. Het ging over de app die onder meer je foto’s kan categoriseren. Op zich heel handig, vooral als je heel veel foto’s hebt. De app kwam in 2015 veelvuldig in de media omdat het mensen met een donkere huidskleur categoriseerde als gorilla in plaats van als mens.
Google heeft het probleem nog niet weten op te lossen. Het heeft simpelweg de algoritmen om gorilla's te identificeren in z’n geheel geblokkeerd en zodoende de dienst beperkt uit angst opnieuw verkeerde categorieën te gebruiken. En het probleem lijkt nog groter te zijn.
In de strijd tegen het coronavirus maken veel landen op bijvoorbeeld vliegvelden en bij winkels gebruik van mobiele thermometers. In een experiment dat viraal ging op Twitter, toonde AlgorithmWatch aan dat Google Vision Cloud, een computer vision-service (geautomatiseerde beeldlabeling), een afbeelding van een persoon met een donkere huidskleur met een thermometer labelde als 'pistool', terwijl dit object in een vergelijkbare afbeelding met een persoon met een lichte huid 'elektronisch apparaat' werd genoemd.
Verkeerd gevoed
Bovenstaande voorbeelden zorgen voor ongelijkheid en discriminatie met alle gevolgen van dien. Maar kunstmatige intelligentie leidt niet per se zélf tot ongelijkheid. Het legt ongelijkheid in de maatschappij bloot. En als we blootleggen waar het fout gaat, kunnen we daar vervolgens oplossingen voor bieden.
De Google app maakt gebruik van vooroordelen. De app maakt zelf onderscheid tussen foto’s genomen in de stad en op het strand. Of tussen foto’s van katten en foto van koeien. Het maakt dit onderscheid op basis van miljoenen voorbeeldfoto’s. De Google app was echter discriminerend omdat het gevoed werd met enkele donkere mensen als voorbeeld van gorilla’s. Was de app gevoed met aan de ene kant voorbeelden van allerlei verschillende mensen (Afrikanen, Aziaten, Amerikanen, Europeanen, vrouw, man, jong en oud) en aan de andere kant gorilla’s, dan zou deze app donkere mensen niet als gorilla’s beschouwen.
Kunstmatige intelligentie en een post-racistische planeet
Google, maar ook andere grote tech-bedrijven zoals Facebook en Amazon, zijn machtige bedrijven, waar voornamelijk jonge witte mannen werken. Dat is helemaal niet erg, maar als er voornamelijk jonge witte mannen werkzaam zijn, bestaat de kans dat je technologieën ontwikkelt die vooral die jonge witte mannen representeert en dient. Zelflerende systemen zoals machines, leren op basis van data. Als wij mensen machines voeden met categorieën waar wij zelf gebruik van maken, zullen machines de wereld zien zoals wij die zien.
Het is ontzettend belangrijk dat als er technologie wordt ontwikkeld, dit gedaan wordt door mensen met diverse achtergronden en met verschillende expertises. Zodat je de technologie op een inclusieve manier kan ontwikkelen. Er zijn 2 miljard jongeren op aarde. Als die jongeren leren wat algoritmisch denken is en zelf algoritmes kunnen maken, ontstaat er een heel rijkdom aan creatief jonge mensen. Dat is waar wij allen in zouden moeten investeren.
Over Coded Club
Bovenstaande informatie zijn wij bij Coded Club momenteel aan het vertalen naar een spel voor jongeren waarin zij ontdekken wat er nodig is A.I. zó te voeden zodat het bij kan dragen aan een post-racistische planeet.
Ben je benieuwd of wil je een keer sparren hoe je binnen jouw bedrijf, stichting of (onderwijs)instelling de dialoog aan kunt gaan over maatschappelijk relevante onderwerpen?
Kijk dan eens op ons Instagram - of Facebook account of neem contact met ons op!

You may also like

Back to Top