Forbes

Is AI gevaarlijk voor mensen met een beperking?

Nu steeds meer bedrijven AI (Artificial Intelligence) gebruiken in hun HR-beleid, lopen mensen met een beperking het risico flink benadeeld te worden. Hoog tijd om meer bewustzijn te kweken en wet- en regelgeving aan te passen om het gebruik van AI op de werkvloer in goede banen te leiden.

Maar liefst acht van de tien grootste private Amerikaanse bedrijven gebruiken AI-software om de productiviteit van hun individuele werknemers te meten. Dit heeft grote gevolgen voor de miljoenen mensen wiens (digitale) activiteit beïnvloed wordt door hun beperking. Werkgevers zijn enthousiast over de software, omdat ze zo ‘nalatige’ werknemers zouden kunnen opspeuren, maar niemand heeft het over de aanpassingen die gedaan moeten worden zodat mensen met een beperking eerlijk worden beoordeeld.

Juridische uitdagingen

Het VN-verdrag Handicap, waarin de rechten van mensen met een beperking of chronische aandoening worden beschermd, kent de verplichting om aanpassingen te doen wanneer een persoon met een beperking daar om vraagt. De last ligt nu dus bij het individu die wordt benadeeld door een algoritme waarvan ze niet eens weet dat het bestaat. Mocht diegene wel kunnen aantonen dat er sprake is van ongelijke behandeling, dan is het bovendien de werkgever die daar op wordt aangesproken, niet de software-ontwikkelaar. Voor de ontwikkelaars is er in de huidige situatie bitter weinig stimulans om proactief na te denken over hoe hun software mensen met een beperking raakt.

Bevooroordeelde datasets

Een ander probleem is dat AI-software die bijvoorbeeld de persoonlijkheid van een sollicitant voorspelt naar aanleiding van diens cv en LinkedIn-profiel, zich baseert op statistische gemiddelden. Met de datasets die hiervoor gebruikt worden, zal zo’n 67% van mensen ‘goed’ scoren. Maar hoe verder iemand zich van de standaard bevindt, hoe slechter AI diegene zal kunnen inschatten en beoordelen. Dit is niet alleen slecht nieuws voor mensen met een beperking, maar voor iedereen die tot een minderheid behoort.

Wat nu?

We hebben dringend nieuwe wetgeving nodig om digitale discriminatie aan te pakken voordat technologie menselijke ethiek en redelijkheid compleet verdringt. Daarnaast moet dit thema onder de aandacht worden gebracht van werkgevers, softwareontwikkelaars en HR-directies. Voor hen stelden onderzoekers vier aanbevelingen op:

  • Denk na over de implementatie van elk softwaresysteem dat geen flexibiliteit biedt als het gaat om het monitoren of aannemen van werknemers.
  • Vraag een diverse groep van mensen met een beperking waar zij mogelijk tegenaan zouden lopen om zo het systeem vanuit meerdere perspectieven te bekijken.
  • Ga er vanuit dat er problemen zullen ontstaan en gebruik de software eerst tijdens een pilotfase om dit te ondervangen.
  • Zorg ervoor dat mensen melding kunnen maken als het nieuwe softwaresysteem hen uitsluit op grond van hun beperking en gebruik hun feedback om het systeem aan te passen.

Over het artikel

‘Artificial Intelligence Is Dangerous For Disabled People At Work: 4 Takeaways For Developers And Buyers’ werd onderzocht en geschreven door Nancy Doyle voor Forbes.

Gerelateerde artikelen

Harvard Business Review

Zo ga je om met micro-agressie

In een onderzoek naar of en hoe vrouwelijke leiders in STEM micro-agressie ervaren, ontdekten wetenschappers dat omstanders een belangrijke rol kunnen spelen. Zij onderscheiden drie manieren waarop je een verschil…
Harvard Business Review

3 manieren waarop mannen gendergelijkheid kunnen bevorderen

Mannen willen vaak wel bijdragen aan het bevorderen van gendergelijkheid op de werkvloer, maar er zijn een aantal belangrijke obstakels die ze tegenhouden. Wat kunnen ze doen om dit aan…
MT/Sprout

Hardnekkige discriminatie sollicitanten

Ook op een krappe arbeidsmarkt heeft niet iedereen dezelfde kansen op een baan. Uit nieuw onderzoek blijkt dat werkgevers wereldwijd nog flink discrimineren op bepaalde kenmerken en eigenschappen bij het…