Forbes

Is AI gevaarlijk voor mensen met een beperking?

Nu steeds meer bedrijven AI (Artificial Intelligence) gebruiken in hun HR-beleid, lopen mensen met een beperking het risico flink benadeeld te worden. Hoog tijd om meer bewustzijn te kweken en wet- en regelgeving aan te passen om het gebruik van AI op de werkvloer in goede banen te leiden.

Maar liefst acht van de tien grootste private Amerikaanse bedrijven gebruiken AI-software om de productiviteit van hun individuele werknemers te meten. Dit heeft grote gevolgen voor de miljoenen mensen wiens (digitale) activiteit beïnvloed wordt door hun beperking. Werkgevers zijn enthousiast over de software, omdat ze zo ‘nalatige’ werknemers zouden kunnen opspeuren, maar niemand heeft het over de aanpassingen die gedaan moeten worden zodat mensen met een beperking eerlijk worden beoordeeld.

Juridische uitdagingen

Het VN-verdrag Handicap, waarin de rechten van mensen met een beperking of chronische aandoening worden beschermd, kent de verplichting om aanpassingen te doen wanneer een persoon met een beperking daar om vraagt. De last ligt nu dus bij het individu die wordt benadeeld door een algoritme waarvan ze niet eens weet dat het bestaat. Mocht diegene wel kunnen aantonen dat er sprake is van ongelijke behandeling, dan is het bovendien de werkgever die daar op wordt aangesproken, niet de software-ontwikkelaar. Voor de ontwikkelaars is er in de huidige situatie bitter weinig stimulans om proactief na te denken over hoe hun software mensen met een beperking raakt.

Bevooroordeelde datasets

Een ander probleem is dat AI-software die bijvoorbeeld de persoonlijkheid van een sollicitant voorspelt naar aanleiding van diens cv en LinkedIn-profiel, zich baseert op statistische gemiddelden. Met de datasets die hiervoor gebruikt worden, zal zo’n 67% van mensen ‘goed’ scoren. Maar hoe verder iemand zich van de standaard bevindt, hoe slechter AI diegene zal kunnen inschatten en beoordelen. Dit is niet alleen slecht nieuws voor mensen met een beperking, maar voor iedereen die tot een minderheid behoort.

Wat nu?

We hebben dringend nieuwe wetgeving nodig om digitale discriminatie aan te pakken voordat technologie menselijke ethiek en redelijkheid compleet verdringt. Daarnaast moet dit thema onder de aandacht worden gebracht van werkgevers, softwareontwikkelaars en HR-directies. Voor hen stelden onderzoekers vier aanbevelingen op:

  • Denk na over de implementatie van elk softwaresysteem dat geen flexibiliteit biedt als het gaat om het monitoren of aannemen van werknemers.
  • Vraag een diverse groep van mensen met een beperking waar zij mogelijk tegenaan zouden lopen om zo het systeem vanuit meerdere perspectieven te bekijken.
  • Ga er vanuit dat er problemen zullen ontstaan en gebruik de software eerst tijdens een pilotfase om dit te ondervangen.
  • Zorg ervoor dat mensen melding kunnen maken als het nieuwe softwaresysteem hen uitsluit op grond van hun beperking en gebruik hun feedback om het systeem aan te passen.

Over het artikel

‘Artificial Intelligence Is Dangerous For Disabled People At Work: 4 Takeaways For Developers And Buyers’ werd onderzocht en geschreven door Nancy Doyle voor Forbes.

Gerelateerde artikelen

MT/Sprout

Het dichten van de loonkloof: wat we kunnen leren van de IJslandse methode

Wat kunnen bedrijven leren van de IJslandse methode voor gelijke beloning? MT/Sprout schreef er een artikel over.
Harvard Business Review

Wat kun je doen als je inspanningen om inclusief te zijn mislukken?

Het is moeilijk om altijd de juiste woorden te vinden. HR-deskundige geeft tips om inclusief te zijn en onrechtvaardigheid te vermijden.
Taskforce Diversiteit & Inclusie

Hoe integreer je D&I accountability in alle lagen van de organisatie?

Als je een divers en inclusief bedrijf wilt realiseren, is het nodig dat managers en medewerkers zich verantwoordelijk voelen voor die gezamenlijke visie. Deze concrete stappen helpen je op weg…