Machine learning-algoritmen zijn overal om ons heen. Het gaat niet (meer) alleen om Facebook en Google. Bedrijven gebruiken ze om gepersonaliseerde trainingsdiensten aan te bieden, of geavanceerde business intelligence-diensten. Om kanker te bestrijden en om valse merkartikelen te ontdekken. Van agricultuur tot aan de farmaceutische industrie. Van zelfrijdende auto's tot aan ondersteuningssoftware in de zorg.
De technologie zal ons collectief meer welvaart brengen en ons beter in staat stellen te zorgen voor meer welvaart, de bescherming van mensenrechten, meer rechtvaardigheid en het beschermen van de waarden die we nodig hebben om goed te kunnen samenleven. We moeten het verwelkomen en er alles aan doen om het te promoten.
Maar zoals dat gaat met elke nieuwe technologie zijn er ethische uitdagingen. Zal de nieuwe technologie eerlijk en transparant zijn. Haalt iedereen er voordeel uit? Of zal het bestaande tegenstellingen en ongelijkheden alleen maar versterken?
Organisaties die AI-systemen ontwikkelen en gebruiken hebben ethische principes nodig om hen te leiden langs de uitdagingen die nu al en in de toekomst zullen spelen.
Vorig jaar kwam de Software & Information Industry Association met een visie, getiteld Ethical Principles for AI and Data Analytics. Daarin werden deze uitdagingen benoemd. Het baseert zich op de klassieke ethische tradities als rechten, welvaart en deugden waarmee organisaties hun data-praktijken secuur kunnen doorpluizen.
Bedrijven moeten hun denken in ethische termen afstoffen, vooral wat betreft hun diepgewortelde beslissingen in het verzamelen en gebruik van informatie. Deze principes zijn een praktische en actiegerichte leidraad.
SIIA is niet het enige vertegenwoordigende lichaam dat ethische overwegingen toepast op de wereld van AI en data-analyse. De beroepsgroep Fairness, Accountability and Transparency in Machine Learning (FAT/ML) heeft zijn eigen principes geformuleerd. Een andere groep van computerwetenschappers heeft in een conferentie in Asilomar nog bredere principes geformuleerd. De IEEE heeft voorstellen gedaan voor principes in ethische waarden in design. ACM kwam onlangs met een aantal principes die een fair gebruik van AI-algoritmen promoten. En de Information Accountability Foundation heeft een erg handige set aan principes geformuleerd in zijn rapport Artificial Intelligence, Ethics and Enhanced Data Stewardship.
Internationale aandacht voor AI-ethiek
In oktober van het vorige jaar kwam ook de Organisatie voor Economische Samenwerking en Ontwikkeling (OESO) tijdens haar conferentie met een ethische visie, AI: Intelligent Machines, Smart Policies. De noodzaak om te komen tot ethische regels voor AI werd door de Japanners naar voren gebracht tijdens de vergadering van de G7 in 2016 en door de Italianen tijdens de G7-meeting van 2017. De meest recente bijeenkomst van de G7 op 28 maart jongsleden leverde de Statement on Artificial Intelligence op, waarin werd opgeroepen tot een onderzoek naar "de ethische overwegingen bij AI". De Amerikaanse regering kwam onlangs met de aankondiging dat het zou ""samenwerken met onze bondgenoten" in het "vestigen van vertrouwen" in AI-technologie.
De Europese Commissie is onlangs gekomen met de Communication on Artificial Intelligence for Europe waarin wordt voorgesteld richtlijnen te ontwikkelen voor AI-ethiek door de AI Alliance, met als fundament een eerdere publicatie van de European Group of Ethics in Science and New Technologies.
Dat zijn allemaal positieve ontwikkelingen. Maar er zijn wat voorbehouden nodig. Abstracte ethische statements zijn niet genoeg. Werkbare ethische principes moeten overwegen hoe AI wordt gebruikt in specifieke omstandigheden. De ethische vraagstukken die bijvoorbeeld opkomen bij autonome wapensystemen zijn duidelijk anders dan de ethische vraagstukken rond het gebruik van AI in het inschatten van recidive bij overtreders cq criminelen of bij het screenen van sollicitanten of werknemers. Dat is waarom SIIA met specifieke aanbevelingen is gekomen in hoe om te gaan met de algemene principes van rechten, gerechtigheid, welvaart en deugden in het specifieke geval van de borging van algoritmische objectiviteit via het gebruik van separate impact-analyses.
Daarnaast zijn er geen speciale ethische principes die uniek van toepassing zijn op AI en niet op andere soorten van data-analyse. De ethische eisen in het respecteren van rechten, het promoten van welvaart en het cultiveren van menselijke waarden moeten worden toegepast en geïnterpreteerd tijdens de ontwikkeling van implementatie van AI-toepassingen en het vergt veel conceptueel en empirische arbeid om dat op een juiste manier te doen. Maar dat is niet hetzelfde als het zoeken naar unieke normatieve richtlijnen voor AI.
Wettelijke beperkingen
Sommigen, zoals Elon Musk, vinden dat we verder moeten kijken dan ethische standaarden en dat er wet- en regelgeving moet komen. Dat is in enkele gevallen wellicht het geval - in specifieke zaken waar de problemen urgent zijn en aangepakt moeten worden voordat de technologie überhaupt kan worden ingezet. Denk aan de behoefte aan duidelijkheid over de verantwoordelijkheid bij autonoom rijdende auto's of een wetgevend raamwerk rond het door AI te nemen beslissingen in chirurgie en medicijntoediening.
Maar net als dat er geen speciale ethische principes zijn voor AI, is er geen reden om speciale wetgeving te creëren voor AI in het algemeen. AI omvat een oneindig breed spectrum aan analytische technieken; het is helemaal geen losstaande zelfstandige activiteit. Een algemene AI-regelgeving met een toezichthouder zou zijn als het hebben van een regulerend orgaan voor statistische analyse!
Het uit 2016 stammende rapport One Hundred Year Study on Artificial Intelligence concludeerde dat "pogingen om AI in het algemeen te reguleren misplaatst zijn, omdat er geen eenduidige definitie van AI is (het is niet één ding) en de risico's en overwegingen zijn erg verschillend in de verschillende domeinen."
Dat betekent niet dat AI ongereguleerd is of zou moeten zijn. De huidige wet- en regelgeving is nog steeds van toepassing. Het gebruik van AI betekent niet dat jij zelf niet schuldig bent in het geval het de wet breekt. Bedrijven en organisaties kunnen niet aan de verantwoordelijkheid ontsnappen als AI-technologie wordt gebruikt om onderscheid te maken tussen mensen, bijvoorbeeld in een sollicitatieproces of in het geval van het goedkeuren van hypotheken of het toewijzen van woningen.
Ongeacht de manier van reguleren hebben organisaties richtinggevende hulp nodig in de aanpassing aan de vele ethische uitdagingen die ze tegenkomen in de inzet van deze technologie. De principes van eerlijke verdeling, respect voor personen, rechtvaardigheid en het koesteren van waarden kunnen hierin de weg wijzen en zijn belangrijke vangrails voor AI en geavanceerde data-analyse.
Reageer
Preview