EU-richtlijnen voor ethische kunstmatige intelligentie gepresenteerd

EU-richtlijnen voor ethische kunstmatige intelligentie gepresenteerd

by Klantcontact
11 april 2019

De Europese Commissie heeft vrijblijvende richtlijnen opgesteld voor de toepassing van kunstmatige intelligentie. Deze richtlijnen zijn gepresenteerd op dinsdag 9 april. Ze hebben als doel om de ontwikkeling en toepassing van kunstmatige intelligentie te bevorderen. De toepassing van kunstmatige intelligentie omvat ook het nemen van beslissingen die maatschappelijke impact hebben. Een van de meest bekende voorbeelden uit de praktijk is de zelfsturende auto die om een ongeluk te voorkomen moet uitwijken, maar daarbij wellicht andere schade veroorzaakt. Los van juridische en ethische vragen wordt kunstmatige intelligentie ontwikkeld door programmeurs die bepaalde denkbeelden hebben (bias). Ook levert kunstmatige intelligentie nieuwe vraagstukken op als het gaat om de organisatie van werk.

Dit jaar nog kunnen bedrijven, overheden en instellingen zich aansluiten bij een Europese KI-alliantie. Deze gaat van start met een pilotfase waarin de richtlijnen getoetst worden.

 

EU-richtlijnen KI

    1. Menselijk toezicht: ai-systemen moeten het mogelijk maken dat de mens de regie houdt en de rechten van de mens ondersteunt. Ze mag niet de menselijke autonomie ondermijnen;
    2. Robuust en veilig: ai vraagt om veilige, betrouwbare en robuuste algoritmes die om kunnen gaan met de fouten binnen ai-systemen;
    3. Privacy en databeleid: burgers moeten volledige controle hebben over hun eigen data, terwijl data over hen niet gebruikt mag worden om hen schade te berokken of te discrimineren;
    4. Transparantie: ai-systemen moeten traceerbaar zijn;
    5. Diversiteit en eerlijkheid: ai-systemen moeten alle menselijke vaardigheden meenemen en toegang verzekeren voor iedereen;
    6. Maatschappij en milieu centraal: ai-systemen moeten positieve sociale veranderingen mogelijk maken en duurzaamheid hoog in het vaandel dragen;
    7. Verantwoordelijkheid: mechanismes moeten ingebouwd worden om entiteiten verantwoordelijk te maken voor (de uitkomsten van) ai-systemen.
Technologie
Top