Ethische uitdagingen van AI in eCommerce

05-01-2024 (11:26) - Marketing

Binnen het Nederlandse bedrijfsleven wordt op grote schaal met Artificial Intelligence (AI) geëxperimenteerd, door zowel bedrijven als werknemers.

Bijna de helft (48%) van de werknemers is ervan overtuigd dat AI grote veranderingen met zich mee zal brengen en een kwart experimenteert ermee of gebruikt het al in hun werk. Echter, maar 14% van de organisaties heeft hier beleid voor. De snelheid van AI-implementatie overtreft vaak de opstelling van passende ethische richtlijnen. Hierdoor bevinden veel organisaties zich in een grijze zone waarin de grenzen van ethisch verantwoord gebruik van AI nog niet helder zijn gedefinieerd.

Nederlandse werknemers zijn positief over het gebruik van AI. 60% van hen is van mening dat het de productiviteit verhoogt en 28% voelt zich meer betrokken bij hun werk. 43% heeft AI tools al in gebruik genomen, zelfs als deze nog niet goedgekeurd zijn door de werkgever. Deze snelle acceptatie van AI-tools roept vragen op over verantwoording en transparantie. Het gebruik van ongeautoriseerde tools kan niet alleen een ethische kloof creëren, maar ook de integriteit van bedrijfsprocessen in gevaar brengen, waardoor de behoefte aan heldere richtlijnen voor het gebruik van dergelijke technologieën toeneemt.

Geen eenduidige definitie van ethisch gebruik

De definities die werknemers aan ethisch gebruik van AI geven lopen erg uiteen. Denk bijvoorbeeld aan transparantie, verantwoordelijkheid, privacy, menselijke controle en misschien wel het belangrijkste: inclusiviteit. Iets meer dan een kwart zegt dat dit het snel checken van output inhoudt, voor een andere groep gaat het om uitsluitend gebruiken van tools die door de organisatie zijn goedgekeurd en een derde kwart is van mening dat dit het gebruik betreft van tools die gevalideerd zijn op nauwkeurigheid.

Het is niet verbazend dat de meningen zo uiteen lopen; maar liefst 77% van de Nederlandse werknemers geeft aan geen (volledige) training te hebben gehad voor het gebruik van AI. Een uniform begrip van ethisch gebruik van AI is cruciaal om inconsistenties en potentiële misinterpretaties te verminderen. Deze variërende percepties onthullen de dringende behoefte aan gestandaardiseerde richtlijnen en training. Het ontwikkelen van educatieve programma's gericht op ethisch bewustzijn en verantwoordelijk gebruik van AI wordt steeds dringender. We bespreken enkele van de belangrijkste ethische uitdagingen die in dergelijke trainingen aan bod zouden moeten komen.

Naleven van privacywetgeving

AI-systemen verzamelen grote hoeveelheden data en slaan deze op voor onder andere trainingsdoeleinden. Dit betekent dat de privacy van deze gegevens goed gewaarborgd moet worden. Daarnaast benadrukt de toenemende complexiteit van dataverzameling en -analyse de noodzaak van continu toezicht en aanpassingen. Het is niet alleen essentieel om de huidige privacywetgeving na te leven, maar ook om proactief te anticiperen op toekomstige ontwikkelingen, waarbij privacybescherming een integraal onderdeel vormt van AI-ontwikkeling.

Hiervoor zijn maatregelen nodig. Dit omvat het implementeren van strikte privacyregels en ethische richtlijnen voor het verzamelen, opslaan en gebruiken van gegevens. Transparantie over hoe gegevens worden gebruikt en het waarborgen van anonimiteit of pseudonimisatie van persoonlijke informatie zijn ook cruciaal.

AI-ontwikkelaars en bedrijven moeten zich bewust zijn van de ethische implicaties van hun technologieën en streven naar het creëren van systemen die privacyvriendelijk zijn. Het is een voortdurende uitdaging om de voordelen van AI te maximaliseren zonder inbreuk te maken op de privacyrechten van individuen, maar het is een cruciale inspanning om een evenwicht te vinden tussen innovatie en ethische verantwoordelijkheid.

Kansen en risico’s van veiligheid

Enerzijds biedt AI kansen om beveiliging te versterken. AI kan worden ingezet voor het detecteren van bedreigingen, het identificeren van patronen in grote hoeveelheden gegevens om potentiële risico's op te sporen en zelfs voor het verbeteren van cybersecurity door snellere responsmechanismen.

Maar zelfs AI-systemen zijn niet onverslaanbaar en kunnen kwetsbaar zijn voor cyberaanvallen. De complexiteit van AI-modellen vergroot de kans op onvoorziene kwetsbaarheden, waardoor de urgentie van continue cybersecuritymaatregelen toeneemt. Cybersecurity wordt gezien als grootste externe risico (groter dan de recessie) het komende jaar, door meer dan de helft van de IT-besluitvormers (54%).

Een holistische benadering van cybersecurity is noodzakelijk. Het vergt niet alleen technologische innovatie, maar ook constante evaluatie en bijstelling van protocollen om proactief te reageren op opkomende bedreigingen. Bovendien is een bredere samenwerking tussen verschillende sectoren en instanties cruciaal om gezamenlijke verdedigingsmechanismen tegen cyberaanvallen op te zetten.

Transparantie en verantwoordingsplicht

De groeiende complexiteit van AI-modellen verhoogt de behoefte aan transparantie en verantwoordingsplicht. Het is niet langer voldoende om enkel de eindresultaten van AI-beslissingen te begrijpen; het is essentieel om de logica en het proces achter deze beslissingen te doorgronden. Daarnaast is het vaststellen van duidelijke verantwoordingslijnen cruciaal, zodat bij negatieve gevolgen de verantwoordelijken kunnen worden geïdentificeerd.

Transparantie vereist begrijpelijke werking van AI-systemen, inclusief de besluitvorming en gebruikte data. Verantwoordingsplicht betekent verantwoordelijkheid nemen voor de resultaten en beslissingen van deze systemen. Het implementeren van deze principes vergt technologische, ethische en juridische benaderingen om privacy en veiligheid te waarborgen. Deze principes zijn essentieel om vertrouwen in AI op te bouwen en ervoor te zorgen dat deze systemen ethisch zijn in hun toepassingen.

Auteur: Hans de Penning, CEO en co-founder van Neople
 


Bureaus

Media

Economisch