NL | EN

Home > Nieuws

AI in eigen handen - samen slimmer: toepassingen zonder winstoogmerk

20-01-2024

Bedrijven maken AI-toepassingen met winstoogmerk. Om echt van AI te kunnen profiteren en maatschappelijke problemen op te lossen moeten we vooral samen slimmer zijn.

The New York Times besloot net na kerst zijn artikelen niet zomaar cadeau te willen geven aan techbedrijven. De krant klaagt OpenAI, de ontwikkelaar van ChatGPT, aan voor het onrechtmatig gebruik van artikelen. OpenAI gebruikte namelijk materiaal van de krant – en zo ongeveer de rest van het internet – om zijn taalmodel te trainen. Zonder heel veel geschreven taal om van te leren had ChatGPT niet bestaan. The New York Times vindt het gebruik van zijn stukken voor het trainen van een taalmodel een schending van het auteursrecht. In sommige gevallen produceert ChatGPT zelfs teksten die direct afkomstig zijn van The New York Times zonder de bron te noemen.

Auteursrecht is niet het enige ethische probleem van ChatGPT. Om te voorkomen dat ChatGPT racistische of andere haatdragende antwoorden produceert, is nog steeds veel handwerk nodig. Handwerk dat wordt gedaan door laagbetaalde Keniaanse arbeiders, zo onthulde Time. Daarnaast vormen vooroordelen voor alle AI-taalsystemen nog een ingewikkeld probleem.

Publieke initiatieven

Ondertussen wordt er gewerkt aan allerlei AI-toepassingen, met en zonder taal, die de maatschappij verder kunnen helpen. Eerder in deze serie zagen we dat AI de arts kan gaan ondersteunen bij het stellen van diagnoses, dat robots kunnen helpen om eenzaamheid bij ouderen te verlichten, en dat taalmodellen journalisten in staat kunnen stellen om hun stukken beter aan te sluiten op hun doelgroep.

Hoe los je dit soort beloften van AI op een ethische manier in? Een deel van de oplossing is de ontwikkeling van AI-systemen niet over te laten aan grote techbedrijven, zoals OpenAI, maar het heft in eigen handen te nemen, stelt Selmar Smit, onderzoeker bij TNO. Hij is de bedenker van het project GPT-NL. Daarin probeert TNO, samen met het Nederlands Forensisch Instituut en ICT-coöperatie SURF, op een ethische manier een Nederlands taalmodel te ontwikkelen. Smit hoopt dat dit model is in te zetten om bijvoorbeeld de overheid toegankelijker te maken voor burgers.

Maaike Harbers, lector Artificial Intelligence & Society aan de Hogeschool Rotterdam, is hier voorstander van. 'We zien dat er bij grote techbedrijven ook wel mensen bezig zijn met verantwoorde AI, maar die bedrijven zijn niet zo heel transparant over wat ze doen. We weten niet welke keuzes er met welke belangen worden gemaakt. We weten wel dat het belang om geld te verdienen in elk geval bij bedrijven sterk aanwezig is. Voor verantwoorde AI ben ik enthousiast over meer publieke initiatieven; GPT-NL is daar een mooi voorbeeld van.'

Netflix

In haar eigen onderzoek kijkt Harbers naar hoe je AI op een ethisch verantwoorde manier kunt toepassen binnen organisaties. 'Vaak richt ik me in mijn onderzoek op een partij met een AI-toepassing of plannen voor de inzet van AI. Ik kijk dan hoe je dat ethisch verantwoord kunt aanpakken. Dat begint met het in kaart brengen van wat eigenlijk de belangen en ethische keuzes zijn.'

'Een project waar ik aan werk is bijvoorbeeld het DRAMA-project (Designing Responsible AI for Media Applications, red)', vervolgt Harbers. 'Hierin proberen we mediaorganisaties te ondersteunen bij het op een verantwoorde manier ontwerpen, ontwikkelen en inzetten van AI-toepassingen. De inzet van AI binnen de media kan enorm breed zijn, van het automatisch ondertitelen van programma’s tot het maken van een systeem dat iets aanbeveelt om te kijken of te lezen.'

'Bij het ontwikkelen van verantwoorde AI moet je voortdurend ethische afwegingen maken. Denk aan een aanbevelingssysteem. Commerciële platforms, zoals Netflix, willen met hun aanbevelingen mensen vooral zo lang mogelijk vasthouden, maar publieke mediaorganisaties moeten vanuit de wet het Nederlandse publiek ook proberen te informeren en te verbinden. Dat zorgt ervoor dat je bepaalde ethische keuzes moet maken. Je wilt als publieke organisatie voorkomen dat je mensen alleen maar meer van hetzelfde voorschotelt, maar je wilt ook dat je iets aanbeveelt dat mensen leuk vinden.'

Toestemming vragen

De belangrijkste ethische keuze bij het ontwikkelen van GPT-NL, is ook de belangrijkste uitdaging van het project: 'We willen dat het materiaal dat we gebruiken voor de ontwikkeling van GPT-NL, allemaal van bronnen komt die hier toestemming voor geven. Om genoeg data te hebben voor een goedwerkend model zijn we in gesprek met allerlei organisaties die zelf veel teksten produceren', laat Smit weten.

Onze leestips

Uiteindelijk moet GPT-NL een basis vormen waarop bedrijven en overheden allerlei toepassingen kunnen bouwen, bijvoorbeeld een hulpje dat uitlegt wat er in de brief van de Belastingdienst staat. De nadelen van de bekendere AI-modellen zullen niet helemaal afwezig zijn bij GPT-NL. Zo zal het door de manier waarop taalmodellen nu worden gemaakt, ook bij GPT-NL lastig blijven om uit te leggen hoe GPT-NL precies aan zijn antwoord is gekomen.

Ook zijn vooroordelen volgens Smit niet uit te sluiten. 'Het is lastig om hier rekening mee te houden bij het maken van een taalmodel. We maken de kans op vooroordelen wel kleiner door hoogwaardige teksten te gebruiken voor training. Daarom maken we geen gebruik van fora waarvan we weten dat er haatdragende en seksistische berichten op staan. Maar vooroordelen kunnen we mogelijk niet helemaal uit het taalmodel houden. Dat kan je misschien niet in het taalmodel zelf oplossen, maar dat moet je dan wel doen in de toepassing die je eromheen bouwt.'

Teams

Alleen het heft in eigen hand nemen lost dus niet alle problemen rond AI op. Er blijven keuzes te maken. Bewustwording van het feit dat veel keuzes bij het maken en toepassen van AI geen technische, maar ethische keuzes zijn, is belangrijk om AI echt verantwoorder te maken, stelt Somaya Ben Allouch. Zij is lector Digital Life aan de Hogeschool van Amsterdam en bijzonder hoogleraar Human-System Interaction for Health & Wellbeing aan de Universiteit van Amsterdam.

'We moeten onze toekomstige en huidige ontwikkelaars meegeven dat ze niet alleen een algoritme bouwen, maar dat de beslissingen die ze maken, impact hebben op mensen van vlees en bloed. Niet alleen de ontwikkelaars, iedereen die een rol heeft bij de ontwikkeling van een AI-systeem of de manier waarop het wordt toegepast, moet zich ervan bewust zijn dat ze een verantwoordelijkheid hebben bij ontwerpen en daarna gebruiken van AI.'

De teams die AI-toepassingen maken, moeten volgens Ben Allouch ook niet alleen uit ontwikkelaars bestaan. Ook ontwerpers, professionals uit het vakgebied waar de AI-toepassing wordt gebruikt, en de mensen waarvoor je een AI-oplossing probeert te maken, kunnen al veel eerder onderdeel uitmaken van het ontwerpproces van een AI-toepassing. 'Dan kunnen we de belofte van AI om de juiste dingen te doen, ook waarmaken.'

Dit artikel is tevens verschenen op de website van NEMO Kennislink evenals op de site van de Universiteit van Amsterdam.