Onafhankelijke journalistiek over de Vrije Universiteit Amsterdam | Sinds 1953
28 maart 2024

Wetenschap
& Onderwijs

‘Moet je altijd de samenwerking afwijzen met een omstreden bedrijf?’

Het bedrijf Huawei, waar de VU mee samenwerkt, heeft voor de Chinese overheid software getest om Oeigoeren te herkennen, een onderdrukte islamitische minderheid in China. Dat blijkt uit nieuwe onthullingen van The Washington Post. Toch verandert dat niets voor de VU, zegt Frank van Harmelen, AI-hoogleraar en een van de twee onderzoeksdirecteuren van Dreamslab, het samenwerkingsverband tussen de VU, de UvA en Huawei.

“Het is geen groot nieuws dat Huawei die software heeft getest”, aldus Van Harmelen. “We weten al dat Huawei techniek heeft ontwikkeld die door de Chinese overheid voor dit soort doeleinden wordt gebruikt, en dat veroordelen we ook. Maar wij werken met de Europese tak van Huawei juist aan mensgerichte artificial intelligence die voldoet aan de Europese richtlijnen. Ik denk dat we daarmee kunnen bijdragen aan positieve ontwikkelingen binnen dat bedrijf.”

Betere wereld

Van Harmelen realiseert zich dat hij met een samenwerkingsproject van in totaal drie miljoen euro hoogstens een bescheiden invloed zal kunnen uitoefenen op een bedrijf met een jaaromzet van meer dan honderd miljard. “Maar moet je altijd de samenwerking afwijzen met een bedrijf dat omstreden is? Met Shell wordt samengewerkt bij de ontwikkeling van duurzame energie voor een betere wereld, tegelijkertijd staat het bedrijf terecht voor de schending van mensenrechten in Nigeria. ING is veroordeeld voor witwaspraktijken en Google is al drie keer veroordeeld wegens marktbederf. Je moet steeds opnieuw de afweging maken wat ethisch verantwoord is.”

Balans vinden

Met Huawei wordt onder meer software ontwikkeld die het mogelijk maakt “toxisch taalgebruik” te filteren op sociale media, net als Facebook en Twitter dat doen. Is de kans niet groot dat die software ook kan worden ingezet om uitingen te bestrijden die de Chinese overheid onwelgevallig zijn? Van Harmelen denkt van niet. “Deze software richt zich op Europese talen, maar er is inderdaad de discussie over de dual use van techniek die je kunt inzetten voor goede en voor slechte doelen, daar moet je een balans in zien te vinden.”

Je zou ervoor kunnen kiezen niet samen te werken met een bedrijf dat al heeft bewezen er geen been in te zien techniek in te zetten voor het schenden van mensenrechten. “Er is ook binnen onze onderzoeksgroepen heftige discussie over”, zegt Van Harmelen. “En tijdens ons periodieke overleg met Huawei komt dit ook altijd ter tafel. Het is niet zo dat we ons niet bewust zijn van de risico’s. Collega’s in ons vakgebied hebben geweigerd mee te werken aan de ontwikkeling van gezichtsherkenningssoftware omdat die direct kan worden ingezet om mensenrechten te schenden. Bij ons is die directe toepasbaarheid er niet.”

Strenge richtlijnen

‘We hebben het bericht in The Washington Post gelezen en vinden alle vormen en toepassingen van etnisch profileren ontoelaatbaar’, laat het college van bestuur van de VU weten. ‘De reactie van Huawei in het artikel roept veel vragen op. De voorwaarden voor het contractonderzoek met de Europese tak van Huawei zijn volgens strenge Europese richtlijnen opgesteld en de op Europese talen gerichte zoektechnologie waar wij aan werken kan niet voor dit soort doeleinden gebruikt worden.’