Popup-Niks-missen-2.png

NIEUWS

demonstratie
Oeigoerse vrouwen demonstreren in Den Haag tegen onderdrukking door China
Maatschappij 12 maart 2021

‘Je kunt andere dingen doen om de Oeigoeren te helpen’

De samenwerking van de Amsterdamse universiteiten met Huawei zit velen niet lekker. Wantrouwen en de angst voor spionage van de Chinese techgigant leidden in de Verenigde Staten tot een handelsverbod. Maar minstens zo zwaar wegen de mensenrechten.

China maakt zich schuldig aan volkerenmoord op de Oeigoerse moslimminderheid uit de noordelijke regio Xinjang, vindt een meerderheid in de Tweede Kamer. Vooralsnog is dat voor de VU geen reden om te stoppen met het Huawei-project Dreamslab.

Oeigoeren
Huawei testte in 2018 software die gezichten van mensen uit de Oeigoerse bevolkingsgroep in China op camerabeelden kon herkennen, en kon dat direct aan de Chinese politie kon doorgeven. Dat kwam afgelopen december aan het licht. De Turks sprekende moslimminderheid in China wordt stelselmatig onderdrukt. Er is melding van gedwongen abortussen, martelkampen en verkrachtingen van vrouwen.

Jacco van Ossenbruggen, hoofddocent bij Informatica aan de VU, is directielid van een ander nieuw VU-UvA-lab, het Civic AI-lab, voor onderzoek naar ‘mensgerichte artificiële intelligentie’. ‘Wij staan voor AI die economische en sociale mensenrechten verbetert en daarbij de fundamentele mensenrechten als uitgangspunt neemt’, aldus de website.

Wat vindt u van de samenwerking met Huawei?
“Het gaat wat mij betreft niet over de vraag of je voor of tegen bent. Daar is het te complex voor. Het is heel vervelend als je samenwerkingspartner ergens anders in hun organisatie dingen blijkt te doen die botsen met je eigen ethische overtuigingen. Wanneer is dat een reden om te stoppen? Volgens mij kun je andere dingen doen om de Oeigoeren te helpen, door AI goed in te zetten.”

Maar is het geen principekwestie?
“Waar leidt dat principe toe? Als je niet met Huawei wilt samenwerken, wil je dat zeker niet met de Chinese overheid. Moeten dan alle Chinese studenten en wetenschappers het land uit? Zij komen met een staatsbeurs hierheen. En dan kan ik ook redenen bedenken om nooit meer met Shell samen te werken, of met Google of Apple, of de Nederlandse overheid.”

De Nederlandse overheid?
“Ik was verontwaardigd over de manier waarop door de Nederlandse overheid AI en andere IT is ingezet bij onder andere de discriminatie van ouders met een dubbele nationaliteit in de toeslagenaffaire. Ik heb mezelf dus de vraag gesteld: wil ik met een overheid die dit soort dingen doet nog wel samenwerken? Die heb ik volmondig met ‘ja!’ beantwoord, omdat ik geloof dat juist als ik hier dingen wil verbeteren, ik met overheidsorganisaties wil samenwerken om ervoor te zorgen dat AI in de toekomst onze overheid inclusiever, eerlijker en transparanter helpt te maken. Dat klinkt allemaal positief maar het betekent dat ik dus ook bereid moet zijn om vuile handen te maken.”

Hier is na een parlementaire enquête het kabinet afgetreden. In China zal dat niet gebeuren.
“Wat er gebeurt in Xinjang is verschrikkelijk. Ook dat er AI-bedrijven bij betrokken zijn. Maar dit is geen incident. Je kunt iets dergelijks verwachten van een bedrijf dat zakendoet met de Chinese regering. We moeten hier dus een goede discussie over voeren, ook in de academische context. Het gaat erom dat AI ook voor slechte dingen ingezet kan worden. Hoe verhoud je je daarmee? Moeten we stoppen met alle gezichtsherkenningsonderzoek? Het is te kort door de bocht om te zeggen: ‘als je doorgaat met het lab, ben je tegen de Oeigoeren’. Maar wanneer gaat het wel te ver?”

Je kunt blijven discussiëren. Komt er ook een keer een eindconclusie?
“Je moet het per geval bekijken. Deze onderzoekers werken samen met Huawei Finland. Moet je daarmee stoppen als er ergens anders in het bedrijf iets gebeurt wat niet aan onze ethische normen en waarden voldoet? Bovendien heeft het onderzoek goede ethische uitgangspunten. Het gaat over taal en zoeken in een open omgeving. Dat is voor de wereld veel beter dan de gesloten systemen van Google en Bing.”

Ethische bezwaren
Als je samenwerkt met Huawei, steun je dan niet indirect de ernstige schendingen van de mensenrechten? Twee VU-wetenschappers ondertekenden een open brief tegen de samenwerking vanwege die ethische bezwaren. Ook de ondernemingsraad van de VU riep op tot een discussie en wellicht de oprichting van een speciale ethische commissie. En een promovendus en studentenraadslid van de UvA vinden dat de Amsterdamse universiteiten ‘publiekelijk duidelijk moeten maken dat ‘we’ helemaal niets te maken willen hebben met bedrijven die met hun technologie mensenrechtenschendingen faciliteren’.
VU-hoogleraar kunstmatige intelligentie Frank van Harmelen vindt het “onverstandig om de deur helemaal dicht te doen. Dan verlies je het contact met een belangrijke speler in de wereldtop”, zei hij in een interview met Ad Valvas in augustus. En in december voegde hij toe: “Wij werken met de Europese tak van Huawei juist aan mensgerichte artificial intelligence die voldoet aan de Europese richtlijnen. Ik denk dat we daarmee kunnen bijdragen aan positieve ontwikkelingen binnen dat bedrijf.”
Marieke Kolkman
BEELD: Roel Wijnants (Flickr)

Reageren?

Houd je bij het onderwerp, en toon respect: commerciële uitingen, smaad, schelden en discrimineren zijn niet toegestaan. De redactie gaat niet in discussie over verwijderde reacties.

De inhoud van dit veld is privé en zal niet openbaar worden gemaakt.

Deze vraag is om te controleren dat u een mens bent, om geautomatiseerde invoer (spam) te voorkomen.