糖心直播

AI en algoritmes zijn een gift en gif in onze samenleving

Onze samenleving raakt langzaam doordrenkt met surveillancetechnologie. Niet alleen middels cameratoezicht of het gebruik van algoritmes in de opsporing van criminaliteit, maar ook met ogenschijnlijk onschuldige toepassingen zoals een slimme koelkast of gasmeter, slimme apps, een digitale deurbel of de camera鈥檚 ingebouwd in een Tesla. De meeste mensen lijken zich bewust van de voordelen en gemakken die de integratie van digitale vernuftigheden in onze samenleving brengt. Er wordt echter te weinig gesproken over de risico鈥檚 van AI en algoritmes, vindt Marc Schuilenburg, hoogleraar Digital Surveillance aan Erasmus School of Law. Volgens hem ontbreekt het aan digitale ethiek en als het in de criminologie wel over de negatieve kant van digitalisering gaat, gaat het te weinig over de relatie van surveillance met machtsstructuren en de concrete ervaringen van personen.

In zijn oratie 鈥榃aarom we met elkaar moeten praten over big data en algoritmes als het over veiligheid gaat鈥 legt Schuilenburg uit waar het gesprek over digitale surveillance volgens hem over zou moeten gaan. Nadat een technologie wordt ontworpen en toegepast, wordt vaak na implementatie pas nagedacht over het wettelijke kader. Dat moet anders; in de ontwerpfase zou volgens de criminoloog al nagedacht moeten worden over ethiek en juridische kaders.  

Feodale veiligheid 

Volgens Schuilenburg leven we in een door surveillance gedomineerde samenleving. 鈥淚edereen participeert hier in meer of mindere mate aan mee. Surveillance is volledig ge茂ntegreerd in onze routines en levensstijlen鈥, verklaart hij tegenover Vers Beton. 鈥淒igitale surveillance is een gift waarmee zware criminaliteit kan worden bestreden, maar wordt een gif wanneer dit leidt tot stelselmatige schendingen van mensenrechten.鈥 Niet alleen de overheid maakt inbreuk op grond- en mensenrechten bij de toepassing van digital surveillance. Ook grote techbedrijven hebben een machtige positie en bezitten veel data over gebruikers. Schuilenburg spreekt in dit kader van 鈥榝eodale veiligheid鈥. 

Sociale inclusie 

Het publiek maken van digitale surveillance zou bijdragen aan een oplossing voor de risico鈥檚 rondom AI en algoritmes. Dit betekent niet dat de overheid altijd volledig transparant dient te zijn over de gebruikte algoritmes, maar publieke diensten moeten volgens Schuilenburg duidelijk zijn over welke publieke waarden ze uitdragen. De samenleving moet de overheid kunnen bevragen over deze waarden, tools en de toepassing hiervan. Zulke vragen zijn bijzonder relevant in de ontwerpfase van digitale technologie. 鈥淥ok andere groepen mensen dan ICT-experts moeten worden betrokken in het ontwerpproces. Denk aan jongeren, minderheden en de ervaringen van praktijkprofessionals. Noem het sociale inclusie, want ontwerpers moeten leren zich beter te verplaatsen in de leefwereld van anderen鈥, stelt Schuilenburg. 

Hoe dit concreet te integreren in de praktijk van algoritmebouwers? Dat is de grote vraag voor Schuilenburg: 鈥淒it is precies wat ik in Rotterdam wil gaan onderzoeken met de leerstoel Digitale Surveillance. Het zal zo eenvoudig niet zijn in te breken op dit domein van wiskundigen, econometristen en programmeurs. Maar we moeten toch ergens beginnen. Ik vind dat de criminologie haar maatschappelijke verantwoordelijkheid ten volle moet nemen en niet moet afwachten totdat van alles ge茂mplementeerd is. Dan is het too little, too late, omdat de belangrijkste keuzes dan al gemaakt zijn.鈥 

Professor
Marc Schuilenburg, hoogleraar Digitale Surveillance
Meer informatie

Lees het hele en het .

Vergelijk @count opleiding

  • @title

    • Tijdsduur: @duration
Vergelijk opleidingen