Het Europees Parlement vraagt betere bescherming van de consument nu artificiële intelligentie en geautomatiseerde besluitvorming alomtegenwoordig wordt.
Nu het gebruik van artificiële intelligentie en geautomatiseerde besluitvorming niet alleen zijn weg vindt in de privé-sector maar ook in publieke dienstverlening, is het dringend tijd voor een regelgevend kader. In afwachting van een voorstel van Europees Commissaris Margrethe Vestager, nam de Commissie voor de Interne Markt en Consumentenbescherming (IMCO) in het Europees Parlement op donderdag 23 januari al een resolutietekst aan. Petra De Sutter (Groen), die voorzitster is van de desbetreffende Commissie en rapporteur van de voorliggende resolutie, legde in de tekst de nadruk op een betere bescherming van de consument.
Petra De Sutter (Groen): “Wanneer je tegenwoordig een website bezoekt, verschijnt er vaak meteen een gespreksvenster met een virtuele assistent, een zogenaamde ‘chatbot’. Mensen moeten op dat moment duidelijk gewezen worden op het feit dat ze niet met een medemens maar met een geautomatiseerd programma aan het communiceren zijn. Ook moeten consumenten op elk moment in staat kunnen zijn om op één of andere manier wél met een mens van vlees en bloed in contact te komen.”
Naast onwetendheid en mogelijke frustratie, schuilen er ook grotere gevaren voor de consument in de uitrol van geautomatiseerde besluitvorming. Zo kan bijvoorbeeld discriminatie in geautomatiseerde besluitvorming worden ingebouwd.
Petra De Sutter (Groen): “We willen vermijden dat de data waarop geautomatiseerde besluitvorming gebaseerd is, bevooroordeeld of onrechtmatig verkregen zijn of dat er met behulp van geo-locatie gediscrimineerd wordt op nationaliteit. We eisen ook dat consumenten ervan op de hoogte worden gesteld wanneer geautomatiseerde besluitvorming ervoor zorgt dat de prijzen die zij te zien krijgen op hun scherm, aangepast zijn aan een inschatting van hun persoonlijke koopkracht.”
Tenslotte stelt zich de vraag of de bestaande Europese regels inzake productveiligheid- en aansprakelijk wel adequaat zijn in tijden van artificiële intelligentie en andere vergevorderde technologieën. Het actualiseren van die bestaande regelgevende kaders zal de komende jaren dan ook voorliggen.
Petra De Sutter (Groen): “Het is waarschijnlijk dat we verschillende veiligheidsvoorschriften zullen moeten updaten nu er zelflerende producten en diensten op de markt komen, om ongevallen te vermijden. En als een artificieel intelligent apparaat toch een fout maakt, wie is er dan verantwoordelijk en dus aansprakelijk? Voor cruciale dienstensectoren zoals de medische-of bankenwereld, eisen we in onze resolutie niet alleen dat een mens ultiem verantwoordelijk moet zijn voor de beslissingen die daar gemaakt worden, maar ook dat die mens in staat moet zijn om foute beslissingen te corrigeren.”
De voorliggende resolutie zal op de plenaire vergadering worden geagendeerd, alvorens de Europese Commissie haar eigen wetgevende voorstellen rond artificiële intelligentie zal presenteren op 19 februari 2020. Geautomatiseerde besluitvorming en artificiële intelligentie zullen de komende jaren dan ook druk bediscussieerd worden in de wetgevende onderhandelingen tussen de Europese Commissie, het Europees Parlement en de Raad van Ministers.