Bijgewerkt: 15 oktober 2024

Politiek akkoord over artificiële intelligentie in de EU

Nieuws -> EU

Bron: Europese Commissie
12-12-2023

De EU Commissie verwelkomt het politieke akkoord dat het Europees Parlement en de Raad hebben bereikt over de verordening artificiële intelligentie (AI-verordening), die de Commissie in april 2021 heeft voorgesteld.

Ursula von der Leyen, voorzitter van de Europese Commissie: “Artificiële intelligentie verandert ons dagelijks leven nu al. En dit is nog maar het begin. Het ziet ernaar uit dat onze economie en maatschappij enorm gaat profiteren van AI, mits deze verstandig en breed wordt ingezet. Daarom ben ik zeer ingenomen met het politieke akkoord dat het Europees Parlement en de Raad vandaag hebben bereikt over de verordening artificiële intelligentie. De AI-verordening van de EU is het eerste uitgebreide rechtskader voor artificiële intelligentie wereldwijd. Dit is dus een historisch moment. Met de AI-verordening betreedt Europa een nieuw tijdperk. Verantwoorde innovatie krijgt in Europa met het akkoord van vandaag een stimulans doordat de AI-regelgeving is toegespitst op identificeerbare risico's. Door de veiligheid en grondrechten van bevolking en bedrijfsleven te waarborgen, wordt de ontwikkeling, uitrol en toepassing van betrouwbare AI in de EU bevorderd. Onze AI-verordening zal van groot belang worden voor de ontwikkeling van mondiale regels en beginselen op het gebied van mensgerichte AI.” 

De Europese benadering van betrouwbare AI. De nieuwe regels zullen in alle lidstaten rechtstreeks op dezelfde wijze worden toegepast op basis van een toekomstbestendige definitie van AI. Daarbij wordt een risicogebaseerde aanpak gevolgd:

Minimaal risico: De overgrote meerderheid van AI-systemen valt in deze categorie. Toepassingen met een minimaal risico – zoals op AI gebaseerde aanbevelingssystemen of spamfilters – krijgen een “laissez-passer” en zijn niet onderworpen aan verplichtingen, omdat ze geen enkel of slechts een uiterst klein risico vormen voor de rechten of veiligheid van de burger. Bedrijven kunnen zich wel vrijwillig binden aan aanvullende gedragscodes voor deze AI-systemen.

Hoog risico: AI-systemen die als AI-systemen met een hoog risico worden aangemerkt, moeten voldoen aan strenge eisen, waaronder risicobeperkende systemen, kwalitatief hoogwaardige gegevensreeksen, registratie van activiteiten, gedetailleerde documentatie, duidelijke gebruikersinformatie, menselijk toezicht en sterke robuustheid, nauwkeurigheid en cyberbeveiliging. Testomgevingen voor regelgeving zullen verantwoorde innovatie en de ontwikkeling van conforme AI-systemen vergemakkelijken.

Bij AI-systemen met een hoog risico gaat het bijvoorbeeld om bepaalde kritieke infrastructuur, zoals infrastructuur op het gebied van water, gas en elektriciteit, medische hulpmiddelen, systemen om de toegang tot onderwijsinstellingen te bepalen of personen aan te werven, en bepaalde systemen die worden ingezet op het gebied van rechtshandhaving, grenscontrole, rechtsbedeling en democratische processen. Biometrische systemen voor identificatie, categorisering en emotieherkenning worden ook als AI-systemen met een hoog risico beschouwd. 

Foto Amstelveen
(Bron © European Union - 2023)

Ursula von der Leyen voorzitter van de Europese Commissie

Onaanvaardbaar risico: AI-systemen die een duidelijke bedreiging vormen voor de grondrechten van de bevolking, worden verboden. Het gaat om AI-systemen of -toepassingen die menselijk gedrag manipuleren om de vrije wil van gebruikers te omzeilen, zoals speelgoed met spraakondersteuning dat minderjarigen aanspoort tot gevaarlijk gedrag, systemen die “sociale scoring” door overheden of bedrijven mogelijk maken, en bepaalde toepassingen op het gebied van voorspellend politiewerk. Sommige toepassingen van biometrische systemen worden verboden, zoals systemen voor emotieherkenning op de werkplek en sommige systemen voor de categorisering van mensen of biometrische realtime-identificatie op afstand voor rechtshandhavingsdoeleinden (met enkele kleine uitzonderingen).

Specifiek transparantierisico: Bij AI-systemen als chatbots moeten gebruikers zich ervan bewust zijn dat zij met een machine communiceren. Deepfakes en andere door AI gegenereerde inhoud moeten als zodanig worden aangemerkt en gebruikers moeten het weten als er biometrische systemen voor categorisering of emotieherkenning worden ingezet. Bovendien moeten aanbieders systemen zodanig ontwerpen dat synthetische inhoud – audio, video, tekst en afbeeldingen – in een machineleesbaar formaat wordt gemarkeerd en detecteerbaar is als artificieel gegenereerd of gemanipuleerd.

Geldboeten. Bedrijven die de regels niet naleven, krijgen een boete. Deze boetes lopen uiteen van 35 miljoen euro of (als dat hoger is) 7% van de wereldwijde jaaromzet bij de inzet van verboden AI-toepassingen tot 15 miljoen euro of 3% bij andere overtredingen en 7,5 miljoen euro of 1,5% voor het verstrekken van onjuiste informatie. Voor kmo's en start-ups die de AI-verordening overtreden, gelden verhoudingswijs lagere boetes.

AI voor algemeen gebruik. Met de AI-verordening worden speciale regels voor AI-modellen voor algemene doeleinden ingevoerd die zorgen voor transparantie in de hele waardeketen. Voor zeer krachtige modellen die systeemrisico's kunnen inhouden, komen er aanvullende bindende verplichtingen op het gebied van risicobeheer en de monitoring van ernstige incidenten, modelevaluaties en tests die moeten bewijzen dat de modellen veilig zijn. Deze nieuwe verplichtingen worden ingevoerd via gedragscodes die de Commissie samen met de industrie, de wetenschappelijke gemeenschap, het maatschappelijk middenveld en andere belanghebbenden heeft ontwikkeld.

Wat governance betreft, zullen de nationale bevoegde markttoezichtautoriteiten toezien op de uitvoering van de nieuwe regels op nationaal niveau en zal een nieuw op te richten Europees AI-bureau in de Europese Commissie zorgen voor coördinatie op Europees niveau. Het nieuwe AI-bureau zal ook toezicht houden op de uitvoering en handhaving van de nieuwe regels voor AI-modellen voor algemene doeleinden. Het AI-bureau wordt de eerste organisatie ter wereld die naast de nationale markttoezichtautoriteiten bindende AI-regels handhaaft. Daarom wordt het naar verwachting een internationaal ijkpunt. Voor modellen voor algemene doeleinden zal een wetenschappelijk panel van onafhankelijke deskundigen een centrale rol spelen bij het geven van waarschuwingen over systeemrisico's en bij het classificeren en testen van de modellen.

Volgende stappen. Het politiek akkoord moet nu formeel worden goedgekeurd door het Europees Parlement en de Raad en treedt twintig dagen na de bekendmaking ervan in het Publicatieblad in werking. Twee jaar na de inwerkingtreding ervan wordt de AI-verordening van toepassing, met uitzondering van een aantal bepalingen: de verbodsbepalingen zijn al na zes maanden van toepassing en de AI-regels voor algemene doeleinden na twaalf maanden.

Voor de overgangsperiode - de periode vóór het algemeen van toepassing worden van de verordening - zal de Commissie een AI-pact lanceren. Dit pact verenigt AI-ontwikkelaars uit Europa en de rest van de wereld die vrijwillig toezeggen om vóór de wettelijke termijn uitvoering te geven aan de belangrijkste verplichtingen van de AI-verordening.

Om de regels voor betrouwbare AI internationaal te bevorderen, zal de Europese Unie deze blijven promoten in fora als de G7, de OESO, de Raad van Europa, de G20 en de VN. Nog onlangs steunden we het akkoord van de G7-leiders over internationale leidende richtsnoeren en een vrijwillige gedragscode voor geavanceerde AI-systemen in het kader van het AI-proces van Hiroshima.

Achtergrond. De Commissie bevordert en versterkt al jaren de samenwerking op het gebied van AI in de EU om het concurrentievermogen te verbeteren en vertrouwen op basis van de waarden van de EU te waarborgen.  Na de publicatie van de Europese AI-strategie in 2018 en de uitgebreide raadpleging van belanghebbenden heeft de deskundigengroep op hoog niveau inzake artificiële intelligentie (HLEG) in 2019 richtlijnen voor betrouwbare AI en in 2020 een beoordelingslijst voor betrouwbare AI opgesteld. Tegelijk is in december 2018 het eerste gecoördineerde AI-plan voorgesteld als gezamenlijke verbintenis van de EU en de lidstaten.

Het AI-witboek van de Commissie uit 2020 schetst een duidelijke visie op AI in Europa: een ecosysteem van excellentie en vertrouwen, dat het pad heeft geëffend voor het politieke akkoord van vandaag. De openbare raadpleging over het AI-witboek oogstte wereldwijd veel respons. Het witboek ging vergezeld van een verslag over de gevolgen van artificiële intelligentie, het internet der dingen en robotica op het gebied van veiligheid en aansprakelijkheid, waarin werd geconcludeerd dat de huidige wetgeving voor productveiligheid een aantal lacunes bevat die moeten worden aangepakt – met name in de machinerichtlijn.

Onafhankelijk, empirisch onderbouwd onderzoek van het Gemeenschappelijk Centrum voor Onderzoek (JRC) is van fundamenteel belang geweest voor de vormgeving van het AI-beleid van de EU en de doeltreffende uitvoering ervan. Met diepgaand onderzoek en een grondige analyse heeft het JRC meegeholpen bij de ontwikkeling van de AI-verordening, en wel op het gebied van AI-terminologie, de classificatie van risico's, technische vereisten en de permanente ontwikkeling van geharmoniseerde normen.   



Kunstmatige intelligentie (AI=Artificial intelligence) is de intelligentie van machines of software, in tegenstelling tot de intelligentie van mensen of dieren. Het is een vakgebied in de informatica dat intelligente machines ontwikkelt en bestudeert. Dergelijke machines kunnen AI's worden genoemd.

AI-technologie wordt veel gebruikt in de industrie, de overheid en de wetenschap. Enkele spraakmakende toepassingen zijn: geavanceerde webzoekmachines (bijvoorbeeld Google Search), aanbevelingssystemen (gebruikt door YouTube, Amazon en Netflix), het begrijpen van menselijke spraak (zoals Google Assistant, Siri en Alexa), zelfrijdende auto's (bijv. Waymo), generatieve en creatieve tools (ChatGPT en AI-kunst), en bovenmenselijk spel en analyse in strategiespellen (zoals schaken en Go).

Veel problemen bij AI (waaronder redeneren, plannen, leren, perceptie en robotica) vereisen dat de agent met onvolledige of onzekere informatie werkt. AI-onderzoekers hebben een aantal instrumenten bedacht om deze problemen op te lossen met behulp van methoden uit de waarschijnlijkheidstheorie en de economie.



Amstelveenweb.com is niet verantwoordelijk voor de inhoud van de nieuwsberichten.