Martin_de_Vos_-_The_Rape_of_Europa_-_Google_Art_Project
DRPP
Klein maar zonder grenzen

De AI Verordening

De Europese regels over Artificiële Intelligentie voor een gedeelte vanaf 2.2.2025 en 2.8.2025 van toepassing

1.De AI act van 12 juli 2024 betracht bescherming te geven bij het gebruik en aanwenden van artificiële intelligentie, met name tegen deze AI systemen die een groot risico vormen voor de bescherming van openbare belangen, gezondheid, veiligheid en grondrechten.

Vanaf 2.2.2025 geldt het verbod voor verboden AI-praktijken (zie punt 4 hierna).

Vanaf 2.8.2025 gelden de verplichtingen voor aanbieders van GPAI's (General Purpose AI modellen) en voor de bestaande vanaf 2.8.2027 (ook deze met een hoog risico HRAI).

Vanaf 2.8.2026 zullen de meeste bepalingen gelden ( waaronder de transparantieverplichtingen voor AI-systemen met beperkt risico - zie punt 5 hierna- en de verplichtingen voor de HRAI ( High Risk AI systemen ) opgericht vanaf die datum.

2.In art. 3.1 wordt een AI systeem gedefinieerd als " een machinaal systeem dat is ontworpen om met verschillende niveaus van autonomie te werken en dat na het inzetten ervan aanpassingsvermogen kan vertonen, en dat, voor expliciete of impliciete doelstellingen, uit de ontvangen input afleidt hoe output te genereren zoals voorspellingen, inhoud, aanbevelingen of beslissingen die van invloed kunnen zijn op fysieke of virtuele omgevingen".

3.De verantwoordelijken zijn de aanbieder of de gebruiksverantwoordelijke.

Er is wel een uitzondering voor AI-systemen die worden vrijgegeven onder gratis of open source licenties.

4. Uitdrukkelijk verboden zijn AI systemen, die manipulatief zijn, misbruik maken van bepaalde kwetsbaarheden van individuen of groepen, gebruikt als "social scoring"( zoals in China), emoties afleiden van personen op de werkplek en in onderwijs, ,criminaliteit voorspellen op basis van profilering of persoonlijkheidskenmerken, ongericht gezichtsafbeeldingen van het internet scrapen om gezichtsherkenningsdatabases aan te leggen, en gebruik van RBI ( real time biometrische identificatiegegevens )( tenzij voorafgaandelijk toestemming van gerecht voor zoeken van vermiste personen, het voorkomen van terroristische aanslagen of identificeren van verdachten van bepaalde misdrijven.

5.AI-systemen met een beperkt risico (( zoals chat bots en AI-assistenten, die synthetische audio of tekst genereren ( vb. Chat GTP), die gebruikt worden voor herkennen van emotie buiten de werkplek of het onderwijs, of biometrische categoriesystemen vormen en diegene die deepfakes genereren )).

Gebruikers moeten worden geïnformeerd dat zij interageren met een AI-systeem (tenzij evident voor een voorzichtige oplettende persoon- vb. Alexa en, Siri).

Er bestaan uitzonderingen ( bij rechtshandhaving, beperkte ondersteunende functie, wanneer artistiek, creatief, satirisch of fictief, wanneer content menselijke controle en verantwoordelijke uitgever.

6. Er zijn tevens regels voor AI-modellen voor algemene doeleinden (GPAI),( zoals GTP 4 ) die over capaciteiten beschikken met een "grote impact". Ze moeten zelf regels opstellen voor naleving van auteursrecht ( en naburige rechten), moeten zelf de systeemrisico's beoordelen en beperken, rapporteren van ernstige incidenten en corrigerende maatregelen aan het AI-bureau ( zie hierna) en passende cyberbeveiligingsmaatregelen treffen.

7. Het grootste gedeelte van de verplichtingen hebben betrekking op AI-systemen met hoog risico (HRAI). Dit betreft harmonisatieregels omtrent machines, speelgoed, radioapparatuur, medische hulpmiddelen, luchtvaart en vervoer, biometrische data, kritieke infrastructuur, onderwijs, werkgelegenheid, essentiële openbare diensten, asiel en migratie.

Weliswaar moet het een significant risico op schade op veiligheid, gezondheid of grondrechten inhouden om als dusdanig gekwalificeerd te worden.

Eens het systeem als zodanig kan worden beoordeeld moet het zelf een procedure van risicobeheer voorzien, moeten de datasets waarmee gewerkt worden zoveel mogelijk foutenvrij zijn, en moet er een technische en leesbare technische documentatie voorhanden te zijn. Het moet geregistreerd worden, transpârantie waarborgen en informatie verstrekken aan exploitanten, nauwkeurig en robuust zijn.

8. Voor controle moet ieder lidstaat een autoriteit aanduiden en een marktoezicht-autoriteit. Deze laatste als contactpunt voor klachten wegens inbreuken.

De sancties zijn geldboetes. De zwaarste zijn voor schendingen van verbod op bepaalde AI praktijken ( punt 4) , 7% wereldomzet met max. 35 milj. €.

Er bestaat veel verzet tegen deze regeling ( o.a. VS) en nog een lange weg zal moeten afleggen om concreet toe te passen.

( ze ook K.Cox e.a., een juridische verkenning van de AI act, RW 2024-25, p. 283 e.v.)

december 29, 2025, 08:30 p.m.