Er is een nieuwe compromistekst voor de EU-verordening inzake kunstmatige intelligentie. Het richt zich op AI-systemen met een hoog risico en de identificatie van de verplichtingen en verantwoordelijkheden die moeten worden gelegd op de leveranciers van kunstmatige-intelligentiesystemen
Twee rapporteurs van het Europees Parlement hebben een nieuwe compromistekst uitgebracht voor de voorgestelde verordening inzake kunstmatige intelligentie of AI-wet . Het doel van de verordening is om de ontwikkeling en het gebruik van kunstmatige intelligentie te reguleren, om het vertrouwen van de Europese burgers in soortgelijke instrumenten te vergroten en ervoor te zorgen dat het gebruik ervan geen schending vormt van de grondrechten die in de wetgeving zijn vastgelegd. Europeese Unie.
Het onderwerp van de nieuwe compromistekst is volgens Euractiv :
- de zogenaamde “high risk” AI-systemen e
- de identificatie van de verplichtingen en verantwoordelijkheden die moeten worden gelegd op de leveranciers van kunstmatige-intelligentiesystemen.
De wijzigingen die zijn voorgesteld door de corapporteurs Brand Benifei en Dragoș Tudorache zullen nu worden besproken en onderzocht door het Europees Parlement, met dien verstande dat er nog steeds veel knelpunten in het voorstel zijn die verdere technische analyse vereisen, zodra de minder “controversiële” delen van het voorstel zelf zijn geconsolideerd en verduidelijkt. Volgens wat Euractiv heeft gemeld op basis van het nieuws dat door een ambtenaar van het Europees Parlement is bekendgemaakt, is dit een zeer specifieke strategie van de wetgevers, die tot nu toe heeft geleid tot de handhaving van de tot nu toe voorgestelde compromisamendementen met kleine wijzigingen, waardoor de verwerkingstijd van de definitieve tekst wordt versneld.
Regelgeving kunstmatige intelligentie, leveranciersverplichtingen voor risicovolle systemen
Zoals voorzien in de inleiding, introduceert het nieuwe wijzigingsvoorstel nieuwe verplichtingen voor leveranciers van risicovolle kunstmatige-intelligentiesystemen: ten eerste zullen zij een kwaliteitsmanagementsysteem moeten implementeren dat in bestaande systemen kan worden geïntegreerd in overeenstemming met de Europese industrienormen, waaronder de Europese verordening over medische hulpmiddelen.
Verder moeten AI-leveranciers de logboeken die automatisch door de systemen worden gegenereerd, minimaal zes maanden bewaren, tenzij anders bepaald in de Europese wetgeving of de toepasselijke nationale wetgeving, of het passend is om de logboeken langer te bewaren op basis van wat vastgesteld door industriestandaarden of het doel dat aan het AI-systeem wordt toegeschreven.
De regels die voorzagen in de verplichting om de technische documentatie op te stellen en over de conformiteitsbeoordeling zijn echter geschrapt vanwege hun redundantie met andere artikelen van dezelfde regelgevende tekst.
Het is wel verstaan dat, als de AI-aanbieder van mening is dat een van zijn risicovolle systemen niet voldoet aan de regelgeving, hij deze onverwijld van de markt moet halen en definitief moet uitschakelen.
De leveranciers van AI-systemen worden ook belast om distributeurs en andere actoren in de waardeketen onmiddellijk op de hoogte te stellen van elke niet-naleving die in het systeem wordt gedetecteerd, en van de corrigerende maatregelen die zijn genomen om deze niet-naleving te verhelpen. evenzo moeten de nationale markttoezichtautoriteiten en de instantie die verantwoordelijk is voor de controle van het systeem hiervan op de hoogte worden gebracht.
Gebruikers van risicovolle AI-systemen moeten ook bereid zijn om samen te werken met nationale autoriteiten, de Europese Raad voor AI en de Europese Commissie om de conformiteit van het systeem aan te tonen, op dezelfde manier als voor leveranciers.
Op een met redenen omkleed verzoek van de uitvoerende macht van de EU of een markttoezichtautoriteit zullen leveranciers of gebruikers dan toegang moeten verlenen tot de registers die automatisch door het systeem worden gegenereerd, met de verplichting tot vertrouwelijkheid voor alle overheidsinstanties die toegang hebben.
De keten van verantwoordelijkheden
Het wijzigingsvoorstel richt zich meer in het algemeen op de juiste verdeling van verantwoordelijkheden over de gehele complexe supply chain van AI-systemen. Juist in dit opzicht bevat het amendement ook een reeks prikkels om specifieke bepalingen op te nemen die verband houden met het concept van generieke AI, dat wil zeggen systemen die kunnen worden gebouwd om een reeks verschillende taken uit te voeren.
Met betrekking tot deze systemen lijkt het in feite bijzonder complex om de hypothesen te identificeren waarin de leverancier verantwoordelijk kan worden gehouden voor de resultaten die door de AI worden verkregen, niet in staat om op de hoogte te zijn, op het moment dat de AI wordt ontwikkeld en op de markt gebracht, welk doel de gebruikers aan de uiteindelijke systemen zullen kunnen geven. Om deze reden lijkt het probleem nog steeds niet volledig te zijn opgelost.
Dat gezegd hebbende, is de compromistekst ook bedoeld om de verantwoordelijkheden te verduidelijken, naast die van de systeemaanbieders, ook van de importeurs en distributeurs van KI-systemen met een hoog risico, met de nadruk op hoe zij zullen samenwerken met nationale autoriteiten en hoe onverwachte risico’s.
Bovendien moeten leveranciers, als voorwaarde om de AI op de EU-markt te commercialiseren, een gemachtigde vertegenwoordiger aanwijzen, die ervoor zal zorgen dat de conformiteitsbeoordelingsprocedure van het systeem ook is uitgevoerd. zoals het ter beschikking houden van de autoriteit nationale bevoegde autoriteit, alle relevante documentatie, evenals de conformiteitsverklaring.
Wijzigingen in administratieve procedures
Als onderdeel van het compromis, zoals gerapporteerd door Euractiv, hebben de leden van het Europees Parlement ook de aandacht gevestigd op de rol van aangemelde instanties, evenals particuliere bedrijven die verantwoordelijk zijn voor het controleren van de naleving van risicovolle systemen en aanmeldende autoriteiten, evenals nationale instanties die controleactiviteiten op organisaties uit.
De compromistekst heeft met name tot doel ervoor te zorgen dat er coherente administratieve procedures zijn: zo wordt verwacht dat de procedure voor de beoordeling van en het toezicht op conformiteitsbeoordelingsinstanties door alle nationale bevoegde autoriteiten wordt goedgekeurd.
Binnen de nieuwe compromistekst werd vervolgens de paragraaf over “draaideuren” verwijderd, die tot doel had te voorkomen dat er belangenconflicten zouden kunnen ontstaan tussen de nalevingsverificatie-instanties en de AI-aanbieder, bijzonder streng: de bepaling, in feite, de werknemer van een aangemelde instantie zou verhinderen om gedurende één jaar te werken met een leverancier van kunstmatige-intelligentiesystemen na de verificatie, door de instantie, van een van de door de leverancier zelf geretourneerde systemen.
Bovendien is de procedure voor het verkrijgen van de accreditatie van conformiteitsbeoordelingsinstanties in derde landen verder verduidelijkt: met name laatstgenoemde kan worden geaccrediteerd door te voldoen aan een conformiteitsbeoordelingsschema of een overeenkomst inzake wederzijdse erkenning.
De volgende stappen
Zodra de voorgestelde wijzigingen in de nieuwe compromistekst zijn besproken, zullen de leden van het Europees Parlement een reeks verdere regels bespreken die het vermoeden van conformiteit en het conformiteitsbeoordelingsproces zelf regelen, naast de omstandigheid waarvoor de timing van bewaring van technische documenten al dan niet gebaseerd moeten zijn op een specifiek tijdsbestek of op de gehele levenscyclus van het product.