Artificiële Intelligentie (Artificial Intelligence) is de dag van vandaag niet meer weg te slaan uit de dagelijkse praktijk. Zowel overheden, ondernemingen en consumenten worden geconfronteerd met AI-toepassingen en ook meer en meer bewust van de voor- en nadelen ervan. In het bijzonder komen beleidsmakers tot de constatering dat AI ingrijpende gevolgen kan hebben en wordt er nagedacht over regelgeving om ongewenste effecten van AI te voorkomen of te milderen.
De Vlaamse overheid lanceerde in 2019 een AI actieplan en de federale overheid in 2022 een nationaal convergentieplan voor de ontwikkeling van AI. De industrie heeft daarenboven al enige tijd AI4Belgium opgericht.
Hieronder geven wij een overzicht van het juridisch kader in België op het vlak van AI. Veel Belgische wetgeving op dat vlak is er alvast nog niet. Het wordt vooral wachten op de finale versie van de AI Act die de ambitie heeft om binnen de Europese Unie een uniform wettelijk kader te creëren voor AI.
Wat is de wettelijke definitie van AI?
De Belgische wetgeving kent op vandaag nog geen definitie van het begrip artificiële intelligentie.
Een veelgebruikte definitie is die van de Europese Commissie, die Kunstmatige Intelligentie definieert als “systemen die intelligent gedrag vertonen door hun omgeving te analyseren en – in zekere mate zelfstandig – actie te ondernemen om specifieke doelstellingen te verwezenlijken. Op KI gebaseerde systemen kunnen uitsluitend uit software bestaan en actief zijn in de virtuele wereld (bijvoorbeeld stemgestuurde assistenten, software voor beeldanalyse, zoekmachines en systemen voor spraak- en gezichtsherkenning), maar KI kan ook in hardwareapparaten worden geïntegreerd (bijvoorbeeld geavanceerde robots, zelfrijdende auto’s, drones of toepassingen van het internet der dingen)“. Ook het rapport van AI4Belgium gebruikt deze definitie.
Wat is de essentie van de AI Act?
Alhoewel een definitieve versie van een AI Act nog niet bestaat, blijkt uit de laatste versie van de ontwerpteksten wel al dat de AI Act een juridisch kader voor AI wil creëren gebaseerd op een risicoanalyse benadering. De AI Act wil in het bijzonder verplichtingen opleggen aan de aanbieders van AI systemen die variëren naargelang de risico’s die hun AI technologie met zich meebrengen. AI systemen worden onderverdeeld in een aantal risiconiveaus:
- Onaanvaardbare risico’s: AI-systemen die een bedreiging vormen voor individuen worden verboden. Als voorbeeld worden sociale scoresystemen maar ook realtime en externe biometrische identificatiesystemen genoemd.
- Hoog risico: AI-systemen die een grote impact hebben op de veiligheid of de grondrechten. Dergelijke AI-systemen moeten aan een grondige beoordeling worden onderworpen vooraleer ze op de markt kunnen worden geïntroduceerd, en zullen gedurende hun hele levensduur voortdurend aan toezicht onderworpen zijn.
- Generatieve AI: AI-systemen die specifieke inhoud creëren, zoals ChatGPT, moeten voldoen aan transparantie vereisten. Dit betekent onder meer dat moet worden bekendgemaakt dat de gegenereerde content is gegenereerd door AI, dat maatregelen moeten worden genomen om te voorkomen dat illegale inhoud wordt gegenereerd en dat samenvattingen moeten worden gepubliceerd van auteursrechtelijk beschermde gegevens die zijn gebruikt voor training.
- Beperkt risico: AI-systemen met een beperkt risico moeten voldoen aan minimale transparantie-eisen, zodat gebruikers geïnformeerde beslissingen kunnen nemen. Na interactie met deze toepassingen kunnen gebruikers kiezen of ze ze willen blijven gebruiken. Gebruikers moeten zich er ook van bewust zijn dat ze zich inlaten met AI-systemen, in het bijzonder in het geval van systemen die beeld-, audio- of video-inhoud genereren of manipuleren (bijv. deepfakes).
Welke regels zijn van toepassing op ‘defecte’ AI systemen?
Wat indien AI-systemen gebreken vertonen en onveilig zijn? Aangezien er in België nog geen specifiek kader voor AI-systemen bevat, dient teruggevallen te worden op de algemene regels die van toepassing zijn op gebrekkige producten of diensten.
Hierbij dient in het bijzonder verwezen te worden naar de wet van 25 februari 1991 betreffende de aansprakelijkheid voor producten met een gebrek die de producent van een product aansprakelijk stelt voor schade die het gevolg is van hun product. Indien een AI systeem als een product kan beschouwd worden (hetgeen het geval is wanneer het in een lichamelijk roerend goed is geïncorporeerd) en gebrekkig is, dan kan de producent aansprakelijk worden gesteld voor de aangerichte schade.
Uiteraard kunnen gebrekkige AI systemen ook vanuit de consumentenwetgeving worden bekeken, zoals de bepalingen uit het Oud Burgerlijk Wetboek met betrekking tot de verkopen aan consumenten. Digitale content of diensten (waaronder AI systemen) dienen te voldoen aan objectieve conformiteitsvereisten (zijnde in overeenstemming zijn met hetgeen het grote publiek verwacht van soortgelijke AI systemen) en subjectieve conformiteitsvereisten (zijnde in overeenstemming zijn met hetgeen specifiek met de consument is overeengekomen). Indien een AI systeem als niet-conform wordt beschouwd, dan kunnen consumenten vorderen dat het AI systeem conform wordt gemaakt, een prijsvermindering vragen of de overeenkomst beëindigen.
Tot slot dient ook aangestipt te worden dat AI systemen vaak persoonsgegevens verwerken en moeten voldoen aan de vereisten van de GDPR. AI producenten dienen dan ook regels na te leven wanneer ze persoonsgegevens verwerken en wanneer gebreken in AI systemen tot ongeoorloofde toegang tot persoonsgegevens, datalekken of andere inbreuken op de GDPR zouden resulteren, dan kunnen individuen verhaal zoeken ten aanzien van de AI producent.
Kunnen AI systemen intellectuele eigendomsrechten claimen?
Naar Belgisch recht kan een AI systeem niet als de uitvinder aangeduid worden in een octrooi aanvraag. De uitvinder dient immers een mens, een natuurlijk persoon te zijn. Dit werd ook door het European Patent Office (EPO) in 2021 bevestigd in de zaak DABUS.
Hetzelfde kan gezegd worden voor het auteursrecht. Naar Belgisch recht kan enkel een mens, een natuurlijk persoon, als auteur worden aanzien (artikel XI.170 Wetboek van Economisch Recht). AI-systemen kunnen dus geen bescherming claimen op creaties die zij zouden gemaakt hebben. Lees hierover meer op onze pagina over AI en auteursrecht.