Blog

De subsidie bedraagt € 900.000 en het project heeft een looptijd van twee jaar. Het project wordt vanuit de Hochschule Osnabruck Lingen, Instituut for Duale Studiengange en de Hanzehogeschool Groningen, het Instituut voor Engineering, HBO-ICT en Bio-Informatica mogelijk gemaakt.

Nieuwe Europese regels voor het gebruik van AI

Vorige week heeft de Europese commissie nieuwe regels gepresenteerd om het gebruik van AI in goede banen te leiden. In de regelgeving, die nu nog in concept is, worden bepaalde categorieën AI aan banden gelegd of zelfs verboden op straffe van forse boetes.  

De EC zat in een moeilijke situatie. Enerzijds wil het de positie van Europa op het gebied van AI versterken, zeker gezien de technologische achterstand op de VS en China. Anderzijds wil men de ethische grenzen en veiligheid van haar burgers bewaken. Europa heeft ervoor gekozen om in te zetten op betrouwbare (‘trustworthy’) AI. In een eerdere blogpost beschreven we al de zeven aspecten van betrouwbare AI [link blog Jan Balje]. Nu is er dus sprake van harde regels en zelfs boetes. 

De nieuw gepubliceerde regels volgens een risico gebaseerde aanpak met vier categorieën: 

  1. Onaanvaardbaar risico: AI-systemen die menselijk gedrag manipuleren om de vrije wil van gebruikers te omzeilen (bv. speelgoed met spraakondersteuning dat minderjarigen aanspoort tot gevaarlijk gedrag) en systemen die “sociale scoring” door overheden mogelijk maken. Deze vormen van AI worden verboden. 
  1. Hoog risico: AI-systemen die het leven en gezondheid van burgers in gevaar kan brengen (kritieke infrastructuur), die bepalend zijn voor toegang tot onderwijs of carrière, of die gebruikt worden bij werving en selectie, het beoordelen van kredietwaardigheid, wetshandhaving, etc. Deze vormen van AI mogen alleen onder strikte voorwaarden worden toegepast. 
  1. Beperkt risico: AI-systemen waarvan gebruikers wellicht niet door hebben dat ze met een systeem interacteren. Voor deze systemen geldt dat ze transparant moeten zijn. 
  1. Minimaal risico: het grootste deel van de AI-systemen valt in deze categorie. De EC geeft hier slechts voorbeelden van videospellen of spamfilters. Systemen uit deze categorie worden niet gereguleerd. 

Is dit nu een ver-van-mijn-bed-show voor Mkb’s of heeft dit impact op bedrijven die AI willen ontwikkelen? In een reactie stelde MBK Nederland bevreesd te zijn voor inperking van innovatie. Met name het voorstel om voor gevoelige systemen alleen datasets te gebruiken die door de EU zijn goedgekeurd lijkt in de praktijk lastig haalbaar. 

Persoonlijk verwacht ik dat het overgrote deel van de toepassingen uit het MKB in de categorie ‘minimaal risico’ vallen. En voor systemen in de andere categorieën lijkt het me heel goed dat er regels zijn om het gebruik in goede banen te leiden. Dat kan inderdaad betekenen dat we in Europa bepaalde zaken niet doen, wat in Amerika en China wel wordt gedaan. Als je het mij vraagt, mogen we daar dan trots op zijn. 

Share on linkedin
Share on twitter
Share on facebook
Tim
19 mei 2021

Archief

Archieven

Delen

Share on linkedin
Share on twitter
Share on facebook