Artificial Intelligence

Uit NORA Online
Naar navigatie springen Naar zoeken springen


Deze pagina is in opbouw. Kom later terug om het resultaat te zien of neem contact op met nora@ictu.nl als je mee wilt werken aan de eerste concepten.

Wat zijn algoritmen[bewerken]

Het algoritme register
Het algoritmekader
Algoritme op Pleio
Definitie algoritmes op Pleio

Wat is Artificial Intelligence?[bewerken]

Voor Artificial Intelligence bestaan vele definities. TNO heeft vergelijkend onderzoek gedaan naar de definitie van AI en daarbij 10 definities van toonaangevende partijen bestudeerd. Gemeenschappelijke elementen in de belangrijkste definities zijn;

  1. door mensen ontwikkelde software en/of hardware systemen;
  2. dataverwerking voor complexe doelstellingen;
  3. verschillende niveaus van zelfstandigheid ( benadering van menselijke intelligentie);
  4. verschillende niveaus van adaptiviteit (model past zich aan);
  5. gebruiken symbolische regels of numerieke modellen voor voorspellingen, aanbevelingen, geautomatiseerde beslissingen of genereren van content.

De definitie die hier aanhouden is de definitie van de AI-verordening omdat dit de regels voor AI-systemen in Europa stelt. Deze definitie luidt:

Een op een machine gebaseerd systeem dat is ontworpen om met verschillende niveaus van autonomie te werken en dat na het inzetten ervan aanpassingsvermogen kan vertonen, en dat, voor expliciete of impliciete doelstellingen, uit de ontvangen input afleidt hoe output te genereren zoals voorspellingen, inhoud, aanbevelingen of beslissingen die van invloed kunnen zijn op fysieke of virtuele omgevingen.[1]

Het doel van de regels in de AI-Verordening is het bevorderen van betrouwbare AI in Europa en daarbuiten, door ervoor te zorgen dat AI-systemen de grondrechten, veiligheid en ethische beginselen eerbiedigen en door de risico’s van zeer krachtige en impactvolle AI-modellen aan te pakken. Over Responsible AI en Ethiek kan u verderop deze pagina meer lezen.

AI is een overkoepelende term, waarbinnen verschillende velden te onderscheiden zijn. Hieronder worden deze velden beschreven. In de afbeelding wordt de onderlinge verhouding tussen deze velden weergegeven.

Figuur: 'Venndiagram Artificial Intelligence'


Machine learning: algoritmes die leren door data

Machine learning zouden we kunnen omschrijven als een specifieke vorm van Artificial Intelligence.


Machine Learning is a current application of AI based around the idea that we should really just be able to give machines access to data and let them learn for themselves.
[2]

Er zijn vele vormen van machine learning. In de mobiele context zal vaak gebruik gemaakt worden van neurale netwerken bij bijvoorbeeld beeldherkenning, spraakherkenning en sentimentherkenning. Zowel iOS als Android bieden nu uitgebreide mogelijkheden om ML-modellen te integreren in apps, wat resulteert in een breed scala aan innovatieve functies en verbeterde gebruikerservaringen. Voor toepassing van ML kan je denken aan predictieve analyse, gebruikersgedrag voorspellen of aanbevelingssystemen.


Deep learning: Machine learning + diepe neurale netwerken

Er zijn vele definities van deep learning. Om het te onderscheiden van minder diepe contexten wordt er vaak op gewezen dat er dan sprake is van een meerlaags neuraal netwerk. Deep Learning kan gebruikt worden voor (complexe) patroonherkenning zoals beeld- en spraakherkenning. Apple introduceerde Core ML, Vision Framework en Create ML, terwijl Android TensorFlow, Android Neural Networks API en ML Kit in heeft geïntroduceerd. Met deze tools kunnen ontwikkelaars hun creativiteit de vrije loop laten en AI toepassen in apps.


Generative AI: Machine learning + diepe neurale netwerken + creëert nieuwe inhoud

Bij generatieve AI wordt er content gegenereerd.

Wat is responsible AI?[bewerken]

Bij responsible AI gaat het er om dat AI systemen geen schade toebrengen aan mensen of de samenleving, dat AI systemen transparant en controleerbaar zijn en dat ze zijn ontworpen met respect voor menselijke waarden en rechten. Hiervoor is het van belang om compliant te zijn met wetten en regelgeving, een juist AI ethiek beleid te hebben en ethische principes te hebben, de security op orde te hebben en transparantie te kunnen leveren op wat er gebeurt.

Ethiek keert vaak terug in discussies over AI en ML. ML ethiek is een onderdeel van ethiek in de techniek. Bij ethische beslissingen aangaande het wel of niet inzetten van AI en op wat voor manier AI in te zetten is het van belang om AI ethisch en moreel juist te gebruiken en kan er vanuit het perspectief van verschillende filosofische stromingen naar een issue gekeken worden. De vraag is daarbij welke ethische stroming past bij het tackelen van ethische AI issues en in hoeverre een dergelijk perspectief dan het juiste is en werkt. Veel stromingen zijn denkbaar: utilitarisme, plicht-ethiek, deugd-ethiek, beginsel-ethiek, pragmatisme, intentie-ethiek, zorg-ethiek, consequentialisme (gevolgen ethiek), etc.

Een aantal principes kan geformuleerd worden en komt regelmatig terug in de diverse guideline documenten. Speciaal verwezen wordt naar de principes genoemd in het AIIA (impact assesment document) en de ethische principes van de European group on ethics in science and new technologies. Zie voor het laatste ook de volgende pagina.

Subcategorieën voor responsible AI[bewerken]

Om tot responsible AI te komen kunnen we kijken naar een aantal subcategorieën:


Accuraatheid[bewerken]

Er moet wel een hoge mate van accuraatheid in de antwoorden zitten. (Trainings/validatie/test/real world). Met name validatie-, test- en real-world accuratesse zijn van belang. Opgepast moet worden voor overfitting en underfitting. Monitoring kan nodig zijn om te kijken of er geen model drifting optreedt.


Fairness[bewerken]

Het gaat hierbij om bias mitigatie en bestrijding en vermijden van discriminatie Bias mitigatie en bestrijding dient plaatst te vinden op:

  • Demografische aspecten (leeftijd, gender, etniciteit, religie, sexuele geaardheid
  • Socio-economische aspecten (inkomen, opleidingsniveau, werkstatus, sociale klasse, geografische locatie)
  • Andere aspecten (gezondheids status, fysieke of mentale beperkingen, genetische informatie, politieke overtuiging, strafrechtelijk verleden)

Er bestaat gegevens bias, algoritme bias, en bias in mensen.
Transparantie en verantwoording zijn essentieel in het mitigeren van bovenstaande zaken (zie verderop).


Transparantie[bewerken]

Er moet voldoende transparantie zijn over proces, data en algoritmen. Het systeem moet technisch uitlegbaarheid zijn voor zo ver mogelijk. Omdat technische uitlegbaarheid vaak niet haalbaar is moet er er gestreefd worden naar functionele uitlegbaarheid. Er kan een transparantie document worden gemaakt waarin een aantal zaken wordt bijgehouden zoals:

  • wat de werkwijze was in het project,
  • wat de de gebruikte datasets waren
  • een uitleg van de modelkeuze
  • de werkwijze van het model
  • de bereikte model performance
  • een ingevulde checklist van bv. de IAMA en de IAAI
  • de gebruikte infrastructuur
  • een uitleg hoe je de de security hebt geregeld in het project
  • een uitleg hoe je compliant bent geweest aan de geldende kaders
  • Leg uit hoe je de ethische afwegingen hebt gemaakt en wat de uitkomsten van de besluiten op dat vlak zijn.


Accountability[bewerken]

Er moet duidelijkheid zijn over aansprakelijkheid bij AI systemen. Handig is dat een Rijksoverheidspartij een document heeft waarin wordt duidelijk gemaakt wordt wie verantwoordelijk is wanneer dingen niet goed gaan.


Privacy[bewerken]

De privacy dient gewaarborgd te zijn in AI systemen. Compliancy met de GDPR/AVG is verplicht. Waar nodig moet een DPIA gedaan worden en afstemming gezocht worden met de FG van de betreffende dienst. Denk hierbij aan zaken als privacy by design etc. etc.


Security[bewerken]

Security in het kader van mobiele AI is van belang. Bij AI kunnen andere soorten aanvallen dan in traditionele software ontstaan. Er kunnen aanvallen plaatsvinden die bijvoorbeeld de uitkomst van een beeldherkenning systeem veranderen en daarmee de uitkomst van een beslissing veranderen. Wat je zou kunnen doen is bijvoorbeeld veel blijven bijtrainen, zodat de adversarial examples steeds veranderen en potentiële aanvallers ontzettend veel energie moeten stoppen in het voor de gek houden van je applicatie. Bij het implementeren van gezichtsherkenning of fragmenten van beelden waar personen in voorkomen kunnen er weer AVG vraagstukken ontstaan.
Daarnaast speelt ook nog de vraag of een model dat getraind is op persoonsgegevens, zoals beelden waar personen in voorkomen, ook een persoonsgegeven is, aangezien er in heel specifieke gevallen door middel van Generative Adversarial Networks soms bepaalde gegevens weer uit het model te halen zijn. AVG problemen kunnen ook omzeild worden door synthetische data te gebruiken. Synthetische data is door AI gegeneerde data. Iets anders om over na te denken is dat het behoorlijk uitmaakt of algoritmen op een device draaien of in de cloud draaien en aangeroepen worden. Op het gebied van beveiliging en privacy heb je dan een andere situatie. Tenslotte moet er rekening gehouden worden met het gebruik van externe partijen als onderdeel van het volledige AI gebruik. Er kunnen externe componenten gebruikt worden. Er moet dan goed over worden nagedacht hoe daar mee om te gaan. Bij generatieve AI moet gekeken worden hoe datalekken, hallucineren, toxicity en schadelijke adviezen voorkomen kunnen worden. Ook moet het model beschermd worden tegen aanvallen.


Compliancy aan regelgeving[bewerken]

In het kader van responsible AI moet dus allereerst compliancy met bestaande wetgeving gerealiseerd worden. Er zijn een aantal wetten van belang in de context van AI.

  • Allereerst is er natuurlijk de AI ACT. Deze is in 2024 van kracht geworden. Volgens het tijdspad zullen in december 2024 een aantal AI toepassingen verboden worden. Deze verboden toepassingen mogen dus niet meer gemaakt worden. In 2025 zullen de regels voor generatieve AI van kracht worden en in 2026 ook de meeste hoog risico regels van de AI ACT.
  • Compliancy verplichting is er verder met de GDPR (AVG).
  • Andere wetten die in deze een rol spelen of gaan spelen zijn oa: alle staande wetgeving, het discriminatie verbod, het AI verdrag, de data act, de data governace act en de digital services act.
  • Normenkaders en regelgeving over AI in Nederland

In Nederland is er een bredere scope waarin over AI sturing wordt gegeven en visie wordt ontwikkeld en strategie wordt bepaald. Dat zijn onder andere:

  • De staatssecretaris voor Digitale zaken heeft op 11 december een kamerbrief over generatieve AI doen uitgaan waarin de grenzen worden aangegeven wat er wel en niet kan en mag met generatieve AI binnen de Rijksoverheid. De brief is behoorlijk restrictief van aard. (Zie verder: de brief vanuit BZK) Compliancy hiermee is verplicht. Binnen EZK is onder bepaalde voorwaarden toegestaan GenAI te gebruiken.
  • IAMA (Impact Assesment Mensenrechten en Algoritmes). Deze is verplicht gesteld door het parlement om uit te voeren bij AI trajecten. (Zie verder: Impact assessment Mensenrechten en algoritmes).

Er zijn zeer veel kaders en richtlijnen binnen de Rijksoverheid die geen compliancy verplichting met zich meebrengen. Hieronder enkele daarvan:

  • Op het gebied van generatieve AI heeft de Rijksoverheid een kabinetsvisie over generatieve AI uitgebracht, hier worden kansen en risico’s op het gebied van generatieve AI (GenAI) besproken. (Zie verder: de Overheidsbrede visie Generatieve AI)
  • Er wordt gewerkt aan een handreiking voor generatieve AI. Deze wordt momenteel interdepartementaal gefabriceerd door een interdepartementale werkgroep. Er is geen compliancy verplichting.
  • Het rapport van de WRR is een goed perspectief om te gebruiken bij AI vraagstukken
  • Er zijn bruikbare richtlijnen documenten van de rekenkamer, Justitie en de ADR.
  • Etc.



Menselijk toezicht[bewerken]

AI moet menselijke autonomie respecteren en mag geen inbreuk maken op de menselijke waardigheid.

Waarom zijn Artificial Intelligence & Algoritmen van belang?[bewerken]

Efficiency is een belangrijk aspect in het gebruik van AI&A. Overheden maken daarom al gebruik van dit concept of overwegen deze te gebruiken binnen de diverse regelingen en toepassingen, zoals belastingen en toeslagen, maar ook chatbots en apps.

De ethische aspecten[bewerken]

Naast voordelen bestaan er - uiteraard - ook risico's; beide onderdelen bevatten ethische aspecten. De pagina voordelen en risico's toont voorbeelden en links naar meer informatie over deze onderwerpen.

Meer informatie en belangrijke bronnen[bewerken]


Direct aan de slag

Wat doe je als Enterprise Architect of adviseur om AI-functies te borgen binnen de architectuur van jouw organisatie?
Aanbevelingen voor AI&A in de Enterprise Architectuur


Wat doe je als Business- of Solution Architect om AI-functies te verwerken in het ontwerp van een (overheids)dienst? (nog uitwerken)
Aanbevelingen voor AI&A in het ontwerp van een dienst

Belangrijke bronnen

Het Algoritmekader gaat uit van bestaande vereisten op basis van wet- en regelgeving waar deze overheden aan gebonden zijn. Het Algoritmekader geeft structuur aan wat organisaties moeten doen.

  • Het AI Risk Management Framework (AI RMF)
Samen leren & zoeken

Meest bekende organisaties en samenwerkingsverbanden die een visie en praktische handreikingen ontwikkelen voor het werken met AI&A:

Leeraanbod en informatieve artikelen, podcasts en webinars binnen de overheid:

Buiten de overheid:

Ken je nog een overleg (binnen de overheid) dat zich bezighoudt met AI en/of Algoritmen?
Neem dan contact op met NORA Beheer.

Meer informatie & contact

Informatie op landelijk, nationaal en Europees niveau en Tweede Kamerstukken:
Documentatie over Artificial Intelligence (AI) & Algoritmen


Dit thema wordt beheerd door experts van de overheid en marktpartijen:
Expertgroep AI&A


Contactpersoon is Youetta de Jager: →Youetta.deJager@ictu.nl.

  1. p46 AI-verordening
  2. Forbes