Artificial Intelligence

Uit NORA Online
(Doorverwezen vanaf Artificial Intelligence)
Naar navigatie springen Naar zoeken springen


Deze pagina is in opbouw. Kom later terug om het resultaat te zien of neem contact op met nora@ictu.nl als je mee wilt werken aan de eerste concepten.

Wat is Artificial Intelligence?[bewerken]

Artificial Intelligence (AI)

De Nederlandse AI-coalitie hanteert voor het begrip AI de volgende omschrijving:

Het vermogen van een systeem om externe gegevens correct te interpreteren, om te leren van deze gegevens, en om deze lessen te gebruiken om specifieke doelen en taken te verwezenlijken via flexibele aanpassing. Dit vermogen is traditioneel voorbehouden aan mensen.


Op Europees niveau is het de Independent High Level Expert Group on AI van de Europese Commissie die zich bezighoudt met dit onderwerp. Deze groep is tot de volgende definitie gekomen:

Systemen op basis van artificiële intelligentie (AI) zijn door mensen ontworpen softwaresystemen (en mogelijk ook hardware systemen) die, met een complex doel, in de fysieke of digitale dimensie in actie komen op basis van gegevens die zij in hun omgeving waarnemen, waarbij deze:

  • de verzamelde gestructureerde of ongestructureerde gegevens interpreteren,
  • redeneren op basis van de uit deze gegevens verkregen kennis of de verkregen informatie verwerken, en
  • beslissen met welke handeling(en) het gestelde doel het best kan worden bereikt.

AI-systemen kunnen gebruik maken van symbolische regels of een numeriek model en kunnen hun gedrag ook aanpassen door te analyseren welke invloed hun eerdere handelingen op de omgeving hebben.


Algoritmen
AI is opgebouwd uit algoritmen. Maar niet alle algoritmen zijn onderdeel van AI. Een algoritme kan worden omschreven als een set bij elkaar behorende instructies die een bepaald probleem oplossen of een bepaalde taak uitvoeren. In het geval van AI kunnen we ervan uitgaan dat algoritmen geschreven zijn in een programmeertaal en dat het gaat om het verwerken van digitale gegevens.

Een geautomatiseerde beslisboom bijvoorbeeld is ook een algoritme. Maar dit is slechts een automatische versie van besluitvorming die door een mens op precies dezelfde manier zou zijn gedaan volgens die beslisregels op basis van ‘if X, then Y, else Z’. Hierbij komt het algoritme (‘het systeem’) dus niet zelfstandig tot een besluit of uitkomst.


Vormen van AI
Veel voorkomende vormen van AI zijn:

  1. Symbolische AI - Representeren van kennis door middel van symbolen en regels. Voorbeelden zijn rule-based systemen en constraint satisfaction problemen. Bij rule-based systemen worden regels gebruikt om kennis te representeren en om besluiten te nemen. Bij constraint satisfaction problemen wordt een vraag geformuleerd als een aantal constraints en een oplossing is een uitdrukken die voldoet aan alle constraints. Een bekend voorbeeld is een SAT solver, die het Boolean satisfiability probleem oplost.
  2. Machine Learning (ML) - Algoritmes die leren door data.
    • Supervised learning - Algoritmes die leren door gelabelde data.
    • Unsupervised learning - Algoritmes die patronen en structuren in data kunnen identificeren zonder te leren.
    • Semi-supervised (weak supervised) learning - Algoritmes leren door een klein gedeelte gelabelde data en een groot gedeelte niet-gelabelde data door training.
    • Reinforcement Learning - Algoritmes leren door middel van trial-and-error interacties met hun omgeving.
  3. Evolutionaire algoritmen - Algoritmes die geïnspireerd zijn door biologische evolutie. Wordt vaak gebruikt voor optimalisatie en zoekproblemen.

Wat is responsible AI?[bewerken]

Bij responsible AI gaat het er om dat AI systemen geen schade toebrengen aan mensen of de samenleving, dat AI systemen transparant en controleerbaar zijn en dat ze zijn ontworpen met respect voor menselijke waarden en rechten. Hiervoor is het van belang om compliant te zijn met wetten en regelgeving, een juist AI ethiek beleid te hebben en ethische principes te hebben, de security op orde te hebben en transparantie te kunnen leveren op wat er gebeurt.
Ethiek keert vaak terug in discussies over AI en ML. ML ethiek is een onderdeel van ethiek in de techniek. Bij ethische beslissingen aangaande het wel of niet inzetten van AI en op wat voor manier AI in te zetten is het van belang om AI ethisch en moreel juist te gebruiken en kan er vanuit het perspectief van verschillende filosofische stromingen naar een issue gekeken worden. De vraag is daarbij welke ethische stroming past bij het tacklen van ethische AI issues en in hoeverre een dergelijk perspectief dan het juiste is en werkt. Veel stromingen zijn denkbaar: utilitarisme, plicht-ethiek, deugd-ethiek, beginsel-ethiek, pragmatisme, intentie-ethiek, zorg-ethiek, consequentialisme (gevolgen ethiek), etc..
Een aantal principes kan geformuleerd worden en komt regelmatig terug in de diverse guideline documenten. Speciaal verwezen wordt naar de principes genoemd in het AIIA (impact assesment document) en de ethische principes van de European group on ethics in science and new technologies. Zie voor het laatste de volgende pagina.

Om tot responsible AI te komen kunnen we kijken naar een aantal subcategorieën:

  1. Accuraatheid
  2. Fairness
  3. Transparantie
  4. Accountability
  5. Privacy
  6. Security
  7. Compliancy aan regelgeving
  8. Menselijk toezicht
  • Ad 1. Accuraatheid

Er moet wel een hoge mate van accuraatheid in de antwoorden zitten. (Trainings/validatie/test/real world). Met name validatie-, test- en real-world accuratesse zijn van belang. Opgepast moet worden voor overfitting en underfitting. Monitoring kan nodig zijn om te kijken of er geen model drifting optreedt.

  • Ad 2. Fairness

Het gaat hierbij om bias mitigatie en bestrijding en vermijden van discriminatie Bias mitigatie en bestrijding dient plaatst te vinden op: - Demografische aspecten (leeftijd, gender, etniciteit, religie, sexuele geaardheid - Socio-economische aspecten (inkomen, opleidingsniveau, werkstatus, sociale klasse, geografische locatie) - Andere aspecten (gezondheids status, fysieke of mentale beperkingen, genetische informatie, politieke overtuiging, strafrechtelijk verleden)

Er bestaat gegevens bias, algoritme bias, en bias in mensen. Transparantie en verantwoording zijn essentieel in het mitigeren van bovenstaande zaken (zie verderop).

  • Ad 3. Transparantie

Er moet voldoende transparantie zijn over proces, data en algoritmen. Het systeem moet technisch uitlegbaarheid zijn voor zo ver mogelijk. Omdat technische uitlegbaarheid vaak niet haalbaar is moet er er gestreefd worden naar functionele uitlegbaarheid. Er kan een transparantie document worden gemaakt waarin een aantal zaken wordt bijgehouden zoals: - wat de werkwijze was in het project, - wat de de gebruikte datasets waren - een uitleg van de modelkeuze - de werkwijze van het model - de bereikte model performance - een ingevulde checklist van bv. de IAMA en de IAAI - de gebruikte infrastructuur - een uitleg hoe je de de security hebt geregeld in het project - een uitleg hoe je compliant bent geweest aan de geldende kaders - Leg uit hoe je de ethische afwegingen hebt gemaakt en wat de uitkomsten van de besluiten op dat vlak zijn.

  • Ad 4. Accountability

Er moet duidelijkheid zijn over aansprakelijkheid bij AI systemen. Handig is dat een Rijksoverheidspartij een document heeft waarin wordt duidelijk gemaakt wordt wie verantwoordelijk is wanneer dingen niet goed gaan.

  • Ad 5. Privacy

De privacy dient gewaarborgd te zijn in AI systemen. Compliancy met de GDPR/AVG is verplicht. Waar nodig moet een DPIA gedaan worden en afstemming gezocht worden met de FG van de betreffende dienst. Denk hierbij aan zaken als privacy by design etc. etc..

  • Ad 6. Security

Security in het kader van mobiele AI is van belang. Bij AI kunnen andere soorten aanvallen dan in traditionele software onstaan. Er kunnen aanvallen plaatsvinden die bijvoorbeeld de uitkomst van een beeldherkenning systeem veranderen en daarmee de uitkomst van een beslissing veranderen. Wat je zou kunnen doen is bijvoorbeeld veel blijven bijtrainen, zodat de adversarial examples steeds veranderen en potentiële aanvallers ontzettend veel energie moeten stoppen in het voor de gek houden van je applicatie. Bij het implementeren van gezichtsherkenning of fragmenten van beelden waar personen in voorkomen kunnen er weer AVG vraagstukken ontstaan. Daarnaast speelt ook nog de vraag of een model dat getraind is op persoonsgegevens, zoals beelden waar personen in voorkomen, ook een persoonsgegeven is, aangezien er in heel specifieke gevallen door middel van Generative Adversarial Networks soms bepaalde gegevens weer uit het model te halen zijn. AVG problemen kunnen ook omzeild worden door synthetische data te gebruiken. Synthetische data is door AI gegeneerde data. Iets anders om over na te denken is dat het behoorlijk uitmaakt of algoritmen op een device draaien of in de cloud draaien en aangeroepen worden. Op het gebied van beveiliging en privacy heb je dan een andere situatie. Tenslotte moet er rekening gehouden worden met het gebruik van externe partijen als onderdeel van het volledige AI gebruik. Er kunnen externe componenten gebruikt worden. Er moet dan goed over worden nagedacht hoe daar mee om te gaan. Bij generatieve AI moet gekeken worden hoe datalekken, hallucineren, toxicity en schadelijke adviezen voorkomen kunnen worden. Ook moet het model beschermd worden tegen aanvallen.

  • Ad 7. Compliancy aan regelgeving

Wetgeving In het kader van responsible AI moet dus allereerst compliancy met bestaande wetgeving gerealiseerd worden. Er zijn een aantal wetten van belang in de context van AI.

  • 1. Allereerst is er natuurlijk de AI ACT. Deze is in 2024 van kracht geworden. Volgens het tijdspad zullen in december 2024 een aantal AI toepassingen verboden worden. Deze verboden toepassingen mogen dus niet meer gemaakt worden. In 2025 zullen de regels voor generatieve AI van kracht worden en in 2026 ook de meeste hoog risico regels van de AI ACT.
  • 2. Compliancy verplichting is er verder met de GDPR (AVG).
  • 3. Andere wetten die in deze een rol spelen of gaan spelen zijn oa: alle staande wetgeving, het discriminatie verbod, het AI verdrag, de data act, de data governace act en de digital services act.
  • Normenkaders en regelgeving over AI in Nederland

In Nederland is er een bredere scope waarin over AI sturing wordt gegeven en visie wordt ontwikkeld en strategie wordt bepaald. Dat zijn onder andere: • De staatssecretaris voor Digitale zaken heeft op 11 december een kamerbrief over generatieve AI doen uitgaan waarin de grenzen worden aangegeven wat er wel en niet kan en mag met generatieve AI binnen de Rijksoverheid. De brief is behoorlijk restrictief van aard. (Zie verder: https://open.overheid.nl/documenten/814ad0a2-7e14-4fc4-8dac-1d4a3e0b02ba/file ) Compliancy hiermee is verplicht. Binnen EZK is onder bepaalde voorwaarden toegestaan GenAI te gebruiken. • IAMA (Impact Assesment Mensenrechten en Algoritmes). Deze is verplicht gesteld door het parlement om uit te voeren bij AI trajecten. (Zie verder: https://open.overheid.nl/documenten/ronl-c3d7fe94-9c62-493f-b858-f56b5e246a94/pdf).

Er zijn zeer veel kaders en richtlijnen binnen de Rijksoverheid die geen compliancy verplichting met zich meebrengen. Hieronder enkele daarvan: • Op het gebied van generatieve AI heeft de Rijksoverheid een kabinetsvisie over generatieve AI uitgebracht, hier worden kansen en risico’s op het gebied van generatieve AI (GenAI) besproken. (Zie verder: https://open.overheid.nl/documenten/9aa7b64a-be51-4e6a-ad34-26050b8a67ef/file ) • Er wordt gewerkt aan een handreiking voor generatieve AI. Deze wordt momenteel interdepartementaal gefabriceerd door een interdepartementale werkgroep. Er is geen compliancy verplichting. • Het rapport van de WRR is een goed perspectief om te gebruiken bij AI vraagstukken • Er zijn bruikbare richtlijnen documenten van de rekenkamer, Justitie en de ADR. E • Etc.

  • Ad 8. Menselijk toezicht

AI moet menselijke autonomie respecteren en mag geen inbreuk maken op de menselijke waardigheid.

Waarom zijn Artificial Intelligence & Algoritmen van belang?[bewerken]

Efficiency is een belangrijk aspect in het gebruik van AI&A. Overheden maken daarom al gebruik van dit concept of overwegen deze te gebruiken binnen de diverse regelingen en toepassingen, zoals belastingen en toeslagen, maar ook chatbots en apps.

Naast voordelen bestaan er - uiteraard - ook risico's; beide onderdelen bevatten ethische aspecten. De pagina voordelen en risico's toont voorbeelden en links naar meer informatie over deze onderwerpen.

Direct aan de slag

Wat doe je als Enterprise Architect of adviseur om AI-functies te borgen binnen de architectuur van jouw organisatie?
Aanbevelingen voor AI&A in de Enterprise Architectuur


Wat doe je als Business- of Solution Architect om AI-functies te verwerken in het ontwerp van een (overheids)dienst? (nog uitwerken)
Aanbevelingen voor AI&A in het ontwerp van een dienst

Puzzelstuk.png
Samen leren & zoeken

Meest bekende organisaties en samenwerkingsverbanden die een visie en praktische handreikingen ontwikkelen voor het werken met AI&A:

Leeraanbod en informatieve artikelen, podcasts en webinars binnen de overheid:

Buiten de overheid:

Ken je nog een overleg (binnen de overheid) dat zich bezighoudt met AI en/of Algoritmen?
Neem dan contact op met NORA Beheer.

Gereedschap.png
Meer informatie & contact

Informatie op landelijk, nationaal en Europees niveau en Tweede Kamerstukken:
Documentatie over Artificial Intelligence (AI) & Algoritmen


Dit thema wordt beheerd door experts van de overheid en marktpartijen:
Expertgroep AI&A


Contactpersoon is Youetta de Jager: →Youetta.deJager@ictu.nl.

Contact.png