Aanbevelingen voor AI&A in de Enterprise Architectuur: verschil tussen versies

Uit NORA Online
Naar navigatie springen Naar zoeken springen
(tekst en links toegevoegd)
k (Wendy Pragt heeft pagina Aanbevelingen voor AI&A in de Enterprise Architectuur hernoemd naar Aanbevelingen voor AI&A in de Enterprise Architectuur: AIenA gewijzigd in AI&A i.v.m. consistentie)
(geen verschil)

Versie van 20 jul 2021 13:52

Wat moet een overheidsorganisatie allemaal doen om AI en Algoritmen goed toe te passen in haar dienstverlening en bedrijfsvoering?

Hieronder geven we handvatten voor een Enterprise Architect.

De 1e vraag is natuurlijk: Binnen welke wet- en regelgeving en beleid moet onze organisatie handelen qua AI en Algoritmen?

Momenteel is er nog geen vastgestelde Wet die specifiek is voor AI en Algoritmen. Wel zijn al veel Kamerstukken beschikbaar waarin de eventueel benodigde kaders voor het gebruik van AI en Algoritmen worden verkend. Zie <verwijzing opnemen>
Wel moet je natuurlijk rekening houden met de AVG_(Algemene_Verordening_Gegevensbescherming) (privacy, data-minimalisatie e.d.).

In opdracht van de Rijksoverheid is de Handreiking voor ontwikkeling niet-discriminerende AI opgesteld. Deze helpt ontwikkelaars van AI-systemen om discriminerende patronen in gegevens te identificeren, te voorkomen en te bestrijden. Het Tilburg Institute for Law, Technology and Society heeft de handreiking ontwikkeld.


De Algemene Rekenkamer heeft het rapport ‘Aandacht voor algoritmes’ geschreven en een toetsingskader ontwikkeld voor het auditen van AI en algoritmen. De kennis uit dit toetsingskader is uiteraard ook goed in te zetten bij het maken van ontwerpen van dienst die gebruik maken van AI en algoritmen.
Rapport Aandacht voor algoritmes
Digitaal Toetsingskader Algoritmes

In de ‘Nationale Datapodcast’ van VKA legt Miranda Pirkovski van de AR uit waar het rapport over gaat en hoe het is te gebruiken.
Aandacht voor algoritmes Algemene Rekenkamer


Ook de beroepsvereniging voor IT-auditors (NOREA) heeft een handreiking opgesteld (in review fase) voor het auditen van AI.
NOREA Guiding Principles Trustworthy AI-Investigations


Het Ministerie van Justitie en Veiligheid heeft in mei 2021 richtlijnen opgesteld voor het toepassen van algoritmen door overheden. De richtlijnen geven organisaties handvatten voor het verantwoord ontwikkelen en gebruiken van algoritmen. De richtlijnen zijn van toepassingen op verschillende gebieden. Denk aan de de ontwikkeling en operationele inzet van een algoritme. Maar ook voor geautomatiseerde besluitvorming.
Richtlijnen voor het toepassen van algoritmen door overheden (Voor de richtlijnen is een account op Pleio nodig)


De Nederlandse AI Coalitie heeft op 26 mei 2021 een AI-database gelanceerd voor de sector Publieke Diensten. De database is bedoeld voor overheden die aan de slag willen met Artificiële Intelligentie (AI) en bevat voorbeelden van succesvolle en minder succesvolle implementaties van AI. Voor ambtenaren is het mogelijk toegang te krijgen tot deze (besloten) database om de ontwikkeling en toepassing van AI-oplossingen te stimuleren en te kunnen leren van opgedane ervaringen. Via deze link kunt u zich registreren.
AI-database Publieke Diensten

Al in 2018 heeft de Nederlandse Coalitie heeft een AI Impact Assessment ontwikkeld waarmee een handvat wordt gegeven voor het betrouwbaar en veilig inrichten van AI-toepassingen of AI in dienstverlening.
Artificial Intelligence Impact Assessment


Een handig hulpmiddel om ethische problemen in dataprojecten, datamanagement en databeleid te herkennen is de Ethische Data Assistent (DEDA). Deze is bedoeld voor data-analisten, projectmanagers en beleidsmakers. DEDA is ontwikkeld in samenwerking met de gemeente Utrecht.
De Ethische Data Assistent (DEDA)


Bij het gebruik van algoritmen in dienstverlening is het van belang dat er transparantie wordt gegeven over de werking van het algoritme. Er wordt inmiddels ook al gesproken over het opzetten van een algoritmeregister. De gemeente Amsterdam heeft als eerste organisatie hier een bèta versie van ontwikkeld. Het algoritmeregister van de gemeente Amsterdam is een eerste opzet van hoe zo'n register eruit zou kunnen zien. Het onderwerp transparantie en hoe (en aan wie) je daar inzicht in kan geven is nog volop in beweging.
Amsterdam Algoritmeregister Beta


Welke AI- en A-functies zijn nodig in de architectuur van jouw organisatie?
Wie bepaalt eigenlijk wanneer AIenA goed genoeg is geregeld?
En welke normen en waardenstelsels hanteer je daarbij?


Nog uit te werken !