Aanbevelingen voor AI&A in de Enterprise Architectuur

Uit NORA Online
Ga naar: navigatie, zoeken

Wat dient een overheidsorganisatie te doen om AI & Algoritmen correct toe te passen in haar dienstverlening en bedrijfsvoering?


Onderstaand een aantal aanbevelingen voor Enterprise Architecten:

  • Momenteel is er nog geen vastgestelde wet- en regelgeving of beleid die specifiek geldt voor AI en Algoritmen binnen een overheidsinstelling. Wel is al een aantal Kamerstukken beschikbaar waarin de eventueel benodigde kaders voor het gebruik van AI en Algoritmen worden verkend <verwijzing opnemen>. Vanzelfsprekend wordt rekening gehouden met de AVG_(Algemene_Verordening_Gegevensbescherming) (privacy, data-minimalisatie e.d.).
  • De Algemene Rekenkamer heeft het rapport Aandacht voor algoritmes geschreven en een Digitaal Toetsingskader Algoritmes ontwikkeld voor het auditen van AI en algoritmen. De kennis uit dit toetsingskader is uiteraard ook goed in te zetten bij het maken van ontwerpen van diensten die gebruik maken van AI en algoritmen. In de Nationale Datapodcast van VKA legt Miranda Pirkovski van de AR uit waar het rapport over gaat en hoe deze te gebruiken.
    Ook de beroepsvereniging voor IT-auditors (NOREA) heeft een handreiking opgesteld (in review fase) voor het auditen van AI.
  • Het Ministerie van Justitie en Veiligheid heeft in mei 2021 Richtlijnen voor het toepassen van algoritmen door overheden (voor de richtlijnen is een account op Pleio nodig) opgesteld. De richtlijnen geven organisaties handvatten voor het verantwoord ontwikkelen en gebruiken van algoritmen. De richtlijnen zijn van toepassingen op verschillende gebieden. Denk aan de ontwikkeling en operationele inzet van een algoritme. Maar ook voor geautomatiseerde besluitvorming.
  • De Nederlandse AI Coalitie heeft op 26 mei 2021 een AI-database Publieke Diensten AI-database gelanceerd voor de sector Publieke Diensten. De database is bedoeld voor overheden die aan de slag willen met Artificiële Intelligentie (AI) en bevat voorbeelden van succesvolle en minder succesvolle implementaties van AI. Voor ambtenaren is het mogelijk toegang te krijgen tot deze (besloten) database om de ontwikkeling en toepassing van AI-oplossingen te stimuleren en te kunnen leren van opgedane ervaringen. Via deze link kunt u zich registreren.
  • Al in 2018 heeft de Nederlandse Coalitie een AI Impact Assessment ontwikkeld waarmee een handvat wordt gegeven voor het betrouwbaar en veilig inrichten van AI-toepassingen of AI in dienstverlening.
  • Een handig hulpmiddel om ethische problemen in dataprojecten, datamanagement en databeleid te herkennen is de De Ethische Data Assistent (DEDA). Deze is bedoeld voor data-analisten, projectmanagers en beleidsmakers. DEDA is ontwikkeld in samenwerking met de gemeente Utrecht.
  • Bij het gebruik van algoritmen in dienstverlening is het van belang dat er transparantie wordt gegeven over de werking van het algoritme. Er wordt inmiddels ook al gesproken over het opzetten van een algoritmeregister. De gemeente Amsterdam heeft als eerste organisatie hier een bètaversie van ontwikkeld. Het algoritmeregister van de gemeente Amsterdam is een eerste opzet van hoe een dergelijk register eruit zou kunnen zien. Het onderwerp transparantie en hoe (en aan wie) je daar inzicht in kan geven is nog volop in beweging.


Welke AI&A-functies zijn nodig in de architectuur van jouw organisatie?
Wie bepaalt eigenlijk wanneer AI&nA goed genoeg is geregeld?
En welke normen en waardenstelsels hanteer je daarbij?
(allen nog uit te werken.)