Voordelen en risico's Artificial Intelligence (AI) & Algoritmen

Uit NORA Online
Naar navigatie springen Naar zoeken springen


Deze pagina is in opbouw. Kom later terug om het resultaat te zien of neem contact op met nora@ictu.nl als je mee wilt werken aan de eerste concepten.

Voordelen[bewerken]

Bij het inzetten van AI&A binnen overheidsorganisaties kan gedacht worden aan:

  • Bepalen zorgtoeslag, kinderbijslag, WOZ-besluiten, inkomstenbelasting;
  • Routering inkomende berichten, wegbeheer, vuilnis ophalen, chatbots;
  • Risicogerichte controles van infrastructuur of verkeer;
  • Aangifte inkomstenbelasting doen per app, corona-app;
  • Crowdmanagement, verwarde mensen (?), coronamaatregelen.

Het gebruik van AI en Algoritmen kan voor de overheid voordelen hebben, zoals efficiencywinst, objectieve(re) besluiten en voorspellen van gedrag op basis van profielen en smart cities. Maar het gebruik van AI&A neemt ook risico's met zich mee.

Risico's[bewerken]

Hoewel alle die voordelen aantrekkelijk kunnen klinken, is het geen automatisme dat een AI-systeem of algoritme altijd het enige juiste besluit zal nemen of voorstellen. Aan AI&A zijn ook risico's verbonden, waarin soms ook ethische aspecten aan de orde zijn. Hoe groot is de foutmarge die acceptabel is bij wel of niet toekennen van een uitkering? Hoe acceptabel is het dat het systeem zelfstandig een besluit neemt zonder tussenkomst van een mens? In verschillende domeinen gelden verschillende maatschappelijke niveaus van acceptatie. In de zorg vinden we het over het algemeen prettig wanneer een arts beslist welke behandeling nodig is, al dan niet geholpen door een AI-systeem. Maar van de Maeslantkering accepteren we dat het algoritme bepaalt wanneer de kering dicht moet om het land te beschermen tegen hoogwater.

Algemene risico's[bewerken]

  1. Toxicity
  2. Hallucinaties
  3. Misinformatie
  4. Beperkte contextuele kennis van generatieve AI
  5. LLM’s soms getraint op verouderde informatie
  6. Verouderde bronnen

Echter: guardrails zijn soms niet goed genoeg.

Ethische aspecten[bewerken]

Er is een groot belang voor de overheid om AI en algoritmen te kunnen inzetten om het werk beter en in veel gevallen ook objectiever te doen. En daarbij komt vanzelf ook het belang om AI en algoritmen alléén in te zetten op een verantwoorde manier. Ethische vraagstukken, fairness en kans op fouten moeten vooraf bekeken en beoordeeld worden. Op dit moment is er nog geen wetgeving over ethiek bij het gebruik van AI.

Wél heeft, binnen de Europese Commissie, de High-Level Expert Group on AI - dat zich buigt over verantwoord gebruik van AI - een Ethics guidelines for trustworthy AI opgesteld voor verantwoord gebruik van AI. Hóe deze guidelines in systemen in te bedden en hoe dat controleerbaar te maken is een complexe volgende stap. Er bestaat een vigerende wetgeving ten aanzien van bijvoorbeeld mensenrechten.

Ethische risico's en kansen[bewerken]

De service providers van verschillende modellen bouwen ethische principes in modellen. Dit betekent dat we bij gebruik van modellen bouwen op de ethische normen van de Big Tech.

Ethische risico’s in de techniek[bewerken]

  1. Bias
  2. Geringe uitlegbaarheid
  3. Geringe transparantie

Ethische risico’s in de context van de techniek: maatschappelijke risico’s[bewerken]

  1. Verlies van banen
  2. Deep fakes > weten we nog wat echt en nep is. wat is echt en nep uberhaupt?
  3. Vergroting ongelijkheid
  4. Fraude
  5. Psychologische vervreemding
  6. Milieubelasting
  7. Desinformatie (met opzet)
  8. Verschuiven van verantwoordelijkheid van beslissers (democratisch gekozen) naar techniek

Ethische kansen[bewerken]

  1. AI kan ons een spiegel voorhouden. Bijvoorbeeld: eventuele biases die uit dataverzameling komen zeggen iets over onze maatschappij.
  2. Het doel waarvoor AI wordt gebruikt is een belangrijke factor in hoeverre dit als ‘goed’ of ‘slecht’ te betitelen is. Door AI voor ethische verantwoorde doelen te gebruiken kunnen we meer bereiken. Bijvoorbeeld door AI te gebruiken waar het goed voor is; patroonherkenning, kunnen mensen doelen bereiken waar zij goed in zijn.
Wetgeving en kaders
Er zijn meerdere wetten ontwikkeld op gebied van AI. Dat zijn;
  1. AI Act, die onderscheid maakt tussen risicoklassen van AI en daar o.a. menselijke tussenkomst op aanpast.
  2. AI Verdrag (mensenrechten)
  3. Staande wetgeving
  4. GDPR
  5. Data governance Act
  6. Data Act
  7. Digital Services Act


Vanuit Europa en de Nederlandse overheid zijn kaders mee gegeven voor omgang met AI. Dit zijn;

  1. Implementatiekader
  2. Europese guidelines
  3. Rekenkamer/ADR/J&V
  4. IAMA
  5. Handreiking generatieve AI
Principes

Er zijn meerdere principes die men zou moeten aanhouden bij het maken van en werken met AI. Dat zijn;

  1. Bias mitigatie
  2. Maximale transparantie
  3. Streven naar functionele uitlegbaarheid en evt. technische uitlegbaarheid.
  4. Respect voor menselijke autonomie
  5. Veiligheid en privacy
  6. Aansprakelijkheid borgen

Er zijn meerdere organen of tools die kunnen helpen met een ethische reflectie op specifieke casussen;

  1. IAMA
  2. Ethische commissie
  3. Begeleidingsethiek
  4. Ontwerpspel
  5. Moral labs


Vaak gaat het mis bij een zelfde taal en zonder goede communicatie. Daarom is met verschillende disciplines het effect en de besluiten afwegen belangrijk.

Detectie/monitoring en menselijk toezicht

Om inzicht te houden op de impact van AI zouden de volgende zaken op orde moeten zijn:

  1. Toezichthouders
  2. Menselijk toezicht waar mogelijk
  3. Guardrails in LLM powered applicaties
  4. Cureer en bewaak de kwaliteit van dataverzamelingen
  5. Detectiesystemen
  6. Watermerken en fingerprinting


Algemeen

Wat is er verder nodig om AI goed te laten landen in de maatschappij?

  1. Onderwijs over AI en de mystificatie
  2. Meer samenwerking
  3. Verantwoordelijkheid kweken bij ontwikkelaars
  4. Leg gebruikers uit hoe generatieve AI werkt
  5. Gebruik disclaimers bij LLM powered applicaties
  6. Vermeld bronnen