Tel: 0348 47 33 00

Effectieve vormen van AI gebruik

Effectieve vormen van AI gebruik

Afgelopen tijd heeft AI een prominente plek gekregen in onze samenleving. Vooral binnen organisaties en jongere doelgroepen wordt er veel gebruik gemaakt van Kunstmatige Intelligentie. Door gebruik te maken van AI worden processen versneld, analyses verbetert en nieuwe diensten ontwikkeld. Voor organisaties en vooral de OR is het van belang dat er begrepen wordt wat AI is en welke gevolgen het kan hebben.

Risico’s van AI

AI biedt veel kansen voor organisaties, maar brengt ook risico’s met zich mee. Zo kan AI verkeerde of bevooroordeelde beslissingen nemen als de gebruikte data niet betrouwbaar of evenwichtig is. Daarnaast zijn er privacy- en beveiligingsrisico’s, bijvoorbeeld wanneer gevoelige bedrijfs- of klantgegevens worden verwerkt. Ook kan een te grote afhankelijkheid van AI leiden tot minder menselijk toezicht, waardoor fouten of misbruik later worden opgemerkt. Verder kunnen reputatieschade en juridische problemen ontstaan als AI onjuiste informatie geeft of niet voldoet aan wet- en regelgeving. Daarom is het belangrijk dat organisaties AI zorgvuldig, transparant en onder menselijk toezicht inzetten.

Veilige AI-systemen zijn systemen die zo zijn ontworpen en beheerd dat gevoelige informatie goed wordt beschermd en niet onbedoeld wordt opgeslagen, gedeeld of gelekt. Momenteel bestaat er geen AI die 100% risicoloos is, door als organisatie bewust te kiezen voor een bepaalde tool kan je het risico wel sterk verkleinen.

Relatief veilige AI-oplossingen voor organisaties:

  • On-premise of private AI: het model draait binnen de eigen IT-omgeving, zodat data het bedrijf niet verlaat.
  • Private cloud-AI met enterprise-afspraken; leveranciers bieden varianten waarbij gegevens niet worden gebruikt om modellen te trainen en streng beveiligd worden.
  • Edge AI: de verwerking gebeurt lokaal op een apparaat, zonder data naar externe servers te sturen.

De veiligheid hangt niet alleen af van het AI-model, maar vooral van hoe het wordt gebruikt en beheerd. Risico’s ontstaan vaak doordat medewerkers vertrouwelijke informatie invoeren in publieke AI-tools zonder beleid of controle.

Meest veilige AI-systemen voor organisaties:

  1. ChatGPT (open AI): Enterprise-versie via Azure OpenAI Service biedt databeveiliging; publieke ChatGPT mag geen vertrouwelijke data bevatten.
    1. Wordt gebruikt voor: klantenservice, interne kennisdeling, automatisch samenvatten van documenten, e-mails opstellen, etc.
  2. GPT-4 (via Azure OpenAI): data blijft binnen de Azure-omgeving, wordt niet gebruikt voor training.
    1. Wordt gebruikt voor: geavanceerde tekstanalyse, codegeneratie, procesautomatisering en data inzichten
  3. Google Gemini: enterprise Gemini draait binnen Google Cloud met beveiliging en compliance-opties.
    1. Wordt gebruikt voor: documentenanalyse, chatbots, vertalingen, inzichten uit grote datasets.
  4. Microsoft Copilot: data blijft binnen de Microsoft-tenant, wordt niet gebruikt om het model te trainen en voldoet o.a. aan AVG en ISO-normen
    1. Wordt gebruikt voor: automatisch samenvatten van documenten, Excel analyses, e-mails opstellen en workflow assistent.
  5. Anthropic Claude: biedt enterprise-opties met data-isolatie en beveiligde werking.
    1. Wordt gebruikt voor: klantenservice, interne assistenten, documentenanalyse

 

Voor de OR betekent dit dat er een actieve rol is weggelegd bij het gebruik van AI binnen de organisatie. Omdat AI invloed kan hebben op werkprocessen, besluitvorming en de verwerking van persoonsgegevens, is het belangrijk dat de OR meedenkt en toezicht houdt. Kortom, de OR speelt een belangrijke rol bij het bewaken van veiligheid, privacy en transparantie. En kan daarmee helpen dat AI op een verantwoorde manier in de organisatie wordt toegepast.

 
OR advies