Risico’s van AI-taalmodellen
Naast de benoemde voordelen is het ook belangrijk om te onderkennen dat het gebruik van AI-taalmodellen niet zonder risico’s is. Ze kennen de diepere betekenis van taal (nog) niet op dezelfde manier als mensen dat doen en zijn zo goed als de data waarmee ze zijn getraind. Er zijn daarom risico’s verbonden aan het gebruik van taalmodellen.
Hieronder schetsen we vier risico’s in het gebruik van taalmodellen en hoe een organisatie dit kan ondervangen in een gedragscode.
1. Betrouwbaarheid van informatie en misinformatie
Je kunt er niet altijd op vertrouwen dat de antwoorden van AI-taalmodellen feitelijk kloppen. Taalmodellen zijn namelijk getraind om de waarschijnlijkheid van een volgorde woorden te voorspellen. Hoe vaker in de data waarmee het systeem is getraind bepaalde woorden achter elkaar staan, hoe waarschijnlijker het is dat het taalmodel dit reproduceert. Hierbij is het belangrijk te beseffen dat waarschijnlijkheid geen betrouwbare indicatie van correctheid is. In de trainingsdata kunnen namelijk ook feitelijke onjuistheden zitten, informatie die niet langer up-to-date is of zelfs misinformatie. Hierdoor bestaat het risico dat een breedgedagen mening, verouderde, of foute informatie wordt gepresenteerd alsof het feitelijke informatie is (zie ook het onderzoek Taxonomy of Risks posed by Language Models).
Suggesties voor de gedragscode
Dat de informatie afkomstig uit AI-taalmodellen niet altijd betrouwbaar is, betekent niet dat het geen voordeel kan opleveren in professionele context. Ze kunnen bijvoorbeeld behulpzaam zijn bij het geven van inspiratie. Je kunt als organisaties werknemers ondersteunen door werknemers na te laten denken over het doel waarmee ze taalmodellen willen gebruiken. Bij antwoorden waarbij het waarheidsgehalte van belang is, is het bijvoorbeeld belangrijk dat werknemers altijd controleren of de antwoorden kloppend zijn. Met de betaalde versie van ChatGPT kun je bijvoorbeeld zien op welke bronnen het antwoord van het AI-taalmodel is gebaseerd.
Lees ook de plannen van de Europese Commissie om meer vat te krijgen op AI in het artikel ‘Leidend Europees rechtskader voor AI-gebruik moet houvast bieden’
2. Omgang met vertrouwelijke informatie
De brede inzetbaarheid van AI-taalmodellen kan ervoor zorgen dat de drempel steeds lager wordt om ze te gebruiken bij de ondersteuning in werkzaamheden. Hierbij is het raadzaam om een goede afweging te maken of de informatie die wordt ingevoerd geen vertrouwelijke of gevoelige informatie betreft. Denk aan een beleidstuk, waarvan de inhoud nog niet bekend mag zijn of gevoelige klantengegevens. Het is nog onvoldoende bekend wat taalmodellen met deze informatie doen. Het bedrijf achter ChatGPT claimt dat de informatie die als invoer voor het taalmodel dient, niet wordt opgeslagen en dus ook niet wordt gebruikt voor trainingsdoeleinden. Dit geeft echter nog geen garantie voor de toekomst. Theoretisch gezien zou het beleid van de ene op de andere dag kunnen worden aangepast. Voor Samsung was het daarom goed schrikken toen een medewerker per ongeluk gevoelige code invoerde in ChatGPT. Om dergelijke privacyrisico’s in de toekomst te vermijden, besloot Samsung om het gebruik van taalmodellen te verbieden. Andere grote organisaties zoals Apple en Amazon gingen hen al voor. Een andere manier om hiermee om te gaan, is werknemers te leren omgaan met taalmodellen en ze bewust te maken van risico’s en kwetsbaarheden, maar ook van de voordelen.
Suggesties voor de gedragscode
Het is belangrijk om in de gedragscode op te nemen hoe werknemers omgaan met vertrouwelijke informatie in relatie tot taalmodellen. Zo kan het raadzaam zijn om werknemers en de organisatie te behoeden voor het invoeren van privacygevoelige informatie. Denk aan vertrouwelijke informatie over de eigen organisatie, zoals strategische beslissingen, HR-aangelegenheden en voortgangsrapportages of financiële gegevens. Anderzijds is het belangrijk om te waken voor het delen van vertrouwelijke informatie van klanten/opdrachtgevers.
3. Vooringenomenheid en discriminatie
De teksten waarmee de AI-taalmodellen zijn getraind, bestaan niet alleen uit neutrale, objectieve uitspraken. Er staat veel informatie online dat schadelijk kan zijn als een taalmodel het klakkeloos overneemt. Denk aan breedgedragen meningen die voor feiten worden aangenomen, stereotypes en andere negatieve uitingen over sociale groepen, zoals discriminatie en racisme. Soms kunnen filters voorkomen dat schadelijke data in een taalmodel beland, maar vaak zijn stereotypes en vooroordelen erg subtiel en bovendien kunnen ze verankerd zijn in een cultuur. Als taalmodellen gevoed zijn met vooringenomen trainingsdata, is het ook mogelijk dat gebruikers dit gaan terugzien in de antwoorden op opdrachten die worden gegeven. Daarom is het belangrijk om te beseffen dat AI-taalmodellen een gekleurde weergave van de werkelijkheid kunnen voorschotelen.
Suggesties voor de gedragscode
In een gedragscode zou moeten staan wat de verantwoordelijkheden van de werkgever en werknemer zijn omtrent de juiste omgang met AI-taalmodellen. De werkgever ondersteunt de werknemer door onder andere inzicht en bewustwording te creëren in de potentiële gevaren van taalmodellen, zoals vooringenomenheid en discriminatie. Daarnaast kan een werkgever duiden welke functiegroepen en/of afdelingen meer risico’s ondervinden bij het gebruik van dit middel. Anderzijds kunnen werknemers zich laten scholen door de werkgever. Ook kan een werknemer vooringenomenheid van een taalmodel ondervangen door gegenereerde teksten kritisch na te lezen en altijd op waarheid te controleren met betrouwbare, te verifiëren bronnen.
Lees ook de blog ‘Gaat AI de wereld echt veranderen?’ van Patrick Banis, directeur Arbeidsmarkt bij het CAOP
4. Originaliteit en bronvermelding
AI-taalmodellen zijn berucht om hun gebrek aan transparantie. Het is grotendeels onduidelijk wat er precies in ze omgaat en hoe ze tot hun antwoorden komen. Vanuit het wetenschappelijke domein werd eerder al geopperd dat taalmodellen niet kunnen voldoen ‘aan de eis van “integriteit” en “reproduceerbaarheid” van wetenschappelijk onderzoek’. Maar ook buiten het wetenschappelijke domein is het verstandig voorzichtig om te gaan met informatie afkomstig uit AI-taalmodellen. Alle trainingsdata komt op één grote hoop terecht en uit deze samenklontering van informatie worden antwoorden aan elkaar gebreid. Deze twijfelachtige originaliteit neemt risico’s met zich mee voor de kwaliteit van de antwoorden. Daarnaast zijn er op dit moment nog onvoldoende richtlijnen over de wijze van bronvermelding van informatie uit taalmodellen. Dit gebrek maakt dat het momenteel aan de werknemer is om te bepalen hoe met bronvermelding en originaliteit van data om te gaan.
Suggesties voor de gedragscode
Een werkgever kan een werknemer ondersteunen door te benoemen welke type bronvermelding gewenst is, als er gebruik wordt gemaakt van een AI-taalmodel. De Universiteit Utrecht stelt bijvoorbeeld verplicht dat taalmodellen zoals ChatGPT alleen mogen worden gebruikt wanneer dit expliciet wordt vermeld. Het is van belang dat werknemers zich bewust zijn van de wijze waarop taalmodellen tot hun antwoorden komen. Ook is het belangrijk om na te denken over de doeleinden waarvoor informatie uit taalmodellen wordt gebruikt. Als de herkomst van informatie bijvoorbeeld van belang is, is een voorzichtige benadering wenselijk.
Ga mee met de technologie maar ondervang risico’s in de de gedragscode
Al met al kan geconcludeerd worden dat het gebruik van taalmodellen aanzienlijke voordelen met zich mee kan brengen, terwijl er tegelijkertijd serieuze risico’s aan verbonden zijn. Het is waarschijnlijk dat het gebruik van AI-taalmodellen op de gemiddelde werkvloer verder zal toenemen in de nabije toekomst. Bewustzijn van de potentiële risico’s is een noodzakelijke eerste stap voor een verantwoorde omgang met taalmodellen. In sectoren waar het gebruik van AI-taalmodellen voordelen met zich meebrengt doen werkgevers er goed aan om hun werknemers te trainen in de juiste omgang met deze modellen. Om kwetsbaarheden te verkleinen is het ook belangrijk om een contactpersoon aan te wijzen met wie een werknemer bij vragen en twijfel in gesprek kan. Als werkgever wil je de risico’s en kwetsbaarheden die verbonden zijn aan taalmodellen zo veel als mogelijk beperken. Dat begint met het scheppen van richtlijnen in de gedragscode.
Meer informatie over sociale veiligheid
Wil je meer weten over sociale veiligheid, bekijk dan ook onderstaande pagina’s.