Vier risico's van generatieve AI waarvan elk bedrijf op de hoogte moet zijn

5 min
De vorm van een brein, geïllustreerd met een blauw printplaatontwerp op een zwarte achtergrond.

Volgens een recent rapport van McKinsey "heeft generatieve AI het potentieel om de anatomie van het werk te veranderen" en "zal het de arbeidsproductiviteit in de hele economie aanzienlijk verhogen". Op het moment van schrijven hadden ze 63 gebruiksscenario's voor generatieve AI in 16 bedrijfsfuncties geïdentificeerd. Dit geeft je een idee van het niveau van de mogelijke transformatie. Productiviteit, efficiëntie en effectiviteit zijn natuurlijk de heilige graal voor organisaties die in een veranderende wereld op de lange termijn succes willen behalen. Dit nieuws is dus met veel enthousiasme ontvangen.

Maar te midden van al deze opwinding duikt er steeds weer één woord op: risico. Generatieve AI staat per slot van rekening nog in de kinderschoenen. Daarom moeten bedrijven goed nadenken over hoe het in hun organisaties wordt ingezet, en wat de gevolgen kunnen zijn. "Dit komt neer op risicotolerantie en risicobereidheid", aldus Quentyn Taylor, Senior Director Information Security and Global Response van Canon EMEA. "Zijn we bijvoorbeeld bereid om te accepteren dat we met AI vragen van klanten beantwoorden, terwijl dit het heel af en toe bij het verkeerde eind zal hebben?" Dit is slechts één manier waarop GenAI zou kunnen worden gebruikt om de efficiëntie te verhogen, maar zoals Quentyn opmerkt, wat is het reputatierisico als een klant onjuiste informatie ontvangt? Het hangt sterk af van het product en de klant, en dit is de grote uitdaging voor bedrijven. Ze moeten een duidelijk begrip hebben van de situaties waar generatieve AI echte waarde kan toevoegen, en de situaties waar risico's onaanvaardbaar zijn. Om zelfs maar een begin te kunnen maken met deze beoordelingen, is het daarom van cruciaal belang om te begrijpen wat de risico's precies kunnen zijn.

Beschermen van intellectueel eigendom en commercieel gevoelige informatie

Dit is het gebied dat door de meeste organisaties het meest direct is aangepakt. Sommige organisaties hebben het gebruik van tools en diensten voor generatieve AI zelfs volledig verboden om hun bedrijfsprivacy te beschermen en te behouden. In wezen worden alle gegevens die je in een GenAI-model invoert, trainingsgegevens. Dus als je generatieve AI zou vragen om een toespraak te schrijven voor een opwindende productrelease, waarbij je in je verzoek alle details van dat product verstrekt, dan heb je in wezen bedrijfskritieke, onder embargo vallende informatie geüpload naar een tool die wereldwijd wordt gebruikt. Als het bestaansrecht van je bedrijf volledig afhankelijk is van zijn IP, dan is dit een risico van onaanvaardbaar niveau. "Aan de andere kant," zegt Quentyn, "als je generatieve AI zou gebruiken om 300 lichtelijk verschillende beschrijvingen voor bestaande producten te schrijven, is dat dan een probleem? Waarschijnlijk niet." Een ander perspectief waarmee je rekening moet houden, is de inspanning die het beoordelen van het probleem kost ten opzichte van het resultaat: "Is het terugdringen van gebruik van GenAI een effectief gebruik van je tijd? Kunnen we de toegang volledig blokkeren als er dagelijks duizenden nieuwe tools worden uitgebracht?" vraag hij zich af.

Twee mensen zitten aan hun bureau in een kantoor. Ze zitten tegenover elkaar, maar kijken allebei naar grote schermen terwijl ze op hun computer werken.

Wanneer je teams GenAI gebruiken om hen te helpen bij hun dagelijkse taken, is het essentieel dat ze geen commercieel gevoelige informatie uploaden.

Besluitvorming, vooringenomenheid en communicatie

Wie heeft de leiding? Natuurlijk begint de besluitvorming bovenaan, maar wanneer het bestuur conclusies trekt aan de hand van GenAI-tools, moet het proces kristalhelder zijn. Ook is het essentieel dat er rekening wordt gehouden met vooringenomenheid bij het gebruik van GenAI als tool om mogelijkheden voor een hogere productiviteit en winstgevendheid te analyseren. Het is algemeen bekend dat er enorm veel trainingsgegevens nodig zijn om een AI-model ook maar enigszins eerlijk te laten zijn, en zelfs dan bestaat de kans op vooringenomenheid. Daarom kiezen veel organisaties ervoor om dergelijke tools niet te gebruiken op belangrijke besluitvormingsgebieden. Zo wordt werving vaak genoemd als een problematisch gebied. Quentyn onderstreept dit door te zeggen: "Je moet altijd de context begrijpen waarin door AI ondersteunde beslissingen worden genomen. "Dit moet bovendien duidelijk worden gecommuniceerd naar de rest van de organisatie, anders loop je het risico dat er wijdverspreide verwarring en wantrouwen in het leiderschap ontstaat." Dit is vooral belangrijk als je bedenkt hoe vaak organisatorische beslissingen 'ontrafeld' moeten worden, om de vaak zeer genuanceerde basis te begrijpen waaraan acties hun legitimiteit ontlenen.

Inbreuk op auteursrecht

Op dit moment zijn er een aantal zeer opzienbarende rechtszaken gaande, waarbij partijen denken dat hun creatieve werk zonder hun toestemming is gebruikt om een AI te trainen. En maar weinig zorgen rondom GenAI zijn groter dan die rondom de legaliteit van de content die hiermee wordt gecreëerd. Ja, er zijn een aantal opkomende tools (zoals Adobe Firefly) die zijn getraind met niets anders dan gegevens in legaal bezit. Voor veel andere tools is er op dit moment echter weinig tot geen duidelijkheid over hoe veilig ze zijn om te gebruiken voor bijvoorbeeld het maken van een reeks afbeeldingen voor een socialemediacampagne of het ontwerpen van een nieuwe merkidentiteit. Wanneer Quentyn met derden aan dergelijke activiteiten werkt, ziet hij waarde in "het aanpassen of bijwerken van contracten om het risico te beperken en ervoor te zorgen dat er intern duidelijke richtlijnen en beleid van kracht zijn".

Wanneer GenAI liegt

Mogelijk heb je de term 'hallucinaties' al regelmatig horen vallen in de context van GenAI. Eenvoudig gezegd treedt dit op wanneer een AI-model een onjuiste of onrealistische reactie genereert. Het kan iets grappigs zijn, zoals een volledig samengesteld woord of een onzinnige zin. Maar het kan ook vol vertrouwen onjuiste informatie verstrekken, zoals het geval was bij twee advocaten die in de rechtszaal zes citaten uit arresten presenteerden die compleet fictief bleken te zijn. Later bleek dat deze waren gegenereerd door ChatGPT. De advocaten moesten een boete van $ 5000 betalen. AI-experts erkennen het probleem en 'boeken vooruitgang', maar ondertussen is dit een gebied met uitzonderlijke risico's voor organisaties en hun leiders. "Feitencontrole, feitencontrole en nog eens feitencontrole", benadrukt Quentyn. "Dat is een van de belangrijkste rollen voor mensen wanneer we AI gebruiken om onderliggende inhoud te genereren. We moeten nauwgezette en effectieve redacteuren zijn." Hij waarschuwt ook voor de risico's van het gebruik van GenAI-bots om sociale media te controleren en erop te reageren. "Je bot zou antwoorden kunnen gaan geven die in theorie misschien wel correct zijn, maar niet in de context van de vraag die werd gesteld."

Over het algemeen is Quentyn positief over het feit dat veel organisaties AI zullen adopteren als een "voordeel op de achtergrond", ingebouwd in en aangeboden via de diensten en tools die ze al gebruiken. In dit opzicht wordt een groot deel van het risico al beperkt door contracten met derden en door oplossingen van bekende, gerespecteerde en bewezen partners te implementeren. "Misschien gebruikt een bedrijf AI om e-mails te doorzoeken en te zoeken naar phishingpraktijken", legt hij uit. "Het is niet waarschijnlijk dat ze dit specifiek zelf zullen coderen of ontwikkelen, maar ze zullen wel voordeel halen uit het gebruik van tools die deze service bevatten." Uiteindelijk brengt elk bedrijf een aanzienlijke hoeveelheid risicobeheer met zich mee, en de nieuwe mogelijkheden die GenAI biedt zijn in dit opzicht niet anders.

Verwant