AI verovert de werkvloer (ondanks praktische en juridische valkuilen)
Sinds de lancering van ChatGPT, Copilot en Gemini experimenteren Belgische bedrijven volop met generatieve AI om teksten te schrijven, data te analyseren of vertalingen te maken. Maar hoe groot is de impact op de werkvloer écht? En hoe ver kan je gaan zonder brokken te maken, ethisch of juridisch? “Bedrijven die investeren in opleiding en bewust gebruik, halen daar straks een concurrentieel voordeel uit.” (Dries Van Damme)
Bijna de helft van de duizend Vlaamse werknemers die deelnamen aan een bevraging van UGent@Work gebruikt af en toe een generatieve AI-tool op het werk. ChatGPT is met afstand de populairste (76% van de gebruikers), gevolgd door Microsoft Copilot (32%). Ruim twee op de drie respondenten zeggen door AI sneller te werken en bijna de helft voelt zich productiever.
Toch zien veel bedrijven generatieve AI nog vooral als een ‘slimmere zoekmachine’, in plaats van als een copiloot voor besluitvorming of automatisering. “Het extra potentieel ligt nochtans in het geavanceerde gebruik”, zegt Amy Van Looy, professor beleidsinformatica aan de Universiteit Gent. “AI omvat ook robotica, procesautomatisatie en data-analyse. Denk aan softwarebots die repetitieve taken overnemen of algoritmes die risico’s voorspellen.”
AI-geletterdheid
Om dat potentieel te benutten, is AI-geletterdheid bij medewerkers cruciaal. “Kennis over wat de technologie kan, weten hoe je een goede prompt schrijft en een kritische houding tegenover de output: die drie elementen zijn cruciaal.” Dat laatste blijkt broodnodig: Vlaamse werknemers geven zichzelf gemiddeld een score van slechts 4,9 op 10 voor hun AI-vaardigheden en amper 13% volgde ooit een opleiding over AI. Hoewel bedrijven volgens de Europese AI-richtlijn verplicht zijn om die geletterdheid te bevorderen, blijkt uit onderzoek van HR-dienstverlener Acerta dat er bij zeven op de tien Belgen nog altijd geen duidelijke richtlijnen zijn over AI op de werkvloer.
Van Looy noemt dat een gemiste kans: “België doet het qua AI-adoptie niet slecht, maar onze digitale vaardigheden liggen rond het Europese gemiddelde. Onze buurlanden doen het vaak beter omdat bedrijven en burgers er sneller openstaan voor innovatie.” Die attitude vormt op zich geen obstakel. “Inclusie en opleidingen om alle werknemers mee te krijgen zijn een veel groter aandachtspunt”, aldus Van Looy. “Door een gebrek daaraan leidt AI stilaan tot een nieuwe digitale kloof, aangezien ze de digitale basiscompetentie van de toekomst is.”
Human in the loop
AI kan repetitieve taken overnemen en werknemers ontlasten, maar blind vertrouwen is gevaarlijk. “Generatieve AI is geen zoekmachine”, waarschuwt Katrien Meuwis van Sirris, het innovatiecentrum voor de technologische industrie in België. “Het systeem creëert nieuwe content die betrouwbaar lijkt, maar dat niet altijd is. Vraag drie keer hetzelfde aan een taalmodel en je krijgt drie verschillende antwoorden. Hoewel die grote taalmodellen almaar beter worden, mag de menselijke controle nooit verdwijnen.”
Van Looy onderschrijft dat: “AI kan ondersteunen, maar de waarheid ligt in het midden. Laat AI saaie taken automatiseren, zodat mensen zich kunnen toeleggen op creatie, empathie of leiderschap. Beslissingen die context of morele afwegingen vragen, blijven mensenwerk. Je kan alleen vertrouwen op AI als je ook vertrouwen hebt in de data waarop ze is getraind, en dat is vandaag niet altijd transparant.”
Schemerzone
Naast vragen rond betrouwbaarheid doemen er ook juridische obstakels op. Wie is de eigenaar van een tekst of afbeelding die ontstond met behulp van AI en wie bezit het auteursrecht? “Er is een verschil tussen beide”, zegt Meuwis. “Om auteursrechtelijke bescherming te krijgen, moet de inhoud menselijke creativiteit vertonen. Werken die AI genereerde zonder menselijke inbreng – de zogeheten AI-generated content – komen daar dus niet voor in aanmerking.”
Op door AI ondersteunde creaties (AI-assisted content) kan wél bescherming rusten, op voorwaarde dat ze een duidelijk menselijk en creatief aandeel bevatten, bijvoorbeeld in de prompt of in de nabewerking. “Waar die grens ligt, blijft een grijze zone. Het debat leeft, maar voorlopig zijn geen wetswijzigingen te verwachten: het auteursrecht vertrekt nog altijd van de menselijke creatieve bijdrage.”
Bij generatieve AI-tools gaat het niet alleen over auteursrecht, maar ook over het recht om de output te gebruiken of te exploiteren. Daarbij zijn de gebruiksvoorwaarden van de tool doorslaggevend. Betalende versies geven de eigendom meestal aan de gebruiker, maar sommige tools behouden zelf de rechten. “Bedrijven horen die voorwaarden grondig te lezen”, benadrukt Meuwis. “Soms mag de aanbieder de output later opnieuw gebruiken, bijvoorbeeld voor het trainen van zijn model.”
Confidentialiteit
Daarnaast bepalen die voorwaarden vaak ook wie aansprakelijk is wanneer AI bestaande, beschermde werken kopieert. “Wanneer jouw prompt expliciet vraagt om iets te maken dat lijkt op beschermd werk, kunnen de voorwaarden de verantwoordelijkheid voor een inbreuk op auteursrechten bij jou leggen”, zegt Meuwis. Vertrouwelijkheid is een bijkomend aandachtspunt. “Veel GenAI-tools behouden zich het recht voor om ingevoerde data te analyseren of op te slaan. Bedrijven die met gevoelige informatie werken, moeten dus nagaan of de tool een versie aanbiedt met striktere confidentialiteitsclausules.”
Omdat de gehele juridische context nog niet duidelijk is, raden experts bedrijven aan zich contractueel te beschermen. “Je kan in contracten met klanten vermelden dat er AI-tools zijn gebruikt”, zegt Meuwis. “Zo’n transparantieclausule sluit aansprakelijkheid niet uit, maar toont aan dat het bedrijf zorgvuldig handelt. In combinatie met afspraken over wie verantwoordelijk is bij fouten of inbreuken helpt dat om correcte afspraken te maken.” Duidelijke bepalingen zijn belangrijk, zowel tegenover klanten als tegenover de AI-leverancier. “Kortom: AI gebruiken zonder juridische check is even riskant als software installeren zonder de licentievoorwaarden te lezen.”
Nieuwe verplichtingen
De Europese AI Act legt geen nieuwe regels op rond intellectuele eigendom, maar wel rond transparantie, risicobeheer en documentatie. Leveranciers van generatieve AI-systemen moeten aantonen hoe hun modellen werken en welke data zijn gebruikt. “Voor gebruikers vertaalt de AI Act zich in een verplichting tot zorgvuldigheid”, zegt Meuwis. “Bedrijven die AI toelaten in belangrijke processen moeten zorgen dat medewerkers weten welke data ze wel of niet mogen invoeren – geen persoonsgegevens, geen vertrouwelijke klantinformatie en geen gegevens van derden.” Zo blijven ze ook in regel met de GDPR of aangegane vertrouwelijkheidsverplichtingen.
Veranderende werkvloer
Hoewel AI almaar meer ingang vindt in het Belgische bedrijfsleven, blijven er verschillen tussen bedrijven van verschillende omvang. AI verbieden is volgens Meuwis geen goed idee: “Bij de opkomst van open source hebben we gezien dat een verbod niet werkt. Een helder AI-beleid is essentieel: bepaal welke tools medewerkers mogen gebruiken, voor welke doeleinden, en wie de eindverantwoordelijkheid draagt.” “Wie AI negeert, riskeert zichzelf buiten de markt te zetten”, vult Van Looy aan. “Maar ondoordacht gebruik creëert risico’s: foute beslissingen, datalekken of reputatieschade. Kritisch, geïnformeerd gebruik is belangrijk.”
De bevraging van UGent@Work wijst uit dat slechts 38% van de Vlaamse werknemers vertrouwen heeft in de informatie die GenAI aanreikt. Bij 37% leeft de vrees dat AI zal leiden tot meer controle op de werkvloer. Toch is Van Looy optimistisch: “AI zal de komende jaren meer en meer geïntegreerd raken in de bedrijfsvoering. Maar menselijk toezicht blijft cruciaal. De kunst bestaat erin realistische verwachtingen te hebben en AI strategisch te gebruiken – en niet zomaar omdat het trendy is. Bedrijven die nu investeren in opleiding en bewust gebruik, winnen daar straks een concurrentieel voordeel mee.”