De risico’s van het gebruik van AI-tools
zaterdag 31 augustus 2024 Tags: STNLbelangenbehartiging, STNL, Stichtingtrouwbranchenederland
AI-tools maken het mogelijk om teksten en beelden te genereren met behulp van kunstmatige intelligentie, oftewel Artificial Intelligence (AI). Deze tools bieden tal van voordelen: ze besparen tijd, stimuleren creativiteit en openen een wereld aan mogelijkheden. Toch zijn er ook belangrijke risico’s verbonden aan het gebruik van AI.
Allereerst is er het risico op schending van auteursrechten. Veel AI-modellen trainen op bestaande teksten, afbeeldingen en muziek zonder dat altijd duidelijk is of de originele makers toestemming hebben gegeven. Dit kan leiden tot juridische complicaties.
Daarnaast speelt privacy een grote rol. Sommige AI-tools verwerken persoonlijke gegevens, waarbij het risico bestaat dat deze informatie niet correct wordt beveiligd of zelfs wordt misbruikt.
Verder is er de kans op onbetrouwbare of misleidende informatie. AI-modellen kunnen fouten maken of onnauwkeurige gegevens produceren, wat kan leiden tot verkeerde conclusies of desinformatie.
Het is daarom belangrijk om AI-tools bewust en zorgvuldig in te zetten, met oog voor de ethische en juridische implicaties.
Hoe werken AI-tools?
AI-tools genereren zelfstandig teksten en beelden op basis van een invoer, oftewel een ‘prompt’. Je geeft de tool een opdracht of vraag, waarna deze een tekst of afbeelding produceert. Dit gebeurt op basis van grote hoeveelheden data waar de AI mee is getraind. Deze data, ook wel ‘datasets’ genoemd, bestaan vaak uit teksten, afbeeldingen en andere digitale bronnen die van het internet zijn verzameld.
De AI-tool analyseert deze datasets en voorspelt op basis van patronen welke woorden of visuele elementen logisch op elkaar volgen. Zo creëert de tool een tekst of beeld dat lijkt op wat in de dataset het meest voorkomt. Hoewel dit proces creatief lijkt, maakt de tool geen echt nieuwe content. In feite combineert het bestaande teksten of beelden en presenteert deze als een nieuw geheel.
Het is belangrijk te begrijpen dat AI-modellen niet ‘begrijpen’ wat ze maken; ze produceren output puur op basis van statistische waarschijnlijkheden. Bekende AI-tools die op deze manier werken zijn onder andere ChatGPT, Google Bard, Bing AI, Midjourney, Sora en Runway. Deze tools hebben verschillende toepassingen, van het genereren van verhalen en blogs tot het creëren van kunstwerken en video’s, maar hun output blijft afhankelijk van de data waar ze op zijn getraind.
Auteursrecht en AI: Waar moet je op letten?
Wanneer je een AI-tool gebruikt om tekst of beeld te maken, is het belangrijk rekening te houden met auteursrecht. AI-modellen zijn getraind op bestaande data, waaronder teksten en beelden waarop auteursrecht rust. Hierdoor kan de output van de tool elementen bevatten die zijn overgenomen van beschermd werk. Het zonder toestemming gebruiken van teksten of afbeeldingen waarop auteursrecht rust, is verboden en kan leiden tot juridische problemen. De oorspronkelijke maker kan je zelfs aanklagen voor inbreuk.
Als je de door AI gegenereerde content nabewerkt, betekent dit niet automatisch dat jij de auteursrechten krijgt. Voor het verkrijgen van auteursrecht op jouw werk, moet er sprake zijn van een originele en creatieve keuze die je hebt gemaakt. Bovendien moet je invloed hebben gehad op het volledige creatieve proces, van begin tot eind. AI-output voldoet hier vaak niet aan, omdat de tool het creatieve proces grotendeels overneemt.
Een duidelijk voorbeeld: Stel, je bent een schoenenverkoper en je vraagt ChatGPT om een blog te schrijven over de vijf meest voorkomende problemen bij nieuwe schoenen. Als een andere schoenenverkoper dezelfde opdracht geeft, kan diegene een vrijwel identieke tekst krijgen. In zo’n geval kun je deze persoon niet beschuldigen van plagiaat, omdat er geen sprake is van een uniek of oorspronkelijk werk dat jouw auteursrechtelijk beschermd is.
Bij het gebruik van AI-tools is het dus belangrijk om te beseffen dat niet alle gegenereerde content beschermd kan worden door auteursrecht. Wees je ervan bewust dat je niet zomaar exclusieve rechten hebt op de output van AI en dat je altijd zorgvuldig moet omgaan.
Privacy: Waar moet je op letten bij het gebruik van AI-tools?
Het gebruik van AI-tools brengt risico’s met zich mee op het gebied van privacy, vooral als je persoonsgegevens of gevoelige bedrijfsinformatie invoert. Informatie die je invoert in een AI-tool wordt vaak opgeslagen op externe servers. Deze servers kunnen zich bevinden in landen buiten de Europese Unie, waar de Nederlandse en Europese privacywetgeving, zoals de Algemene Verordening Gegevensbescherming (AVG), niet van toepassing is. Hierdoor kan de bescherming van ingevoerde data niet gegarandeerd worden.
Volgens de AVG ben je verplicht om persoonsgegevens veilig te verwerken en te beschermen. Dit houdt in dat je zorgvuldig moet omgaan met het invoeren van gegevens in AI-tools. Stel dat je als trouwambtenaar verkregen persoonlijke informatie van een bruidspaar invoert en je vraagt ChatGPT om deze informatie samen te vatten. Als je de volledige informatie invoert, worden de persoon gegevens van je cliënt mogelijk opgeslagen op servers in bijvoorbeeld de Verenigde Staten, waar minder strenge privacyregels gelden. In zo’n geval loop je het risico op hoge boetes en juridische problemen, omdat je niet voldoet aan de eisen voor gegevensbescherming.
Om deze risico’s te vermijden, is het essentieel om voorzichtig te zijn met welke gegevens je invoert in AI-tools. Vermijd het delen van persoonsgegevens of vertrouwelijke bedrijfsinformatie en controleer altijd waar de data wordt opgeslagen en onder welke regelgeving deze valt. Zorg er daarnaast voor dat je altijd voldoet aan de geldende privacywetgeving, zowel nationaal als internationaal.
Onbetrouwbare Teksten: De Risico’s van AI-gegeneerde Informatie
Teksten die door AI-tools worden gegenereerd, kunnen onnauwkeurig of zelfs volledig onjuist zijn. Dit komt doordat deze tools teksten samenstellen op basis van bestaande informatie die op het internet te vinden is. AI-modellen analyseren grote hoeveelheden data, maar controleren niet op feitelijke juistheid. Hierdoor kan de output fouten bevatten of informatie presenteren die niet op waarheid berust.
Een gek voorbeeld: stel, je vraagt ChatGPT wie de crompouce heeft bedacht. Het model kan een gedetailleerd en overtuigend antwoord geven met een specifieke naam. Maar wanneer je deze naam controleert, bijvoorbeeld via Google, kan het zijn dat je geen enkel bewijs of bron vindt die deze informatie bevestigt. Dit komt omdat de AI-tool mogelijk details samenvoegt of creëert op basis van patronen uit verschillende, niet-geverifieerde bronnen. In sommige gevallen kan het zelfs fictieve of verouderde informatie genereren, zonder dat je dat direct merkt.
Om te voorkomen dat je onjuiste informatie verspreidt, is het cruciaal om de antwoorden van AI-tools altijd te verifiëren. Dit geldt vooral wanneer de informatie van invloed kan zijn op belangrijke beslissingen of wanneer je de inhoud professioneel gebruikt. Controleer de feiten via betrouwbare en onafhankelijke bronnen en wees alert op eventuele inconsistenties of ontbrekende details in de antwoorden van AI-modellen.
Kortom, AI-tools kunnen waardevolle ondersteuning bieden bij het creëren van content, maar blind vertrouwen op de gegenereerde output kan leiden tot fouten en misinformatie. Fact-checking blijft essentieel bij het gebruik van AI-gegeneerde teksten.
Bron: KvK