OpenAI: ‘Nieuwe nep-tekstgenerator mogelijk te gevaarlijk voor release’

Nepnieuws, OpenAI

OpenAI, een non-profit onderzoeksbedrijf met steun van Elon Musk, heeft een nieuwe kunstmatige intelligentie (AI) gemaakt die naar eigen zeggen mogelijk te gevaarlijk is om op de markt te brengen. Het gaat om een model dat nieuwsverhalen en fictie-verhalen kan schrijven, meldt The Guardian.

Het model, ook wel “deepfakes for tekst” of GPT2 genoemd, is volgens de organisatie zo goed en komt met zoveel risico, dat het onderzoek niet openbaar wordt gemaakt.

GPT2 is vooral een tekstgenerator. Het systeem krijgt tekst – wat alles van een paar woorden tot een volledige pagina kan zijn – en wordt gevraagd om de volgende paar zinnen te schrijven op basis van zijn voorspellingen van wat er nu moet komen. Het systeem blijkt echter meer te kunnen dan eerst voor mogelijk werd gedacht, zowel in de kwaliteit als de output en potentiële toepassingen.

Training

Wordt GPT2 gebruikt om nieuwe tekst te genereren, dan is het in staat om plausibele passages te schrijven die passen bij wat het in eerste instantie kreeg. Dit is het geval bij boeken zoals 1984 van George Orwell, maar ook bij nieuwsberichten over bijvoorbeeld de Brexit.

GPT2 werd getraind op een dataset van ongeveer 10 miljoen artikelen, die geselecteerd werden door op Reddit te zoeken naar linkjes met meer dan drie stemmen. De volledige collectie aan tekst kwam uit op 40 GB, wat genoeg ruimte is om 35.000 exemplaren van Moby Dick in op te slaan.

Door die grote hoeveelheid data kreeg GPT2 meer kennis over hoe het geschreven tekst moet begrijpen. Het kan bijvoorbeeld ook vertalingen en samenvattingen maken, evenals eenvoudige leestoetsen behalen. En juist dat is hetgeen waardoor OpenAI de AI niet openbaar wil maken.

Problemen

“We moeten uitzoeken wat malafide actoren er wel en niet mee kunnen doen”, aldus Jack Clark, het hoofd van beleid bij de organisatie. “Als je niet kunt voorspellen wat alle mogelijkheden zijn van een model, dan moet je het onderzoeken om dat uit te vinden. Er zijn veel meer mensen dan wij die beter zijn in bedenken wat malafide toepassingen zijn.”

als voorbeeld heeft OpenAi een versie van GPT2 gemaakt met een paar kleine aanpassingen, die gebruikt kan worden om een oneindig aantal positieve of negatieve recensies van producten te maken. Twee andere potentiële problemen zijn spam en nepnieuws.

Bovendien wordt het getraind op het internet, waardoor het eenvoudig is om bijvoorbeeld samenzweringstheorieën te maken.

Foto: Shutterstock.com

0 Reacties
Reageer