De nieuwste vinding in kunstmatige intelligentie (artificial intelligence, AI) heet ChatGPT. GPT staat voor generative pre-trained transformer. Wat betekent: een zelflerend model dat is gevoed met grote hoeveelheden tekst om op echt lijkende teksten te genereren. Wat is de potentie van dit model, en wat zijn de eventuele problemen en gevaren?
ChatGPT, gewoon erg goed
ChatGPT is ontwikkeld door OpenAI, gesticht door een groot aantal Amerikaanse digitale ondernemers, onder wie Elon Musk en Peter Thiel. Het laatste model is nog pas op de markt sinds november 2022, maar het heeft al diepe indruk gemaakt. Kijk alleen maar naar het zeer grote Wikipedia artikel over dit onderwerp. Het model bestaat uit 175 miljard (!) parameters en er zijn 300 miljard woorden aan gevoerd. Veel meer dan het menselijke geheugen kan verwerken. Het kan op de pc worden gebruikt via op https://chat.openai.com/. Registratie is wel vereist. En er zijn al concurrenten, waaronder de Bing zoekmachine van Microsoft. Vergelijkbaar zijn ook Neeva, Perplexity.ai en Bard (de laatste van Google).
ChatGPT is momenteel vooral goed in het maken van teksten waarvoor weinig originaliteit nodig is. Een persbericht bijvoorbeeld (al zal de ‘auteur’ wel moeten controleren of de feiten kloppen!). Een sollicitatiebrief. Adviezen van een lifestyle coach voor gezond leven en persoonlijke groei. Zelfs hele conversaties. Algemene teksten die een breed publiek moeten aanspreken. Saai misschien, maar voor veel doeleinden wel effectief. En wat veel effect gaat hebben: Microsoft heeft 49% van de aandelen gekocht in ChatGPT en gaat het integreren in hun Office 365. Dan hebben alle MS-gebruikers de functionaliteit heel eenvoudig tot hun beschikking.
Potentie
ChatGPT is getraind in menselijke communicatie en geeft daardoor altijd antwoorden in begrijpelijke taal. Het is ook zeer veelzijdig. Je kunt er complete webteksten mee maken, evenals gedichten en essays. Maar, zegt wetenschapsjournalist Arno van der Hoog, het programma kan ook gebruikt worden als factchecker. Niet onlogisch, want om teksten te kunnen fabriceren is het programma gevoed met heel veel informatie. Helaas kan het niet goed wat de mens wel kan: selecteren op relevantie. Voor betrouwbare informatie moeten de gegenereerde teksten daarom altijd worden gecheckt door een mens.
AI programma’s als ChatGPT hebben een grote potentie voor automatisering van de nieuwsvoorziening. Want journalisten zijn duur en computerprogramma’s relatief goedkoop. Wat ligt er meer voor de hand dan het dure werk vervangen door redelijk betrouwbare AI-teksten? Zodat journalisten meer tijd krijgen om te doen waar zíj goed in zijn? Niet het moeizaam bij elkaar sprokkelen van achtergrondinformatie, maar echte verslaggeving.
Wat zijn de bronnen?
Maar je raadt het al: het is reeds voorgekomen dat computerteksten werden voorgesteld als ‘echte’ teksten. Waarbij menselijke controle werd uitgespaard. En bedenk: ChatGPT is zo goed gevoed met menselijke teksten dat wij niet aan de opbouw van de tekst kunnen zien of deze door een mens in geschreven, of door een programma gegenereerd. Al zal de door het programma gemaakte tekst vaak tamelijk algemeen zijn, waardoor deze door de mand kan vallen. ChatGPT is ook niet goed in het aangeven waar zijn wijsheid vandaan komt. Je moet er expliciet om vragen – en dan nog is het aan de lezer om te beoordelen of de geraadpleegde bronnen de meest relevante zijn.
Hoe verleidelijk het gebruik van dit nieuwe instrument misschien is, ChatGPT teksten zijn niet ‘waar’. Het instrument is niet gebouwd om te kloppen. Het genereert teksten. En het is daarin volledig afhankelijk van de teksten waarmee het is gevoed. Fouten in de input komen terug als fouten in de output. Het programma is heel goed in het voeren van een conversatie – maar de input is niet gecontroleerd op waarheid, en daardoor kan ook de output twijfelachtig zijn. Onnauwkeurigheden en onwaarheden komen vooral naar voren als lange teksten worden gevraagd van het programma – maar onze wereld is vooral geïnteresseerd in korte teksten.
Mogelijke ontwikkelingen
Toch kunnen wij mensen wel degelijk AI programma’s maken die gericht zijn op het genereren van feitelijk juiste teksten. Maar de wereld lijkt daar niet in geïnteresseerd. Programma’s als ChatGPT zijn in de eerste plaats taalprogramma’s. Ze produceren begrijpelijke teksten en zijn vooral met het oog daarop ontwikkeld. Misschien zouden betrouwbare AI-programma’s helemaal opnieuw moeten worden ontwikkeld.
De ontwikkelingen kunnen van hieruit een aantal kanten op gaan. Misschien worden de programma’s steeds beter en meer waarheidsgetrouw. Ze kunnen dan in de plaats komen van traditionele zoekmachines. Of ontwikkelaars verbeteren de schrijfkwaliteiten; dan kunnen zulke programma’s een bedreiging gaan vormen voor de journalistiek. Zullen we in de toekomst vooral teksten lezen geschreven door de robotredacteur, al dan niet gecontroleerd door de journalist? Of zal de journalistiek het dan toch winnen, omdat echte journalisten kunnen checken en dubbelchecken, verbanden leggen en ontdekkingen doen?
Regulering
Misschien vraagt deze situatie wel om een vorm van regulering. Verbieden gaat niet, want de technologie gaat zijn eigen weg. Maar regulering kan wel. Door eisen te stellen aan het proces (welke bronnen vormen de input) of aan de output (is het waar wat het programma ons vertelt). Maar de hele ontwikkeling staat nog in zijn kinderschoenen en de politiek heeft nog geen belangstelling getoond. Politici aller landen, verenigt u! Voordat AI-gegenereerde teksten weer als input gaan dienen voor nieuwe teksten; en waarheid en leugen onontwarbaar worden.
Interessant? Lees dan ook:
Biomedicijnen in opkomst
Chemie versus bacterie, # 54. Als chemie en biotech samen optrekken
De energietransitie is ook een digitale transitie