Neem contact op

Kunstmatige intelligentie

13 juli 2023

'Godfather van kunstmatige intelligentie' wijst op de gevaren van (te) snelle ontwikkeling kunstmatige intelligentie

Bekroonde computerwetenschapper Jeffrey Hinton, een pionier op het gebied van kunstmatige intelligentie, was tot voor kort werkzaam als ontwikkelaar en onderzoeker van Artificial Intelligence (AI) voor Google. Een van de redenen voor zijn ontslag, is de mogelijkheid om zich nu openlijk kritisch te uiten over de risico’s die geavanceerde kunstmatige intelligentie met zich meebrengt.

Ontwikkeling software basis ChatGPT

Ruim tien jaar geleden ontwikkelde Hinton samen met twee van zijn afgestudeerde studenten de software die de basis vormt voor de populaire ChatGPT. De veelbesproken chatbot ChatGPT van OpenAI heeft in de eerste vier maanden in Nederland bijna anderhalf miljoen mensen bereikt. Geïnspireerd door het menselijke brein, begon Hinton een halve eeuw geleden aan de ontwikkeling van computersystemen die grote hoeveelheden gegevens kunnen verwerken en daarin patronen kunnen herkennen, beter bekend als deep learning. Ondanks zijn cruciale rol in de totstandkoming van AI-systemen met complexe neurale netwerken, spreekt hij zich nu openlijk uit over de gevaren van de (te) snelle ontwikkeling van kunstmatige intelligentie. Hij wijst onder andere op: de grote hoeveelheden fake nieuws die AI kan genereren, verminderde controle op intelligente systemen, en de potentie van inzet van krachtige AI voor schadelijke doeleinden. In verschillende interviews deelt Hinton zijn vermoeden dat het niet lang meer duurt voordat de digitale intelligentie van complexe neurale computersystemen het kunnen van onze menselijke intelligentie zal overstijgen, een constatering die hij eerder verre toekomstmuziek achtte. Betekent dit dat het gebruik van AI voor jouw organisatie altijd grote risico’s met zich mee zal brengen? Nee, daar komen we zo op.

Hinton’s zorgen worden breed gedeeld

Eind maart 2023, werd een open brief gepubliceerd die oproept tot een tijdelijke halt van de ontwikkeling van kunstmatige intelligentie die krachtiger is dan GPT-4, de software die de basis vormt voor ChatGPT. Deze unieke oproep van experts die zelf actief mee hebben gewerkt aan de ontwikkeling van deze technologieën, komt voort uit zorgen over wat deze systemen kunnen bewerkstelligen zonder de benodigde infrastructuur van transparantie en controle. AI-systemen die kunnen concurreren met de intelligentie van het menselijke brein kunnen grote onvoorziene risico’s vormen voor de maatschappij en behoeven volgens de open brief dus regulatie. Toonaangevende AI-labs proberen elkaar te overtroeven in een race naar de top door steeds krachtigere kunstmatige intelligentie te ontwikkelen. Dit wordt problematisch wanneer de ontwikkelaars zelf geen sluitend beeld meer hebben bij de mogelijkheden van de technologie die zij ontwikkelen en de impact die deze technologie zal hebben op de maatschappij. In hoeverre kan men controle uitoefenen op een ongereguleerd systeem dat steeds slimmer wordt? In de open brief die oproept tot een tijdelijk halt, stellen experts de volgende vragen: “Should we let machines flood our information channels with propaganda and untruth? Should we automate away all the jobs, including the fulfilling ones? Should we develop nonhuman minds that might eventually outnumber, outsmart, obsolete and replace us? Should we risk loss of control of our civilization?

Moeten we dan wegblijven van AI?

De meeste lezers zullen de bovenstaande vragen zonder twijfel negatief beantwoorden. Betekent dit dat we als individu en/of organisatie zo ver mogelijk weg moeten blijven van nieuwe AI-oplossingen? Het antwoord hierop is volgens de schrijvers van de brief, maar ook volgens ons/Cuccibu: nee. Wat echter wel noodzakelijk is bij de ontwikkeling en inzet van nieuwe technologieën is regulatie en risicoborging.

De schrijvers van de open brief doen een beroep op beleidsmakers om een governance in te richten die in ieder geval voorziet in:

  • Een regulerende autoriteit op het gebied van AI.
  • Verplichte monitoring van krachtige en complexe AI-systemen.
  • Voldoende middelen om echte en neppe informatie van elkaar te onderscheiden, door bijvoorbeeld een (onzichtbaar) digitaal watermerk.
  • Infrastructuur voor audits en certificatie, zodat bedrijven aantoonbaar verantwoord AI kunnen ontwikkelen en inzetten.
  • De mogelijkheid tot aansprakelijkheid voor schade die is veroorzaakt door AI.
  • Voldoende publieke financiering voor onderzoek naar technische verantwoorde AI.
  • Oprichting en instandhouding van instituties met voldoende middelen om in te spelen op de vergaande economische en politieke ontwikkelingen die complexe AI met zich meebrengt. Denk hierbij aan het beïnvloeden van een politieke verkiezing door burgers gericht te overladen met nepnieuws.

Risico’s minimaliseren

Hoewel er de afgelopen jaren steeds meer aandacht is voor de regulatie van AI, denk bijvoorbeeld aan de AI Act van de Europese Commissie, zal het een uitdaging blijven om de onderliggende technologie bij te houden. Of een collectieve halt op de ontwikkeling van krachtige AI-oplossingen met zelflerend vermogen daadwerkelijk zal gebeuren is ook nog maar de vraag, maar dat betekent niet dat je als organisatie geen invloed hebt op de risico’s die dit soort technologieën met zich meebrengen. Door nieuwe technologieën bewust in te zetten en kaders te hanteren voor verantwoord gebruik, kunnen risico’s worden geminimaliseerd. Cuccibu kan jouw organisatie hier uiteraard bij helpen. Heb jij hulp nodig bij het inzichtelijk maken van de risico’s van nieuwe technologieën en het inrichten van de juiste technische en organisatorische waarborgen, neem dan contact op met sales@cuccibu.nl.

Bronnen: rtl nieuws, The New York Times, future of life institute (open letter) en european approach artificial intelligence.

Deel deze pagina! Kies je platform