Jeffrey Hinton, de ‘peetvader van kunstmatige intelligentie’, maakt zich zorgen. Dit is waarom

San Francisco (AP) – Jeffrey Hintoneen bekroonde computerwetenschapper die bekend staat als de ‘Godfather of Artificial Intelligence’, twijfelt ernstig over de vruchten van zijn inspanningen..

Hinton hielp bij het pionieren van de AI-technologieën die nodig zijn voor een nieuwe generatie zeer capabele chatbots zoals ChatGPT. Maar in recente interviews heeft hij gezegd dat hij onlangs een spraakmakende baan bij Google heeft opgezegd, specifiek om zijn zorgen te delen dat ongecontroleerde AI-ontwikkeling gevaarlijk zou kunnen zijn voor de mensheid.

“Ik veranderde plotseling van mening of deze dingen slimmer zullen zijn dan wij,” zei V Interview met MIT Technology Review. “Ik denk dat ze er nu heel dichtbij zijn en in de toekomst slimmer zullen zijn dan wij… Hoe overleven we dat?”

Hinton staat niet alleen in zijn zorgen. Kort nadat de door Microsoft gesteunde startup OpenAI in maart zijn nieuwste AI-paradigma genaamd GPT-4 uitbracht, ondertekenden meer dan 1.000 onderzoekers en technologen een brief waarin werd opgeroepen tot zes maanden stopzetting van de ontwikkeling van AI. Omdat, zeiden ze, ze “ernstige gevaren voor de samenleving en de mensheid” vormen.

Hier is een blik op Hinton’s grootste angsten over de toekomst van AI… en de mensheid.

Het draait allemaal om neurale netwerken

Onze menselijke hersenen kunnen calculus oplossen, auto’s besturen en karakters volgen in “cascades” dankzij hun oorspronkelijke talent voor het organiseren en opslaan van informatie en het afleiden van oplossingen voor netelige problemen. De ongeveer 86 miljard neuronen die in onze schedels zijn verpakt – en wat nog belangrijker is, de 100 biljoen verbindingen die deze neuronen onderling maken – maken dit mogelijk.

READ  iPhone 13 zou volledig knoploos kunnen zijn. Wat Apple in plaats daarvan zou kunnen doen

De technologie achter ChatGPT biedt daarentegen tussen de 500 miljard en 1 biljoen verbindingen, zei Hinton in het interview. Hoewel dit voor ons in het nadeel lijkt te zijn, merkt Hinton op dat GPT-4, het nieuwste AI-model van OpenAI, “honderden keren meer” weet dan enig mens. Misschien, zo suggereert hij, heeft het een “veel beter leeralgoritme” dan wij, waardoor het efficiënter is in cognitieve taken.

Kunstmatige intelligentie is misschien wel slimmer dan wij

Onderzoekers hebben al lang gemerkt dat kunstmatige neurale netwerken veel meer tijd nodig hebben om nieuwe kennis op te nemen en toe te passen dan mensen, omdat het trainen ervan enorme hoeveelheden energie en gegevens vereist. Dat is niet meer het geval, zegt Hinton, erop wijzend dat systemen zoals GPT-4 heel snel nieuwe dingen kunnen leren als onderzoekers eenmaal goed zijn opgeleid. Dit is vergelijkbaar met de manier waarop een getrainde professionele natuurkundige haar hersens veel sneller rond nieuwe experimentele resultaten kan wikkelen dan de gemiddelde bètastudent van de middelbare school.

Dit brengt Hinton tot de conclusie dat AI-systemen ons misschien wel eens voorbijstreven. Niet alleen kunnen AI-systemen dingen sneller leren, merkte hij op, ze kunnen ook vrijwel onmiddellijk kopieën van hun kennis met elkaar delen.

“Het is een heel andere vorm van intelligentie”, zei hij tegen de krant. “Een nieuwe en betere vorm van intelligentie.”

Oorlogen en geruchten van oorlogen

Wat kunnen AI-systemen slimmer dan mensen doen? Een zorgwekkende mogelijkheid is dat kwaadwillende individuen, groepen of natiestaten hen gewoon voor hun eigen doeleinden kunnen coöpteren. Hinton maakt zich vooral zorgen dat deze instrumenten kunnen worden getraind om verkiezingen te beïnvloeden en zelfs oorlogen te voeren.

READ  Geïnteresseerd in 60 fps op PS5?

Verkiezingsdesinformatie die via AI-chatbots wordt verspreid, kan bijvoorbeeld de toekomstige versie zijn van verkiezingsdesinformatie die via Facebook en andere socialemediaplatforms wordt verspreid.

En dit is misschien nog maar het begin. “Denk geen moment dat Poetin geen superintelligente robots zal bouwen om Oekraïners te doden”, zei Hinton in het artikel. “Hij zal niet aarzelen.”

gebrek aan oplossingen

Wat niet duidelijk is, is hoe iemand zou kunnen voorkomen dat een macht als Rusland AI-technologie gebruikt om zijn buren of zijn eigen burgers te controleren. Hinton suggereert dat een wereldwijde overeenkomst vergelijkbaar met het Verdrag inzake chemische wapens uit 1997 een goede eerste stap zou kunnen zijn in de richting van het vaststellen van internationale regels tegen bewapende AI.

Hoewel het ook vermeldenswaard is dat de deal met chemische wapens geen einde maakte aan wat onderzoekers waarschijnlijk vonden, waren Syrische aanvallen met chloor en het zenuwgas sarin tegen burgers in 2017 en 2018 tijdens de bloedige burgeroorlog in het land.

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *