Google heeft zijn zoekmachine bijgewerkt met kunstmatige intelligentie (AI) -tool – maar de nieuwe functie vroeg gebruikers naar verluidt stenen te eten, lijm aan pizza toe te voegen en hun wasmachines schoon te maken met … Chloor gasDat blijkt uit wat er op sociale media en diverse nieuwsberichten circuleerde.
In een bijzonder flagrant voorbeeld leek de gepresenteerde AI hetzelfde te suggereren Springen van de Golden Gate Bridge Wanneer een gebruiker zocht naar ‘Ik voel me depressief’.
De experimentele tool AI Overviews scant het web om zoekresultaten samen te vatten met behulp van de tool AI Overviews. tweeling Model voor kunstmatige intelligentie. De functie is uitgerold naar een aantal gebruikers in de VS, voorafgaand aan een geplande wereldwijde release later dit jaar, maakte Google op 14 mei bekend tijdens zijn eigen conferentie. I/O-ontwikkelaarsconferentie.
Maar de tool heeft al voor wijdverspreide paniek gezorgd op sociale media, waarbij gebruikers beweerden dat AI Overviews bij sommige gelegenheden samenvattingen produceerde met artikelen van de satirische website The Onion en Reddit-komedieposts als bronnen.
“Je kunt ook ongeveer ⅛ kopje niet-giftige lijm aan de saus toevoegen om hem plakkeriger te maken”, zei AI Overviews in antwoord op een vraag over de pizza, volgens een screenshot. Gepubliceerd op X. Als we het antwoord opsporen, lijkt het gebaseerd te zijn op een tien jaar oude grapcommentaar op Reddit.
Verwant: Wetenschappers creëren ‘giftige kunstmatige intelligentie’ die wordt beloond voor het nadenken over de ergste vragen die we ons kunnen voorstellen
Een andere valse bewering is dat Barack Obama hij is een moslimOprichter John Adams studeerde af aan de Universiteit van Wisconsin 21 keerwaar een hond in speelde NBA, NHL en NFL Gebruikers zouden dat moeten doen Eet een steen per dag Om ze te helpen verteren.
WordsSideKick.com kon de berichten niet onafhankelijk verifiëren. In antwoord op vragen over de prevalentie van valse resultaten zeiden Google-vertegenwoordigers in een verklaring dat de geziene voorbeelden “over het algemeen ongebruikelijke zoekopdrachten waren en niet de ervaringen van de meeste mensen vertegenwoordigen.”
“De overgrote meerderheid van het AI-aanbod biedt informatie van hoge kwaliteit, met links om dieper op internet te duiken”, aldus de verklaring. “We hebben uitgebreide tests uitgevoerd voordat we deze nieuwe ervaring lanceerden om ervoor te zorgen dat onze AI-overzichten voldeden aan onze hoge kwaliteitsnormen. Waar schendingen van ons beleid plaatsvonden, hebben we actie ondernomen – en we gebruiken deze geïsoleerde voorbeelden ook terwijl we onze systemen in het algemeen blijven verbeteren. ”
Dit is niet de eerste keer dat generatieve AI-modellen worden opgemerkt die dingen verzinnen, een fenomeen dat bekend staat als ‘hallucinatie’. In een opmerkelijk voorbeeld is ChatGPT Verzonnen schandaal over seksuele intimidatie Ze beschreef de echte hoogleraar rechten als de dader en noemde valse krantenberichten als bewijs.
“Subtly charming TV maven. Unapologetic communicator. Troublemaker. Travel scientist. Wannabe thinker. Music fanatic. Amateur explorer.”