Google’s anti-deepfake Search tools worden steeds bedrevener in het verbergen van resultaten en het verwijderen van afbeeldingen.
Google heeft de impact van het verwijderen van deepfake porno op verzoek van de personen die erin voorkomen vergroot en de kern van de zoekfunctie veranderd om het moeilijker te maken om niet-consensuele inhoud te vinden.
Recente vooruitgang in generatieve AI heeft geleid tot een snelle toename van realistische deepfake pornografische films en foto’s die online zijn verschenen zonder medeweten van de betrokkenen. Niet alleen kan deepfake content erg ongemakkelijk zijn voor betrokkenen maar het kan ook illegaal worden gebruikt voor zaken als financiële afpersing
Google’s nieuwste offensief is gericht op het verwijderen van afbeeldingen, naast het verspreiden van informatie over de schade die wordt veroorzaakt door deepfake porno. Gebruikers kunnen Google al vragen om een vermeende deepfake afbeelding van zichzelf uit de zoekresultaten te verwijderen; als de verwijdering wordt geaccepteerd, zal de zoekmachine nu proberen om alle expliciete resultaten uit te sluiten van zoekopdrachten die betrekking hebben op de gebruiker.
Bovendien, als een vermeende deepfake afbeelding succesvol is verwijderd, zullen de systemen van Google nu zoeken naar duplicaten van die afbeelding en alle gevonden duplicaten verwijderen.
Theoretisch zal dit leiden tot een veel krachtiger deepfake verwijderingssysteem dat het verwijderingsnetwerk van Google uitbreidt. Google verklaarde: “Deze initiatieven zijn bedoeld om mensen extra gemoedsrust te geven, vooral als ze zich zorgen maken dat er in de toekomst soortgelijke inhoud over hen verschijnt.”
Daarnaast heeft Google aanpassingen gedaan die het over het algemeen moeilijker moeten maken om toegang te krijgen tot niet-consensuele deepfake porno via de zoekfunctie. Google geeft niet langer deepfake pornoresultaten als je zoekt naar iemands naam in combinatie met deepfake porno; in plaats daarvan toont het wat het noemt “niet-expliciete inhoud van hoge kwaliteit”.
Het concept is dat nieuwsartikelen over hoe een bepaalde beroemdheid is beïnvloed door of verbonden is met deepfake porno kunnen verschijnen als je zoekt naar deepfake porno waarin die beroemdheid voorkomt. Een soort “morele controle” van betrouwbare nieuwsbronnen.
Google nam eerder in 2024 actie om de zichtbaarheid van deepfake porno in zoekopdrachten te verminderen en verbood Google Ads om het te promoten. Het bedrijf beweerde dat overlevenden van slachtoffers en deepfake-experts input hebben geleverd die het heeft gebruikt om de nieuwste Search-upgrades te informeren.
“Dit zijn belangrijke updates voor onze beveiligingen op Search, maar er is meer werk te doen om dit probleem aan te pakken en we zullen nieuwe manieren blijven bedenken om mensen te helpen die door deze inhoud worden getroffen,” vervolgde Google.