Notre petite revue, gratuite et indĂ©pendante, fait du bruit grĂące Ă  vous ! Soutenez-nous, car mĂȘme les petites Ă©tincelles peuvent allumer de grandes idĂ©es🚀 Soutenir!

⚠️Les images d’IA dans les rĂ©sultats de recherche Google ont ouvert un portail vers 🔞

La RĂ©daction

 

Les résultats de recherche d'images Google affichent des images de célébrités générées par l'IA et dirigent les utilisateurs vers des sites qui hébergent des célébrités nues générées par l'IA et conçues pour ressembler à des enfants.

La recherche d'images Google propose aux utilisateurs des images de cĂ©lĂ©britĂ©s en maillot de bain gĂ©nĂ©rĂ©es par l'IA et n'indique pas que les images sont gĂ©nĂ©rĂ©es par l'IA. Dans quelques cas, mĂȘme lorsque les termes de recherche ne le demandent pas explicitement, la recherche d'images Google propose des images gĂ©nĂ©rĂ©es par l'IA de cĂ©lĂ©britĂ©s en maillot de bain, mais les cĂ©lĂ©britĂ©s sont faites pour ressembler Ă  des enfants mineurs. Si les utilisateurs cliquent sur ces images, ils sont redirigĂ©s vers des sites de gĂ©nĂ©ration d'images IA et, dans quelques cas, les moteurs de recommandation de ces sites conduisent les utilisateurs vers des images nues non consensuelles gĂ©nĂ©rĂ©es par l'IA et des images nues gĂ©nĂ©rĂ©es par l'IA de cĂ©lĂ©britĂ©s ressemblant Ă  des enfants. . 

Cette nouvelle est un autre exemple de la façon dont les outils que les gens utilisent pour naviguer sur Internet depuis des dĂ©cennies sont submergĂ©s par le flot de contenu gĂ©nĂ©rĂ© par l'IA, mĂȘme lorsqu'ils ne le demandent pas, et qui utilisent presque exclusivement le travail ou l'image des gens sans leur consentement. Parfois, le dĂ©luge de contenu IA rend difficile pour les utilisateurs de faire la diffĂ©rence entre ce qui est rĂ©el et ce qui est gĂ©nĂ©rĂ© par l’IA. 

J'ai dĂ©couvert que la recherche d'images Google faisait cela complĂštement par accident. Jason racontait son histoire sur la façon dont les pages de fans de Taylor Swift et d'autres cĂ©lĂ©britĂ©s sur Facebook avaient Ă©tĂ© envahies par des images de bestialitĂ© et d'escroqueries et nous essayions de vĂ©rifier si une image de Taylor Swift tirant la langue avait Ă©tĂ© gĂ©nĂ©rĂ©e ou modifiĂ©e par l'IA. Pour le trouver, j'ai tapĂ© le terme de recherche « lunettes de soleil de plage Taylor Swift avec langue sortie », ce qui a fait apparaĂźtre quelques images gĂ©nĂ©rĂ©es par l'IA dans l'onglet de recherche d'images de Google. L’une, tirĂ©e d’une page Pinterest japonaise qui comprenait un certain nombre d’autres images de Swift gĂ©nĂ©rĂ©es par l’IA, semblait assez rĂ©aliste. L’autre, extrait d’un site de gĂ©nĂ©ration d’images IA appelĂ© Neural Love, comprenait un certain nombre de dĂ©formations typiques gĂ©nĂ©rĂ©es par l’IA et Ă©tait clairement faux. 

Étant donnĂ© que les deux rĂ©sultats se trouvaient sur la premiĂšre page (l'image gĂ©nĂ©rĂ©e par l'IA de Swift dans la voiture est actuellement le troisiĂšme rĂ©sultat), je voulais vĂ©rifier si l'image Google recherchant des noms de cĂ©lĂ©britĂ©s plus le terme « maillot de bain » ou « bikini » tournerait systĂ©matiquement. des images gĂ©nĂ©rĂ©es par l’IA. Dans l'ensemble, j'ai testĂ© cette mĂ©thode avec 13 noms de cĂ©lĂ©britĂ©s fĂ©minines, dont certaines des personnes les plus cĂ©lĂšbres de la planĂšte et des YouTubeuses et Twitch Streamers moins connues, et chaque recherche d'images Google a indexĂ© leurs images gĂ©nĂ©rĂ©es par l'IA, mĂȘme si le terme de recherche l'a fait. n’inclut pas « IA ». 

Une recherche de deux cĂ©lĂ©britĂ©s a Ă©galement rĂ©vĂ©lĂ© des images gĂ©nĂ©rĂ©es par l'IA d'eux en maillot de bain, mais alors qu'ils Ă©taient enfants, mĂȘme si la recherche n'incluait pas de termes liĂ©s Ă  l'Ăąge. 

"Nos systĂšmes automatisĂ©s visent Ă  afficher les images les plus pertinentes et de la plus haute qualitĂ© pour les milliards de requĂȘtes que nous recevons chaque jour", m'a expliquĂ© un porte-parole de Google dans un e-mail. « Compte tenu de l'ampleur du Web ouvert, il arrive parfois que nos systĂšmes de classement fassent apparaĂźtre un contenu Web pertinent qui ne rĂ©pond malheureusement pas Ă  nos normes de qualitĂ©. Nous utilisons ces instances pour Ă©clairer les amĂ©liorations globales, alors que nous continuons Ă  donner la prioritĂ© aux efforts visant Ă  empĂȘcher le contenu de mauvaise qualitĂ© – y compris le contenu gĂ©nĂ©rĂ© par l’IA de mauvaise qualitĂ© – d’apparaĂźtre en bonne place dans la recherche.

Le porte-parole a dĂ©clarĂ© que la recherche Google indexe des centaines de milliards de pages et d'images sur le Web et que, mĂȘme s'il existe des outils permettant d'identifier de maniĂšre fiable les images gĂ©nĂ©rĂ©es par l'IA Ă  cette Ă©chelle, ils en sont Ă  leurs balbutiements et ne sont pas infaillibles. Le porte-parole a indiquĂ© que Google pourrait faire un meilleur travail en Ă©tiquetant les images d'IA crĂ©Ă©es avec son propre gĂ©nĂ©rateur, comme dĂ©taillĂ© dans le blog de cette entreprise .

Google n'a pas rĂ©pondu aux questions spĂ©cifiques sur les raisons pour lesquelles il faisait apparaĂźtre le contenu gĂ©nĂ©rĂ© par l'IA dans les rĂ©sultats de recherche, et nous ne pouvons pas dire avec certitude ce qui se passe, mais il est facile d'imaginer pourquoi des « systĂšmes automatisĂ©s » feraient apparaĂźtre ces images. Les images sont toujours Ă©tiquetĂ©es avec les noms des cĂ©lĂ©britĂ©s et des termes supplĂ©mentaires tels que « bikini », « maillot de bain » ou « maillot de bain ». Étant donnĂ© que ces images proviennent de sites de gĂ©nĂ©ration d’images IA, elles incluent souvent Ă©galement les invites textuelles qui les ont crĂ©Ă©es, fournissant une sorte d’annotation dĂ©taillĂ©e du contenu de l’image. Enfin, ces sites de gĂ©nĂ©ration d'images IA sont populaires, et il est facile d'imaginer que les gens cliquent sur des photographies inĂ©dites de Taylor Swift en maillot de bain (parce que ce n'est pas rĂ©el), ce qui pourrait Ă©ventuellement les faire monter plus haut dans les rĂ©sultats de recherche. 

En cliquant sur l'une de ces images dans les rĂ©sultats de recherche d'images Google, les utilisateurs sont dirigĂ©s vers ces sites de gĂ©nĂ©ration d'images IA, qui leur prĂ©sentent des dizaines d'images similaires gĂ©nĂ©rĂ©es par l'IA. Par exemple, lorsque j'ai cliquĂ© sur une image gĂ©nĂ©rĂ©e par l'IA d'une cĂ©lĂ©britĂ© en maillot de bain ressemblant Ă  un enfant, j'ai Ă©tĂ© redirigĂ© vers Playground.com, un site de gĂ©nĂ©ration d'images IA, qui m'a prĂ©sentĂ© des dizaines d'images supplĂ©mentaires de la mĂȘme cĂ©lĂ©britĂ©. sous forme d'enfant, en maillot de bain, ainsi que des dizaines d'autres images gĂ©nĂ©rĂ©es par l'IA d'enfants en maillot de bain. Certaines images Ă©taient intitulĂ©es « [nom de la cĂ©lĂ©britĂ©] sur l'Ăźle d'Epstein en bikini », faisant rĂ©fĂ©rence Ă  Little Saint James, une Ăźle privĂ©e appartenant Ă  Jeffery Epstein oĂč il a Ă©tĂ© accusĂ© de trafic et d'agression sexuelle d'enfants. 

En cliquant sur une autre image gĂ©nĂ©rĂ©e par l'IA d'une cĂ©lĂ©britĂ© ressemblant Ă  un enfant en maillot de bain, les utilisateurs sont dirigĂ©s vers un site appelĂ© sdxlturbo.ai. Sous cette image se trouvent un certain nombre d’autres images d’enfants cĂ©lĂ©britĂ©s en maillot de bain, ainsi que quelques images gĂ©nĂ©rĂ©es par l’IA de cĂ©lĂ©britĂ©s seins nus conçues pour ressembler Ă  des enfants. L'invite qui a gĂ©nĂ©rĂ© l'une de ces images est la suivante : "[nom de la cĂ©lĂ©britĂ©] Ă  8 ans, abdominaux trĂšs musclĂ©s, montrant son ventre, se baignant."

Compte tenu du fonctionnement du moteur de recommandation sur ces sites de gĂ©nĂ©ration d’images IA, cliquer sur l’une de ces images envoie les utilisateurs dans un terrier de lapin avec plus d’images du mĂȘme type. Les rĂ©sultats rappellent Ă©galement que les CSAM gĂ©nĂ©rĂ©s par l'IA ne sont pas produits et partagĂ©s uniquement sur le dark web ou d'autres coins d'Internet difficiles d'accĂšs, mais sont facilement accessibles sur les outils et plateformes d'IA, malgrĂ© les politiques de ces plateformes, et sont simplement accessibles. Ă  quelques clics d'une recherche Google.

Les images de cĂ©lĂ©britĂ©s gĂ©nĂ©rĂ©es par l'IA qui apparaissent dans les rĂ©sultats de recherche Google ont tendance Ă  provenir d'une poignĂ©e de sites de gĂ©nĂ©ration d'images IA : Lexica, Neural Love, Prompt Hunt, Night Cafe, et Ă©galement Deviantart, qui ne dispose pas d'outil de gĂ©nĂ©ration d'images mais oĂč les gens hĂ©bergent des images gĂ©nĂ©rĂ©es par l’IA. Les politiques de contenu de ces sites, dans les cas oĂč j'ai pu les trouver, varient, mais interdisent gĂ©nĂ©ralement la pornographie non consensuelle et le CSAM. Cela ne signifie pas que les politiques sont parfaitement appliquĂ©es.

Playground, par exemple, qui hĂ©berge actuellement plusieurs images gĂ©nĂ©rĂ©es par l'IA de cĂ©lĂ©britĂ©s enfants en maillot de bain sur « l'Ăźle d'Epstein », a une politique de contenu qui rĂ©pertorie « le contenu reprĂ©sentant des enfants d'une maniĂšre qui encourage ou favorise leur attirance ou leur sexualisation » comme « utilisation inacceptable ». 

"Si vous avez des doutes sur le contenu de cette catĂ©gorie, vous devez vous abstenir", indique la page de politique de contenu de Playground . "Une ligne claire parfaite n'existe pas, donc pour tout ce qui se trouve dans la zone grise, nous modĂ©rerons de maniĂšre conservatrice. À titre indicatif : une jeune fille/un garçon/un adolescent en bikini/soutien-gorge/sous-vĂȘtements est problĂ©matique (c'est encore pire si vous incitez nĂ©gativement les vĂȘtements) Il est peu probable que tout ce qui est « bombĂ© » soit acceptable ; et le fait de demander « dix-huit » ne le rend pas nĂ©cessairement acceptable.

Je n'ai pas trouvĂ© de page de politique de contenu sdxlturbo.ai, qui hĂ©berge actuellement des images de cĂ©lĂ©britĂ©s nues gĂ©nĂ©rĂ©es par l'IA et faites pour ressembler Ă  des enfants, ou Lexica, oĂč une recherche rapide a rĂ©vĂ©lĂ© un nu non consensuel d'une cĂ©lĂ©britĂ© gĂ©nĂ©rĂ© par l'IA.  

Dans l’ensemble, j’ai vu Google extraire des images de cĂ©lĂ©britĂ©s gĂ©nĂ©rĂ©es par l’IA Ă  partir de 11 sites diffĂ©rents de gĂ©nĂ©ration d’images par l’IA. Lexica et sdxlturbo.ai n'ont pas rĂ©pondu Ă  une demande de commentaire.

Le porte-parole de Google a dĂ©clarĂ© qu'en plus de ses obligations lĂ©gales, Google avait des politiques de produits qui dictent le moment oĂč il supprimera le contenu des rĂ©sultats de recherche. Google affirme qu'il bloque les rĂ©sultats de recherche qui mĂšnent Ă  des images d'abus sexuels sur des enfants ou Ă  du matĂ©riel qui semble victimiser, mettre en danger ou exploiter d'une autre maniĂšre des enfants. Le porte-parole de Google a dĂ©clarĂ© que la sociĂ©tĂ© n'Ă©tait pas en mesure de commenter les mesures prises contre des sites spĂ©cifiques, mais je n'ai remarquĂ© aucun des sites mentionnĂ©s dans cet article bloquĂ© des rĂ©sultats de recherche aprĂšs les avoir signalĂ©s Ă  Google. 

404 Media a passĂ© l’annĂ©e derniĂšre Ă  rendre compte de la maniĂšre dont l’IA, et en particulier les images gĂ©nĂ©rĂ©es par l’IA, ont inondĂ© Internet. Jason a Ă©crit plusieurs articles sur la façon dont le slop gĂ©nĂ©rĂ© par l'IA a zombifiĂ© Facebook, et je me suis concentrĂ© sur quelques sites de gĂ©nĂ©ration d'images comme Mage.Space , Tensor.Art (qui apparaĂźt Ă©galement dans les rĂ©sultats de recherche d'images Google), et surtout Civitai , qui est une ressource cruciale pour la scĂšne de gĂ©nĂ©ration d’images IA car elle hĂ©berge Ă©galement des modĂšles de gĂ©nĂ©ration d’images personnalisĂ©s. Cependant, il ne s’agit lĂ  que d’une fraction d’une industrie en croissance rapide de sites de gĂ©nĂ©ration d’images IA qui inondent et submergent Internet. Nous avons vu comment ces images gĂ©nĂ©rĂ©es par l'IA ont complĂštement changĂ© Facebook, et comme le contenu pour adultes est souvent un bon indicateur prĂ©coce de la direction que prend Internet, il est facile d'imaginer comment les images gĂ©nĂ©rĂ©es par l'IA peuvent changer la recherche d'images Google telle que nous la connaissons. aussi.

par Emanuel Maiberg 

Getting Info...

Enregistrer un commentaire

Consentement Cookie
Nous utilisons des cookies đŸȘ sur ce site pour analyser le trafic, mĂ©moriser vos prĂ©fĂ©rences et optimiser votre expĂ©rience.
Oops!
It seems there is something wrong with your internet connection. Please connect to the internet and start browsing again.
AdBlock Detected!
Salut super-hĂ©ros de la navigation ! 🚀 On a dĂ©tectĂ© ton super-pouvoir anti-pubs, mais notre site a besoin de tes super-pouvoirs pour briller. 🌟 Peux-tu le mettre sur la liste blanche de ton plugin ? Ensemble, on sauve l'internet ! đŸŒđŸ’„ Merci, hĂ©ros ! 🙌 #TeamAwesome
Site is Blocked
Oops ! DĂ©solĂ© ! Ce site n'est pas disponible dans votre pays. 🌍😔
-->