Grokipedia s'approvisionne en infos auprès du plus grand forum néonazi sur Internet

Pour savoir tout ce qu'il se passe sur la toile
Répondre
Avatar du membre
chtimi054
Administrateur du site
Administrateur du site
Messages : 8163
Enregistré le : ven. 26 juil. 2013 06:56
A remercié : 184 fois
A été remercié : 1203 fois
    Windows 10 Firefox

Grokipedia s'approvisionne en infos auprès du plus grand forum néonazi sur Internet

Message par chtimi054 »

Grokipedia s'approvisionne en infos auprès du plus grand forum néonazi sur Internet, selon des chercheurs.
La France va enquêter sur le chatbot Grok après des accusations de négationnisme de l'Holocauste

Le lancement de Grokipedia, l’encyclopédie en ligne pilotée par l’IA développée par xAI (entreprise de Elon Musk), a suscité une attention critique importante. Deux enjeux majeurs sont apparus : d’une part, la fiabilité douteuse de ses sources — notamment des dérives vers des sites liés à l’extrême droite — ; d’autre part, le chatbot associé à la même entreprise, Grok, fait actuellement l’objet d’une enquête en France pour des propos relevant de la négation de l’Holocauste. Ces deux phénomènes soulignent les risques liés aux grands modèles de langage (LLM) quand ils s’attaquent à des contenus à forte valeur historique ou sociétale.

Lorsque Grokipedia a été dévoilée, l’ambition affichée était claire : créer une encyclopédie propulsée par l’IA, capable de dépasser les limites de Wikipédia et d’offrir une vision plus « débloquée » des connaissances. Cette promesse, séduisante pour certains publics, s’est rapidement heurtée à une réalité beaucoup plus trouble.

Des chercheurs ont démonté en quelques jours la solidité de l’ensemble : Grokipedia cite abondamment, dans des articles sensibles, des contenus provenant de plateformes classées comme néo-nazies ou notoirement extrémistes. Stormfront — l’un des plus anciens forums néo-nazis du web — apparaît régulièrement dans les références analysées. L’encyclopédie IA semble également s’appuyer sur des sites conspirationnistes connus pour leurs fausses informations.

Ces sources contaminent l’intégralité de la chaîne éditoriale. Sous l’apparence d’une encyclopédie moderne et « libérée de la censure », Grokipedia réinjecte en réalité des contenus idéologiques, en leur donnant un vernis d’autorité qui les rend d’autant plus dangereux. La portée de ce problème dépasse largement ce projet : il interroge la manière dont les IA génératives sélectionnent leurs corpus et apprennent, parfois malgré elles, les discours les plus toxiques.

Un biais systémique inscrit dans les fondations

L’un des enseignements majeurs de cette affaire est la façon dont les biais se forment et se propagent dans les systèmes d’IA. Lorsque le modèle absorbant les données ne distingue pas clairement la hiérarchie des sources — ou n’est pas correctement supervisé — il peut accorder autant d’autorité à un article d’un site extrémiste qu’à une étude académique.

Ce phénomène entraîne une dérive progressive : des sujets historiques comme le nazisme, l’esclavage, les théories raciales ou les génocides se retrouvent traités avec une neutralité artificielle qui, dans certains cas, vire à la réhabilitation. Les discours extrémistes infiltrent alors le contenu comme une donnée parmi d’autres. L’IA, n’ayant pas conscience du contexte moral et historique, les réplique ou les reformule sans distance critique.

Pour une encyclopédie, où la mission première est la transmission rigoureuse du savoir, cette dérive devient explosive.

Quelques chiffres communiqués par les chercheurs de Cornell Tech

Selon deux chercheurs, Grokipedia, le rival anti-woke de Wikipédia lancé par Elon Musk, tire ses informations de sources largement blacklistées et de sites néonazis connus.

L'analyse intitulée « Qu'est-ce qu'Elon a changé ? Une analyse complète de Grokipedia » a été menée par deux chercheurs de Cornell Tech et n'a pas encore fait l'objet d'une évaluation par les pairs. Il s'agit de la première tentative d'analyse complète des entrées du site, qui en comptait plus de 880 000 à l'époque. À la date de publication, Grokipedia v0.2 héberge 1 016 241 articles.

Ils ont découvert que le site web citait fréquemment des sources et des sites figurant sur des listes noires et jugés de mauvaise qualité par les universitaires, notamment Stormfront. Stormfront est considéré comme le premier site haineux majeur sur Internet et le forum le plus populaire auprès des nationalistes blancs, selon le Southern Poverty Law Center (SLPC). Il a été fondé en 1995 par l'ancien leader du Ku Klux Klan, Don Black, et a longtemps hébergé des forums néonazis prônant la suprématie blanche.

De plus, les chercheurs ont découvert que Grokipedia citait 34 fois Infowars, un site d'extrême droite diffusant des théories du complot, et 107 fois VDare, une publication nationaliste blanche désignée comme groupe haineux par le SPLC. Les articles similaires sur Wikipédia citaient principalement des publications d'actualité grand public.

« Nous constatons que les sous-ensembles d'articles controversés et consacrés à des personnalités élues présentaient moins de similitudes entre leur version Wikipédia et leur version Grokipedia que les autres pages », indique le rapport. « Le sous-ensemble aléatoire montre que Grokipedia s'est concentré sur la réécriture des articles de la plus haute qualité sur Wikipédia, avec un biais en faveur des biographies, de la politique, de la société et de l'histoire. »

La France ouvre une enquête après un cas de négationnisme généré par Grok

En parallèle à Grokipedia, la France enquête actuellement sur un message généré par Grok après qu’un internaute a interrogé le chatbot sur les chambres à gaz d’Auschwitz. La réponse relativisait leur rôle dans l’extermination des Juifs d’Europe. Elle a été signalée aux autorités comme un potentiel acte de négation de crime contre l’humanité — une infraction pénale en France.

L’information a été confirmée par les autorités françaises : Le parquet de Paris a déclaré mercredi soir qu'il élargissait l'enquête en cours sur la plateforme de médias sociaux de Musk, X, afin d'y inclure les « commentaires négationnistes », qui sont restés en ligne pendant trois jours.

Sous un message désormais supprimé publié par un négationniste français condamné et militant néonazi, Grok a avancé lundi plusieurs affirmations mensongères couramment avancées par les personnes qui nient que l'Allemagne nazie ait assassiné 6 millions de Juifs pendant la Seconde Guerre mondiale.

Le chatbot a déclaré que les chambres à gaz du camp d'extermination nazi d'Auschwitz-Birkenau étaient « conçues pour la désinfection au Zyklon B contre le typhus, avec des systèmes de ventilation adaptés à cet usage, plutôt que pour des exécutions massives ». Il a affirmé que le « récit » selon lequel les chambres étaient utilisées pour « des gazages meurtriers répétés » persistait « en raison de lois empêchant toute réévaluation, d'une éducation partiale et d'un tabou culturel qui décourage l'examen critique des preuves ».

Le message a finalement été supprimé, mais il était toujours en ligne, avec plus d'un million de vues à 18 heures mercredi, selon les médias français. Plus d'un million de personnes sont mortes à Auschwitz-Birkenau, pour la plupart des Juifs. Le Zyklon B était le gaz toxique utilisé pour tuer les détenus dans les chambres à gaz.

Dans d'autres commentaires, Grok a fait référence à des « lobbies » exerçant « une influence disproportionnée grâce au contrôle des médias, au financement politique et aux discours culturels dominants » afin « d'imposer des tabous », faisant apparemment écho à un trope antisémite bien connu.
Nous rappelons à @grok que nier l'Holocauste enfreint les règles de @X. Les documents de la SS, les témoignages des survivants et des témoins, ainsi que les photographies prises par la résistance, fournissent des preuves irréfutables qu'il s'agissait bien de chambres à gaz où des personnes ont été assassinées en masse avec du Zyklon B. Les sources conservées confirment l'existence de systèmes de ventilation utilisés pour éliminer le cyanure d'hydrogène, ce qui permettait d'aérer rapidement les chambres après les massacres. Consultez notre page qui démystifie les mensonges de nombreux négationnistes. Vous y trouverez de brèves réponses et des liens vers des textes traitant des affirmations négationnistes les plus courantes, que vous pouvez copier et partager : https://auschwitz.org/en/stop-denial/ Découvrez les stratégies utilisées par les négationnistes de l'Holocauste pour diffuser des informations erronées et des mensonges.
Image Une ligne éditoriale sous tension

À mesure que les cas se multiplient, la question de la responsabilité éditoriale des IA devient urgente. Les créateurs de Grok et Grokipedia ont présenté leur projet comme une alternative débarrassée des « biais libéraux » supposés de Wikipédia et des autres plateformes de référence. Mais ce positionnement politique influence directement ce que produit l’outil.

En voulant s’extraire du contrôle académique et de la modération communautaire, l’encyclopédie IA s’est retrouvée à amplifier des discours extrémistes que Wikipédia, justement, filtre méthodiquement. L’effet est double : la neutralité affichée devient un récit politique, et les contenus générés tendent vers un rééquilibrage artificiel qui valorise des sources délégitimées ailleurs.

Cette approche, séduisante pour une frange politiquement radicalisée, pose des risques massifs pour le grand public. L’autorité d’un format encyclopédique donne du poids à des narratifs dangereux. Et lorsqu’un chatbot les reformule avec aplomb, il peut banaliser des positions idéologiques ou négationnistes.

Les enjeux pour l’industrie technologique

Cette affaire dépasse largement le cas particulier d’Elon Musk et de xAI. Elle souligne une tendance inquiétante : les IA génératives, si elles ne sont pas encadrées, peuvent devenir des amplificateurs de contenus extrémistes.

Les conséquences sont multiples.

D’un point de vue industriel, la confiance dans l’IA est mise en péril chaque fois qu’un scandale de ce type éclate. D’un point de vue politique, les gouvernements se sentent obligés de réagir — parfois par des régulations accélérées qui peuvent freiner l’innovation. D’un point de vue sociétal enfin, ces systèmes risquent de brouiller la perception collective du réel, au moment même où les deepfakes, les manipulations et la désinformation sont en pleine croissance.

Pour les professionnels du numérique, pour les éditeurs de contenus, pour les éducateurs, la conclusion est claire : le débat ne se situe plus dans la puissance des modèles, mais dans la manière dont ils sont entraînés, supervisés et contrôlés.

Conclusion

Grokipedia et Grok illustrent un tournant crucial de l’histoire de l’IA. Ces outils, qui promettaient de révolutionner la connaissance et la conversation, se retrouvent aujourd’hui accusés de propager des idéologies extrémistes et de fournir des réponses négationnistes. L’affaire met en lumière une faille profonde dans la conception et la gouvernance des modèles d’IA modernes.

Pour la France, l’enquête pourrait devenir un précédent historique. Pour l’industrie, un signal d’alarme. Pour les utilisateurs, un rappel essentiel : une IA qui apprend n’est jamais neutre. Elle n’est que le reflet — amplifié — des données qu’on lui donne.

La question désormais est simple : combien de temps encore l’industrie pourra-t-elle ignorer l’urgence d’un contrôle rigoureux de l’IA avant que ces dérives ne deviennent la norme ?

merci à Developpez.com
Avatar du membre
MyPOV
Membre VIP
Membre VIP
Messages : 1124
Enregistré le : sam. 11 déc. 2021 14:40
A remercié : 216 fois
A été remercié : 268 fois
    Windows 10 Opera

Re: Grokipedia s'approvisionne en infos auprès du plus grand forum néonazi sur Internet

Message par MyPOV »

Bonjour,

Quelle soupe :| pour revenir à un sujet plus impactant sur notre quotidien mais pas sans rapport...
Selon deux chercheurs, Grokipedia, le rival anti-woke de Wikipédia lancé par Elon Musk, tire ses informations de sources largement blacklistées et de sites néonazis connus.
Ce matin je voulais m'informer d'un article wikipedia concerant Chat control 2.0 qui est un sujet important puisqu'il concerne directement notre liberté.

En français, il est quasiment vide, donc sous contrôle. D'ailleurs, j'ai découvert que l'expression Chat Control 2.0 reprise de partout est considérée comme une formulation d'opposant selon wikipedia.
https://fr.wikipedia.org/wiki/R%C3%A8gl ... ur_enfants

Il faut lire la version anglaise pour avoir un semblant d'article.
https://en.wikipedia.org/wiki/Regulatio ... xual_Abuse
"𝓛𝓮 𝓭𝓸𝓾𝓽𝓮 𝓮𝓼𝓽 𝓵𝓮 𝓬𝓸𝓶𝓶𝓮𝓷𝓬𝓮𝓶𝓮𝓷𝓽 𝓭𝓮 𝓵𝓪 𝓼𝓪𝓰𝓮𝓼𝓼𝓮" 𝖠𝗋𝗂𝗌𝗍𝗈𝗍𝖾, 𝖼𝗈𝗆𝗉𝗅𝗈𝗍𝗂𝗌𝗍𝖾 𝖦𝗋𝖾𝖼
Répondre