Royaume-Uni. Les choix de X en matière de conception et de politique ont créé un terreau fertile pour les discours incendiaires et racistes visant les musulmans et les migrants au lendemain de l'attaque de Southport

La plateforme de réseaux sociaux X, anciennement Twitter, a joué un rôle central dans la diffusion de fausses informations et de contenus préjudiciables ayant contribué aux violences racistes à l’encontre des communautés musulmanes et migrantes au Royaume-Uni, au lendemain de l’assassinat tragique de trois fillettes dans la ville de Southport, établit Amnistie internationale dans une note explicative publiée le 6 août 2025.
L’analyse technique du code open source de X (ou logiciel accessible au public) révèle que son système de recommandation (ou algorithmes de classement des contenus) qui alimente la page « Pour toi », privilégie systématiquement les contenus qui suscitent l'indignation, provoquent des réactions, des conversations et des échanges houleux, sans garanties suffisantes permettant de prévenir et d’atténuer les préjudices.
« Notre analyse montre que la conception des algorithmes et les choix de politique de X ont contribué à accroître les risques dans le contexte d'une vague de violences qui a déferlé contre les musulmans et les migrants dans plusieurs villes du Royaume-Uni l'an dernier et présente aujourd'hui encore un risque grave pour les droits humains », a déclaré Pat de Brún, responsable du programme d’Amnistie internationale consacré à l’obligation de rendre des comptes pour les géants technologiques.
Le 29 juillet 2024, trois fillettes – Alice Dasilva Aguiar, Bebe King et Elsie Dot Stancombe – ont été assassinées et 10 autres blessées par Axel Rudakubana, âgé de 17 ans. Quelques heures après l'attaque, des informations erronées et des mensonges concernant l'identité, la religion et le statut migratoire de ce jeune homme ont déferlé sur les plateformes de réseaux sociaux, et particulièrement sur X.
Amnistie internationale a analysé l'algorithme de recommandation open source de X et conclu que les choix de conception systémiques privilégient la participation controversée au détriment de la sécurité.
Le système de classement algorithmique de X, affiché dans son code source publié en mars 2023, révèle que les informations mensongères, quel que soit leur degré de nocivité, peuvent devenir prioritaires et apparaître plus rapidement dans les fils d'actualité que les informations vérifiées. Le modèle « heavy ranker » de X, le système d'apprentissage automatique qui décide quelles publications sont mises en avant, donne la priorité aux « conversations », indépendamment de la nature du contenu. Tant qu'une publication génère de l’engagement, il semble que l'algorithme n’ait pas de mécanisme permettant d'évaluer son potentiel préjudiciable, du moins jusqu’à ce qu'un nombre suffisant d'utilisateurs la signalent. Ces caractéristiques de conception ont fourni un terreau fertile à l’émergence de discours racistes et incendiaires sur X au lendemain de l'attaque de Southport.
Par ailleurs, une analyse plus poussée du système a révélé des biais intégrés d'amplification favorisant les abonné·e·s « Premium » (anciennement « Blue »), dont les publications sont automatiquement mises en avant par rapport à celles des utilisateurs ordinaires. Avant que les autorités ne partagent des informations officielles, de fausses déclarations et des discours islamophobes sur l'attaque ont commencé à circuler sur les réseaux sociaux. En outre, des hashtags tels que #Stabbing et #EnoughisEnough ont été créés pour diffuser de fausses allégations suggérant que l'agresseur était musulman et/ou demandeur d'asile.
Un compte X appelé Europe Invasion, connu pour publier des contenus islamophobes et hostiles aux immigrants, a posté peu après l'annonce de l'attaque que le suspect « serait un immigrant musulman ». Cette publication a été vue plus de quatre millions de fois. En moins de 24 heures, tous les messages publiés sur X spéculant que l'auteur était musulman, réfugié, étranger ou arrivé par bateau ont généré environ 27 millions de réactions.
La tragédie de Southport s'est produite dans un contexte de changements majeurs de politique et de personnel au sein de l’entreprise X. Depuis son rachat par Elon Musk fin 2022, X a licencié des effectifs chargés de la modération des contenus, réactivé des comptes précédemment supprimés, dissout le conseil consultatif « Confiance et sécurité » de Twitter, licencié des ingénieurs de ses équipes « Confiance et sécurité » et rétabli de nombreux comptes bannis pour propos haineux ou harcèlement, notamment celui de Stephen Yaxley-Lennon, un militant d'extrême-droite plus connu sous le nom de Tommy Robinson.
Des publications incendiaires
Tommy Robinson a déclaré à ses 840 000 abonné·e·s sur X qu'il y avait « de plus en plus d'éléments suggérant que l'islam est un problème de santé mentale plutôt qu'une religion de paix », attisant encore l'hostilité envers les musulmans.
Elon Musk, propriétaire de X – qui compte 140 millions d'abonné·e·s sur son compte personnel – a amplifié les fausses informations échangées concernant l'attaque de Southport. Le 5 août 2024, alors que les émeutes se propageaient, il a commenté une vidéo publiée par Ashley St Clair en ces termes : « La guerre civile est inévitable. »
Le Premier ministre britannique Keir Starmer est intervenu, appelant à protéger les musulmans face aux vagues d'attaques ciblées perpétrées par des foules contre des mosquées, des centres d'accueil de réfugiés et des communautés asiatiques, noires et musulmanes.
En réponse, Elon Musk a publiquement rétorqué : « Ne devriez-vous pas vous inquiéter des attaques contre *toutes* les communautés ? »
D’après l’analyse d’Amnistie internationale, au cours des deux semaines qui ont suivi l'attaque de Southport, les publications de Tommy Robinson sur X ont été vues plus de 580 millions de fois – une portée sans précédent pour cette personnalité bannie de la plupart des plateformes grand public pour violation des règles relatives aux discours de haine.
Amnistie internationale a adressé à X une lettre en date du 18 juillet 2025 afin de lui faire part de ses conclusions, tout en lui donnant la possibilité de répondre. Au moment de la publication de ce document, elle n’a pas reçu de réponse.
Il est temps de rendre des comptes
L’analyse d'Amnistie internationale sur les choix de X en matière de conception et de politique soulève de vives inquiétudes quant au fonctionnement du système de recommandation de la plateforme en situation de crise. La façon dont le système évalue, classe et favorise les contenus, en particulier ceux qui génèrent des réactions virulentes ou sont partagés ou créés par des comptes « Blue » ou « Premium », peut entraîner la propagation de contenus préjudiciables à un public plus large.
« Sans garanties effecives, la probabilité augmente que les messages incendiaires ou hostiles gagnent du terrain en période de tensions sociales accrues », a déclaré Pat de Brún.
Lorsque de tels contenus ciblent des groupes raciaux, religieux ou marginalisés, leurs membres peuvent être exposés à de graves risques en termes de droits humains. L'incapacité de X à prévenir ou dûment atténuer ces risques prévisibles constitue un manquement au respect des droits fondamentaux.
Si des cadres réglementaires tels que la Loi relative à la sécurité en ligne (OSA) du Royaume-Uni et le Règlement sur les services numériques (DSA) de l'UE imposent désormais aux plateformes l'obligation légale d'évaluer et d'atténuer certains risques systémiques, il faut une application très stricte pour obtenir un quelconque effet. Les choix de conception et les pratiques opaques de X présentent des risques pour les droits humains, qui exigent une plus grande responsabilisation, au-delà d’un simple contrôle.
Amnistie internationale demande une application réglementaire efficace et des mesures solides de responsabilisation afin de remédier aux préjudices systémiques causés par les choix de conception de X. Enfin, le gouvernement britannique doit combler les lacunes qui émaillent le régime actuel de sécurité en ligne afin que les plateformes comme X répondent des vastes préjudices causés par leurs algorithmes.
Complément d’information
Face aux émeutes racistes de Southport, les autorités britanniques ont réagi en procédant à une série d'arrestations, et en inculpant des utilisateurs d’X et d'autres plateformes d'incitation à la violence ou de diffusion de fausses informations malveillantes. Certains ont été condamnés à des peines de prison en raison de leurs publications sur les réseaux sociaux. En juillet 2025, un rapport parlementaire britannique a conclu que les modèles économiques des réseaux sociaux ont encouragé la diffusion de mésinformations après les assassinats de Southport.