L'IA chinoise DeepSeek censure la minorité ouïghoure

David Bizet
08:3030/01/2025, jeudi
Yeni Şafak
Logo de la nouvelle intelligence artificielle chinoise DeepSeek.
Crédit Photo : DeepSeek /
Logo de la nouvelle intelligence artificielle chinoise DeepSeek.

La nouvelle intelligence artificielle DeepSeek, développée en Chine, opère une censure sur la situation de la minorité ouïghoure. Un phénomène qui soulève des interrogations sur la neutralité et l'objectivité des intelligences artificielles.

La question de la neutralité et de l'objectivité des intelligences artificielles (IA) est de plus en plus prégnante dans un monde où la technologie joue un rôle central dans nos vies quotidiennes.


L'un des cas les plus récents de cette problématique est celui de l'IA chinoise DeepSeek qui opère une censure systématique de la situation des Ouïghours, une minorité musulmane vivant dans la région autonome du Turkestan oriental, en Chine. Cette affaire soulève des questions cruciales sur les dérives potentielles de ces technologies, et sur la dépendance croissante des sociétés à leur égard.


Les Ouïghours, une minorité persécutée


Les Ouïghours, un groupe ethnique turcophone musulman, vivent principalement dans la région du Turkestan oriental (Xinjiang), dans l'ouest de la Chine. Depuis plusieurs décennies, cette population fait l'objet d'une répression systématique de la part du gouvernement chinois, qui a été accusé par plusieurs organisations internationales, telles qu'Amnesty International et Human Rights Watch, de mener une campagne de répression d'envergure.


Cette répression inclut des emprisonnements massifs dans des camps de rééducation, des sévices physiques et psychologiques, ainsi que des tentatives de destruction culturelle et religieuse.


La communauté internationale a largement critiqué ces agissements, qualifiés par certains de génocide culturel.


Ces atrocités sont cependant passées sous silence ou minimisées dans les médias contrôlés par Pékin, où la propagande joue un rôle majeur. C'est dans ce contexte que l'IA DeepSeek, développée par des entreprises technologiques chinoises, a été accusée de participer activement à cette censure.

En effet, cette IA semble systématiquement filtrer et bloquer les informations relatives à la situation des Ouïghours, afin de préserver l'image du gouvernement chinois et de dissimuler les violences infligées à cette minorité. Ainsi, les utilisateurs ont fait remarquer que lorsque l'IA est interrogée sur les Ouighours, elle s'autocensure.



DeepSeek: Outil de censure de Pékin ?


DeepSeek, comme d'autres outils technologiques développés en Chine, est alimentée par d'énormes bases de données et des algorithmes sophistiqués capables d'analyser, de filtrer et de manipuler l'information. Il y a plusieurs mois, c'est l'application TikTok qui avait été épinglée pour la censure du génocide culturel des Ouighours.


Ces IA sont capables de détecter des termes, images ou vidéos jugés sensibles par le Parti communiste chinois, et de les bloquer ou de les altérer avant qu'ils ne soient diffusés au public. La situation des Ouïghours en fait bien évidemment partie.


En réalité, l'IA chinoise ne se contente pas de censurer les contenus directement liés à cette minorité. Elle contribue également à façonner la perception mondiale en orientant les résultats de recherche et en évitant que des informations critiques soient facilement accessibles.

Cette pratique pose des questions fondamentales sur la nature même des IA et leur capacité à maintenir une forme de neutralité dans un environnement technologique global de plus en plus contrôlé.


La dépendance à l'IA, un danger pour la liberté d'information


Si DeepSeek représente un exemple flagrant de manipulation de l'information, il est loin d'être le seul. Il serait injuste de blâmer Pékin pour des pratiques dont l'Occident est coutumier. L'IA en général a le pouvoir de façonner la manière dont nous recevons et interprétons les nouvelles, les événements mondiaux et même les opinions.


En devenant de plus en plus dépendants de ces technologies, nous risquons de perdre notre capacité à discerner l'objectivité des faits, surtout lorsque ces IA sont influencées par des agendas politiques ou idéologiques.


Le danger réside dans la possibilité que ces intelligences artificielles deviennent des instruments de propagande, biaisés par les intérêts de leurs créateurs. En conséquence, cela soulève un défi majeur: comment garantir que les IA restent impartiales et transparentes ? Comment pouvons-nous nous assurer que les technologies qui prennent des décisions pour nous, ou filtrent ce que nous voyons et lisons, ne sont pas utilisées pour manipuler les masses ou dissimuler des vérités dérangeantes ?


A lire également:





#Intelligence artificielle
#DeepSeek
#censure
#minorité ouïghoure
#neutralité
#objectivité
#technologie
#dépendance
Commentaires

Bonjour, les commentaires que vous partagez sur notre site sont une ressource précieuse pour les autres utilisateurs. Veuillez respecter les autres utilisateurs et les différentes opinions. N'utilisez pas de langage grossier, offensant, humiliant ou discriminatoire.

Pas encore commenté

Soyez le premier à commenter

Cliquez ici pour recevoir les nouvelles les plus importantes de la journée par e-mail. Abonnez-vous ici.

En devenant membre, vous consentez à recevoir des communications électroniques de la part des sites d'Albayrak Media Group et acceptez les conditions d'utilisation et la politique de confidentialité.