La Chine utilise une technologie de reconnaissance des émotions pour arrêter les gens - 1 Scandal
Social & Finance

La Chine utilise une technologie de reconnaissance des émotions pour arrêter les gens


Le quotidien public chinois Global Times s’est vanté dans un article publié jeudi que les Chinois sont de plus en plus habitués à l’utilisation de la “technologie de reconnaissance des émotions”, une intelligence artificielle qui permet au gouvernement de suivre les sentiments humains, dans le cadre de la vie quotidienne.

Le Global Times a illustré l’utilité de cette technologie par un exemple dans lequel la police arrête les passagers d’une voiture après avoir utilisé l’intelligence artificielle pour découvrir de la drogue dans leur voiture. La “technologie de reconnaissance des émotions” indique aux policiers que les passagers sont plus nerveux que la moyenne des personnes présentes à un point de contrôle, ce qui leur sert d’excuse pour fouiller la voiture.

Le Parti communiste, notoirement répressif, appliquerait la “technologie de reconnaissance des émotions” dans “divers domaines, dont la santé, la lutte contre le terrorisme et la sécurité urbaine”, selon le Global Times.

Le développement de cette technologie pour criminaliser les sentiments fait suite à des développements de plus en plus alarmants dans l’application des lois chinoises, dont la révélation la plus récente est que le géant chinois de la technologie Huawei développe une technologie de reconnaissance faciale qui peut identifier l’ethnicité d’une personne, ce qui permet à la police chinoise de persécuter plus facilement les membres de la minorité ethnique ouïgoure.

De nombreux gouvernements dans le monde, y compris l’administration actuelle et passée des États-Unis, ont accusé la Chine d’avoir commis un génocide contre le peuple ouïghour.


Le Parti communiste a construit plus de 1 000 camps de concentration dans la région natale des Ouïghours, le Xinjiang, où les survivants disent avoir été endoctrinés de force, réduits en esclavage et soumis à des viols et à la torture.

Les rapports selon lesquels la Chine stérilise systématiquement les femmes ouïgoures contre leur volonté en vue d’éliminer le groupe ethnique sont particulièrement préoccupants, une pratique qui figure spécifiquement dans la définition du génocide.

Le Parti communiste affirme que les camps de concentration sont des “centres de formation professionnelle” pour les personnes sans éducation et que tous les témoins oculaires sont des menteurs et des acteurs rémunérés.

Le Global Times n’a pas mentionné spécifiquement l’utilisation de la “technologie de reconnaissance des émotions” dans le Xinjiang, mais il ne semble pas que l’expérimentation de ce moyen de communication soit très répandue en Chine sur les détenus des prisons. Au moins six prisons utilisent ouvertement cette technologie sur leurs détenus pour prédire lesquels sont les plus susceptibles d’être violents, a affirmé le journal.


Comme la Chine considère toute critique du Parti communiste comme un crime – souvent formellement identifié comme “subversion du pouvoir de l’Etat” ou “se quereller et provoquer des troubles” – beaucoup de ceux qui ont été testés sont probablement des prisonniers politiques.

Il est également illégal en Chine d’avoir des opinions religieuses en dehors de la réglementation de l’État, et seules cinq religions sont légales : Le taoïsme, le bouddhisme, l’islam, le catholicisme et le christianisme protestant.

“En Chine, la reconnaissance des émotions a contribué à l’évaluation des risques des prisonniers dans quelques prisons régionales”, a noté le Global Times, citant une expérimentation dans une prison de Guangzhou en 2019.

Cette technologie aide les agents pénitentiaires à évaluer si un prisonnier présente des risques potentiels, notamment d’éventuels problèmes mentaux et des tendances violentes ou suicidaires, et à estimer s’il est susceptible de répéter une infraction après sa libération”.

La propagande de l’État a cité le directeur du centre de Guangzhou qui a mené les expériences pour justifier son utilisation, qui a détaillé : “Après qu’un prisonnier ait regardé la caméra pendant trois à quatre secondes, ce système de reconnaissance peut connaître ses sept principaux indices physiologiques, y compris la température du corps, les mouvements des yeux et le rythme cardiaque, et les convertir en signes psychologiques indiquant si le prisonnier est calme, déprimé, en colère ou autre à ce moment-là”.


En dehors des prisons, le journal d’État a fait l’éloge de la “technologie de reconnaissance des émotions” pour son utilisation sur la route, où la police peut suivre les émotions de chaque conducteur et arrêter toute personne ayant des sentiments “anormaux”.

Cela, a-t-il affirmé, aiderait à prévenir les incidents de rage au volant ou d’autres comportements potentiellement criminels.

Le Global Times a cité des “experts” chinois qui ont affirmé que l’IA chinoise pouvait identifier les émotions d’une personne avec une précision allant jusqu’à 95 %.

“La reconnaissance des émotions est certainement la direction du développement technologique futur de l’humanité”, a déclaré un “expert en neuro-gestion” au journal.

La technologie peut fonctionner soit en surveillant le visage d’une personne pendant une période prolongée, soit en forçant les individus à porter des appareils qui suivent leur pression sanguine, leur température et d’autres facteurs.

Le Global Times a mentionné qu’en dehors de la Chine, le public peut exprimer des inquiétudes pour sa vie privée et sa sécurité dans le cas où leurs gouvernements mettraient en œuvre cette forme d’IA pour surveiller leurs émotions.

Le Times a affirmé que cette technologie est déjà utilisée dans plusieurs États, dont les États-Unis, et a insisté, en citant des experts approuvés par le gouvernement chinois, sur le fait qu’il ne s’agit “pas d’une technique maléfique de ‘lecture de l’esprit’”.

Selon le MIT Technology Review, la “technologie de reconnaissance des émotions” représentait déjà un marché de 20 milliards de dollars en 2019.

“La technologie est actuellement utilisée pour évaluer les candidats à un emploi et les personnes soupçonnées de crimes, et elle est testée pour d’autres applications, telles que les casques de Réalité Virtuelle pour déduire les états émotionnels des joueurs”, a observé le point de vente à l’époque, citant une étude menée par AI Now.

L’étude a averti que la technologie peut être particulièrement problématique lorsqu’elle est utilisée au-delà de la race et du sexe, car ses conclusions pourraient «amplifier» la discrimination.


Source: Breitbart, le 6 mars 2021 – Traduction par Aube Digitale


Que pensez-vous de cet article ? Partagez autant que possible. L'info doit circuler.

Veuillez aider à soutenir les médias alternatifs. Nous suivons la vérité, où qu'elle mène. Votre aide est importante... Merci




Sélection de livres

































1scandal.com © elishean/2009-2021