Innovation et régime autoritaire font parfois bon ménage et finissent par s’alimenter l’un et l’autre. C’est ce que montre une étude du MIT sur le développement des technologies de vidéo surveillance par reconnaissance faciale reposant sur les IA en Chine. Explications.
Historiquement, face à l’innovation technologique, les régimes autoritaires font souvent de la résistance. Dans pratiquement tous les cas, les révolutions technologiques sont perçues comme des éléments de déstabilisation venant affaiblir le pouvoir. Au bout du compte, en ne s’engageant pas dans l’innovation, ces pays finissent tôt ou tard par décliner, du moins économiquement dans un premier temps. C’est une généralité mais, en étudiant le cas particulier de la Chine, des chercheurs du Massachusetts Institute of Technology (MIT), de la National Science Foundation, de l’Université d’Harvard et d’autres institutions britanniques, ont pu constater que le pays tire partie de l’innovation pour mieux contrôler les populations dissidentes et assurer son développement économique.
Dans l’Empire du Milieu, les technologies autour de la reconnaissance faciale dopée aux intelligences artificielles, sont déployées massivement par le gouvernement depuis des années. Une façon de réprimer et de limiter les protestations. C’est ainsi que, dans le cadre de leur étude, les scientifiques ont découvert que, dans les points les plus « tendus » de Chine, il y a plus d’achats gouvernementaux de ces systèmes d’identification des populations boostés à l’IA.
L'IA : opportunité ou menace ? Les DSI de la finance s'interrogent Alors que l'intelligence…
Sécurité des identités : un pilier essentiel pour la conformité au règlement DORA dans le…
La transformation numérique du secteur financier n'a pas que du bon : elle augmente aussi…
Telegram envisage de quitter la France : le chiffrement de bout en bout au cœur…
L'intelligence artificielle (IA) révolutionne le paysage de la cybersécurité, mais pas toujours dans le bon…
TISAX® et ISO 27001 sont toutes deux des normes dédiées à la sécurité de l’information. Bien qu’elles aient…
This website uses cookies.