Le big échec du “big brother” londonien

Publié le 17 mars 2020

© Image par Kai Pilger de Pixabay

La technologie de reconnaissance faciale (Live Facial Recognition) a été utilisée pour analyser le flux de personnes qui circulent sur Oxford Circus, une place très fréquentée de Londres. Mais le résultat n’est pas fiable, révèle Le Figaro.

Avec 627’000 caméras installées dans ses rues, Londres est la sixième ville la plus surveillée au monde et la première en Europe. En somme, un terrain prêt à mettre en pratique les bases de la surveillance de masse.

Fin janvier, la police de Londres a annoncé la mise en place de la technologie LFR (Live Facial Recognition) afin de réduire la criminalité, l’exploitation des enfants, les attaques au couteau et aux armes à feu qui sont de plus en plus fréquentes dans la capitale anglaise.

Afin que les agents puissent localiser les criminels, des caméras seraient placées aux endroits où ceux-ci sont le plus susceptibles de se trouver, et chaque voiture de patrouille aurait une liste de surveillance où apparaissent les criminels les plus recherchés.

Le 28 février, la technologie de reconnaissance faciale en direct (LFR) a été utilisée pour analyser le flux de personnes qui se déplacent dans Oxford Circus, un carrefour très fréquenté de Londres. Selon les données officielles, les visages de 8’600 personnes ont été scannés ce jour-là, sans leur accord.

Le système LFR en a identifié 8 qui correspondaient aux portraits des individus signalés par la police. Mais dans 7 cas l’identification n’était pas correcte et une seule personne ayant réellement commis des crimes a été arrêtée grâce à ce procédé. Cela représente un taux d’erreur de près de 90%, loin des 70% de précision promis par la police au début des tests, écrit Le Figaro

En bref, le système s’est avéré peu fiable et l’affaire n’a fait qu’alimenter les critiques des groupes britanniques qui luttent pour la protection de la vie privée.

Actuellement, l’utilisation de cette technologie par la police britannique reste limitée à certains quartiers de Londres. Au niveau européen, une volonté d’attendre la définition d’une réglementation claire s’appliquant à toutes les nations de l’Union européenne s’est fait jour. 

La reconnaissance faciale fait partie des systèmes d’intelligence artificielle à haut risque, «son utilisation est généralement interdite» et n’est autorisée «que dans des cas exceptionnels, dûment justifiés et proportionnés, sous réserve de garanties et sur la base du droit de l’Union ou du droit national». C’est ce qu’écrit la Commission européenne dans sonWhite paper. L’exécutif européen a l’intention de lancer «un large débat sur les circonstances qui pourraient justifier de telles exceptions».

Le White paper sur l’IA sera le point de départ d’une consultation de 12 semaines. Les résultats seront utiles à la Commission pour élaborer une proposition législative prévue pour la fin de cette année. En attendant, on espère que la technologie LFR sera améliorée afin de devenir plus fiable.


Lu dans un article du Figaro à consulter ici

S’abonner
Notification pour
0 Commentaires
Le plus ancien
Le plus récent Le plus populaire
Commentaires en ligne
Afficher tous les commentaires

À lire aussi

Politique

L’Europe dans le piège américain

«Etre un ennemi des Etats-Unis peut être dangereux, mais être leur ami est fatal», affirmait Henry Kissinger. Les Européens, qui voient leur position stratégique remise en cause, en font aujourd’hui l’amère expérience. Pourtant, aussi brutale et déconcertante soit-elle, la nouvelle stratégie géopolitique américaine a cela de bon qu’elle secoue l’Europe. (...)

Georges Martin
Sciences & Technologies, PhilosophieAccès libre

Le fossé cognitif s’élargit: l’IA évolue, mais nos questions suivent-elles?  

A mesure que l’intelligence artificielle progresse, elle révèle moins ses propres limites que les nôtres. Un fossé cognitif se creuse entre ceux qui apprennent à questionner, comprendre et gouverner l’outil, et ceux qui s’en remettent à ses réponses. Plus qu’un défi technologique, l’IA impose une transformation profonde de notre rapport (...)

Igor Balanovski
Politique, HistoireAccès libre

En faveur d’une Europe réconciliée, de l’Atlantique à l’Oural

Face aux tensions géopolitiques, l’Europe doit choisir entre l’escalade durable ou une nouvelle architecture de paix. Au-delà des logiques d’affrontement, une réconciliation avec la Russie, telle que la défendaient déjà De Gaulle et Churchill, offrirait une alternative à la fragmentation actuelle. Bien qu’elle puisse sembler utopique, cette perspective mérite réflexion, (...)

Klaus J. Stöhlker
Sciences & Technologies

Pour un droit fondamental à ne pas être sous dépendance de l’IA et sous surveillance informatique

Le droit à ne pas être dépendant de l’IA va de pair avec celui de ne pas être mis systématiquement sous surveillance informatique. Cela pourrait être un nouveau droit humain fondamental contribuant à faire respecter une dizaine d’autres qui sont inscrits dans la Déclaration universelle des droits de l’homme adoptée (...)

Solange Ghernaouti
Sciences & Technologies

Des géants de la tech donnent désormais la priorité à la quête de sens

A contre-courant des discours focalisés sur la seule performance technologique, certains dirigeants de la Silicon Valley appellent désormais à rééquilibrer l’innovation vers ce qui donne sens à son usage. A mesure que l’intelligence artificielle transforme le travail et les compétences, la valeur se déplacerait vers des qualités longtemps associées aux (...)

Igor Balanovski
Sciences & Technologies

Le marché de l’IA stagne face à son angle mort: la gouvernance de l’usage

Si l’intelligence artificielle gagne en puissance, la valeur qu’elle génère ne suit pas toujours la même trajectoire. Non pas parce que la technologie plafonne, mais parce que nos usages, nos cadres mentaux et notre gouvernance tardent à évoluer. Entre complémentarité humain-machine, littératie numérique et enjeux économiques, une question s’impose: et (...)

Igor Balanovski
Sciences & Technologies

Au-delà des risques et des promesses, la force du grain de sable

Les événements récents, corroborés par la publication des derniers rapports annuels sur les risques, confirment la persistance des menaces existantes, désormais amplifiées par le développement de l’intelligence artificielle. Celles-ci s’inscrivent dans une dynamique de long terme marquée par la fragilisation des sociétés, sous l’effet conjugué des tensions géopolitiques, de l’érosion (...)

Solange Ghernaouti
Sciences & Technologies

Les limites du contrôle dans le monde multipolaire

Dans un monde multipolaire de plus en plus interconnecté, la tentation du contrôle total se heurte aux lois de la complexité. A mesure que les systèmes gagnent en densité et en vitesse, les stratégies de domination révèlent leurs limites, exposant les acteurs les plus centralisateurs à des effets de retour (...)

Igor Balanovski
Politique

Sourire en coin

A Davos, Donald Trump n’a pas seulement multiplié les provocations: il a surtout mis à nu le désarroi des dirigeants européens, qui feignent aujourd’hui la surprise face à un rapport de force qui ne date pourtant pas d’hier. Car si le spectacle est nouveau, la dépendance de l’Europe, elle, ne (...)

Jacques Pilet
PolitiqueAccès libre

Big Donald et l’attaque de la diligence groenlandaise

Tel un hors-la-loi, Trump s’est attaqué au Groenland. Il frappera encore. Les Européens, après des décennies de léchage de bottes et de soumission, se retrouvent médusés et impuissants face à cette tentative de hold-up qu’ils croyaient impossible. Mais jusqu’à quand accepterons-nous de nous laisser humilier et vassaliser, alors que d’autres (...)

Guy Mettan
Sciences & Technologies

L’IA fossoyeuse de la démocratie et du politique

Dans un monde hyperconnecté, à l’heure de la dépendance informatique, les opérations d’influence et de désinformation ajoutées à la cybercriminalité et aux dysfonctionnements informatiques sont de plus en plus dévastatrices. L’intelligence artificielle comme les réseaux sociaux, leurs natures, modes de fonctionnement et les modèles économiques qui les sous-tendent, sont au (...)

Solange Ghernaouti
Accès libre

«Il ne s’agit pas de réfuter ses analyses, mais de les rendre inaccessibles»

L’article de Jacques Pilet sur les sanctions dont est victime Jacques Baud, ex-colonel suisse des services de renseignement, ex-expert de l’ONU, ex-délégué auprès de l’OTAN, a suscité de nombreux commentaires, dont celui-ci qui nous semble particulièrement intéressant.

Bon pour la tête
PolitiqueAccès libre

Rogner les libertés au nom de la démocratie

Il se lève, en Europe, une vague de fond, peu bruyante, qui néanmoins atteint au cœur ce à quoi nous tenons tant: la liberté d’expression. Partout, les Etats concoctent des appareils de surveillance des propos qui courent. Nous avons parlé ici des tracasseries policières et judiciaires — surtout en Allemagne (...)

Jacques Pilet
Sciences & Technologies

IA générative et travail: libération ou nouvelle aliénation?

L’avènement de l’intelligence artificielle, en particulier les modèles génératifs comme ChatGPT, semble annoncer une importante transformation de l’économie mondiale. Plus en profondeur, elle questionne le sens même du travail et de notre humanité. Tour d’horizon des enjeux humains, environnementaux et éducatifs de cette révolution numérique.

Jonathan Steimer
Sciences & Technologies

Intelligence artificielle: quelle place pour la liberté de la presse et le quatrième pouvoir?

Exercer son esprit critique alors que les promesses de facilité et de rapidité des systèmes d’IA nous invitent à l’endormir et à la paresse intellectuelle devient une nécessité vitale pour chacun d’entre nous. S’interroger sur ce que fait l’IA à la presse et aux médias est tout aussi impératif. Cela (...)

Solange Ghernaouti
Politique

Comment jauger les risques de guerre 

A toutes les époques, les Européens ont aimé faire la fête. Des carnavals aux marchés de Noël, dont la tradition remonte au 14e siècle en Allemagne et en Autriche. Et si souvent, aux lendemains des joyeusetés, ce fut le retour des tracas et des guerres. En sera-t-il autrement une fois (...)

Jacques Pilet