Lorsqu’il est question dans les médias des robots et de la police, la référence à Robocop, sorti en 1987, est courante. L’on projette ainsi rétrospectivement et de manière exagérée le statut de film d’anticipation sur le sujet. Cette référence a particulièrement été mobilisée en 2016 lorsque la police de Dallas s’est servie de manière remarquée d’un engin mobile équipé d’une charge explosive, le Remotec Androx Mark V A-1, afin de « neutraliser » un suspect retranché dans un lieu difficile d’accès et qui avait entre-temps tué et blessé des policiers. La charge explosive a été déclenchée lorsque l’engin s’est suffisamment approché du suspect, qui a ainsi été tué par la police. Cet épisode a souvent été désigné comme étant le premier cas d’utilisation d’un « robot » comme force létale en vue de la « neutralisation » d’un suspect dangereux (1).
Ce que l’on se propose de voir c’est que la robotisation des activités policières est un objet où les conjectures sont, en l’état, plus nombreuses que les faits (I), même en envisageant la question de la communicabilité entre robotisation des activités policières et militarisation des activités policières (II). Du même coup, l’on est condamné à rester général dans les anticipations que l’on peut faire sur la manière dont la robotisation des activités policières pourra être « saisie » par le droit (III).
I. Entre faits et conjectures : difficulté de la question
C’est une question assez difficile à définir que celle de la robotisation des activités policières. Cette difficulté n’est pas imputable à la référence aux activités policières puisque le droit a l’habitude de la distinction entre des activités policières et des activités militaires d’une part, entre des activités policières et des activités judiciaires d’autre part (2). Au demeurant, l’on peut convenir de ce que les activités policières sont susceptibles d’être distinguées entre plusieurs catégories : la police de la tranquillité publique, la police d’investigation (autrement dit la police judiciaire, celle qui est connexe de la justice pénale), la police de l’information, la police des foules (rassemblements, manifestations, attroupements, spectacles) (3).
La difficulté en l’occurrence est dans le concept même de robotisation. Cette difficulté s’établit à deux niveaux. Celui, en premier lieu, de la définition de ce qu’est un robot. Ainsi, lorsqu’en juin 2015, au Salon International de l’Aéronautique et de l’Espace de Paris (Salon du Bourget), l’entreprise Thalès présenta un engin capable de balayer les passeports, de graver les cartes d’embarquement, d’enregistrer une image du visage et de l’iris du passager, ainsi que de partager ces données avec tous les systèmes électroniques pertinents de l’aéroport ou du poste-frontière, la presse s’empressa d’annoncer que cette entreprise avait inventé des « robots » ayant vocation à se substituer aux forces de l’ordre dans les checkpoints des contrôles douaniers et des polices de l’air et des frontières. Était-ce cependant bien des robots ? Rien n’est moins sûr. Du moins si l’on se fie aux termes du relatif consensus en émergence entre experts de la robotique et qui veut qu’un robot consiste en « une machine capable de collecter de l’information, de la traiter et de s’en servir afin d’agir sur la réalité » (4). Les Américains parlent à cet égard du Sense-Think-Act model (« Sentir-Penser-Agir »). Contrairement aux représentations populaires, l’apparence et la forme de la machine importent peu. Seuls importent le fait pour la machine de sembler « vivante » et d’agir d’une manière qui n’est pas nécessairement prévisible par ses créateurs humains. À cette aune, c’est de manière très extensive que l’on parle de « robots » à propos des technologies disponibles et servant déjà au déminage, à l’ouverture de portes ou munies de canons à eau (police des foules). D’autre part, si tout ce qui est intelligence artificielle n’est pas robot mais que tout robot mobilise de l’intelligence artificielle, alors faudrait-il distinguer ceux des usages policiers de l’intelligence artificielle qui ne consistent pas en une robotisation (5). Tel est le cas par exemple des programmes de big data qui permettent aux institutions policières de « prédire » des crimes et des délits (6).
Le concept de robotisation pose une deuxième difficulté touchant à la définition et à la fébrilité des données scientifiques et technologiques disponibles. L’état de la réflexion relative aux enjeux politiques et juridiques des robots est aujourd’hui analogue à la manière dont les universitaires envisagèrent l’Internet avant l’avènement du web. Michael Froomkin le dit assez bien : « Imaginez si en 1980 (plus de dix ans après la première spécification technique normalisée d’Internet), alors qu’Internet commençait à peine à se développer, et même en 1992, lorsque le premier site internet fut édité, une réunion interdisciplinaire d’universitaires s’étant proposée de réfléchir aux questions politiques et juridiques soulevées par Internet. Incontestablement, les participants auraient échoué à anticiper toutes les conséquences d’Internet, bonnes ou mauvaises, que nous connaissons aujourd’hui » (7). Par exemple, à l’heure où ces lignes sont écrites, la plastique ou de toutes autres machines destinées à cette qualification est en pleine révolution avec le développement annoncé des micro-robots : « Sur terre, sous l’eau, dans les airs… demain, ils seront partout. Ils mesurent entre quelques millimètres et quelques centimètres. Ils peuvent voler, nager, marcher sur l’eau ou s’accrocher au plafond, bondir, se faufiler partout, porter cent fois leur poids. À la clé ? De multiples usages, qui commencent seulement à s’esquisser. Ceux-ci, professionnels ou grand public. C’est sûr, une révolution est en marche. (…) » (8).
II. Communicabilité entre robotisation des activités policières et militarisation des activités policières
La littérature disponible sur la robotisation des activités policières est rarement le fait des institutions policières elles-mêmes (9) mais plutôt celui de journalistes ou d’amateurs des robots. Même les entreprises investies dans ces technologies ne produisent guère de documentation intéressant spécialement les technologies à vocation policière auxquelles elles sont supposées travailler. Cette opacité doit vraisemblablement, et pour une part, au secret industriel et au « secret de la défense nationale » (pour utiliser l’expression française (10)) qui recouvrent ce type d’activités industrielles.
En France, comme ailleurs, il existe des restrictions à la libre divulgation ou exploitation des inventions. Ces restrictions sont prévues par le Code pénal, le Code de la propriété intellectuelle, l’instruction interministérielle n°9062/DN/CAB du 13 février 1973, l’instruction générale interministérielle sur la protection du secret de la défense nationale n°1300/SGDN/PSE/SSD du 30 novembre 2011. Aussi, la procédure du dépôt de brevet comprend une étape consistant en la transmission par l’INPI au ministère de la Défense de la demande de dépôt pour examen. Le ministère de la Défense vérifie si l’invention à breveter présente ou non un intérêt pour la nation justifiant l’empêchement ou le retard de sa divulgation. Le ministère de la Défense dispose de cinq mois pour décider de « classifier » le brevet.
« En outre, explique la Direction générale de l’Armement du ministère de la Défense, les accords suivants définissent les conditions éventuelles d’extension à l’étranger de demandes de brevet ayant fait l’objet de mesures d’interdiction de divulgation et de libre exploitation : - Accord OTAN du 21 septembre 1960 pour la sauvegarde mutuelle du secret des inventions intéressant la défense et ayant fait l’objet de demandes de brevet - Accord entre le gouvernement de la République française et le gouvernement du Royaume de Suède pour la sauvegarde mutuelle du secret des inventions intéressant la défense et ayant fait l’objet de demandes de brevets du 15 mars 1984. De plus, dans le cadre de la « Letter of Intent » LoI1 , le ministère de la défense a signé, avec ses homologues d’Allemagne, d’Espagne, d’Italie, du Royaume Uni et de la Suède un arrangement visant à faciliter la protection par brevets des informations classifiées s’appuyant sur ces accords internationaux (…) » (11).
Le ministère de la Défense opère donc une distinction entre d’une part des « inventions susceptibles d’intéresser la défense nationale » et, d’autre part, des « inventions sensibles ou présumées ». La première catégorie « doit être considéré[e] dans une acception large qui s’étend au-delà des seuls matériels de guerre entendus au sens strict du terme, c’est-à-dire tels que définis par la législation et la réglementation qui leur sont propres. De plus il présente un caractère évolutif compte tenu de l’état de la technique et des besoins des armées. Une invention déposée à l’occasion de l’exécution d’un marché notifié par le ministère de la défense sera pour le moins réputée intéresser la défense nationale (…) ». Les « inventions sensibles ou présumées sensibles » concernent au fond quasiment les mêmes objets que celles « susceptibles d’intéresser la défense nationale », mais s’en démarquent « en ce que le déposant dispose en outre d’éléments lui imposant ou lui suggérant d’en assurer la confidentialité ».
Cette différence formelle importe peu pour notre propos. Ce qui importe c’est le fait qu’un croisement entre le « paradigme » de la « militarisation des activités policières » (12) et la nature des inventions pouvant être « classifiées » (parce qu’elles sont « susceptibles d’intéresser la défense nationale » ou parce qu’elles sont « sensibles ou présumées ») permet d’imaginer dans quels domaines la robotisation des matériels liés aux activités militaires (13) peut se décliner ensuite dans des usages policiers, à la faveur notamment de la baisse des prix de vente : ─ les aéronefs et leurs équipements ; ─ les engins terrestres, aéronautiques ou navals de combat sans pilote ; ─ les systèmes de conduite de tir ; ─ l’ingénierie aéronautique ; ─ l’aérolargage ; ─ les véhicules terrestres et leurs sous-ensembles ; ─ les contre-mesures visant les dispositifs explosifs improvisés ; ─ les systèmes de sécurité et de contre-insurrection ; ─ les dispositifs incendiaires, générateurs de flammes ou de fumées ; ─ les technologies de détection de matières explosives, nucléaires ou dangereuses ; ─ les technologies de détection et de localisation d’objectifs ; ─ les engins terrestres, aéronautiques ou navals d’observation sans pilote ; ─ les systèmes de commandement, de contrôle de communication et de renseignement ; ─ les équipements photographiques et d’observation ; ─ les technologies de communication, de signalement, d’identification, de navigation et de pilotage.
Cette longue liste (non exhaustive) des applications militaires de la robotique susceptibles d’être destinées aux institutions policières ou d’être créées plus ou moins mimétiquement pour elles ne contredit pas l’hypothèse contemporaine selon laquelle il existe des aires principales de développement de la robotisation des activités policières (14) : la surveillance, le recueil d’informations, l’établissement de rapports de police, l’usage à distance de robots en vue d’annihiler ou d’endiguer la violence humaine.
Des « robots vigiles » ou « robots patrouilleurs » capables de patrouiller dans des espaces publics ou privés, de détecter et de constater des infractions ou des choses « anormales » (bris de verre, bruit métallique, intrus, mouvement suspect, course suspecte, chaleur, feu, fumée, etc.) et d’en aviser un policier (ou un agent privé de sécurité) sont ainsi déjà disponibles :
« À la croisée entre un Robocop et R2D2, la startup américaine Knightscope a commencé à mettre en circulation plusieurs de ses robots patrouilleurs Knightscope K5, chargés d’aider les forces de l’ordre à assurer la sécurité. (…) Robocop existe. La jeune société de robotique Knightscope a commencé à déployer au moins cinq de ses robots patrouilleurs Knightscope K5 dans la Silicon Valley, dans l’objectif d’aider à assurer la sécurité des lieux. Equipés d’un grand nombre de capteurs en tous genres, les robots K5 peuvent "voir", "entendre", "ressentir" et "sentir", et amassent ainsi des tonnes de données en temps réel, qui sont traitées au travers d’un moteur d’analyse prédictive. S’il détecte une activité suspecte, un bruit tel qu’un bris de verre, ou même une odeur anormale par rapport à ce qu’il sait de la zone surveillée et de ce qui s’y déroule, le robot peut déclencher une alerte et mettre tous ses capteurs en éveil pour enregistrer le maximum d’informations. (…) Mesurant 1,5 mètre pour 136 kg (et ressemblant étrangement à un cousin russe présenté en 2007), le robot Knigtscope K5 est notamment capable de voir et d’enregistrer des vidéos à 360 degrés grâce à quatre caméras, de reconnaître du texte (tel que des plaques d’immatriculation) pour les comparer à une base de données, de mesurer des écarts de température, de mesurer la qualité de l’air, ou encore de voir dans le noir grâce à des caméras infra-rouge (…) » (15).
III. Thèmes et débats relatifs au principe de légalité
Faire des anticipations à propos de l’exigibilité des principes juridiques libéraux dans le cadre de la robotisation des activités policières n’est donc pas une chose aisée.
L’on peut néanmoins faire une première hypothèse. Soit l’idée selon laquelle les robots n’ont pas d’affects. Cette idée est loin d’être une donnée acquise dans la littérature spécialisée et elle n’est pas à confondre avec la question de la possibilité et/ou de la difficulté pour des robots de comprendre ou de simuler des sentiments, qui suppose une « modélisation des états affectifs » :
« Les émotions sont en quelque sorte l’expression des sentiments, l’interface avec les autres. Les émotions vont de pair avec des sensations physiques et un passage à l’action, par exemple la fuite devant un serpent. L’expression des émotions est multimodale et combine des indices dans la voix, le visage et les gestes. Il est plus facile, d’un point de vue informatique pour un robot de simuler des émotions même si celles-ci sont dépourvues de sensations physiques que de les reconnaître. Pour créer une expression émotionnelle sur le visage, nous pouvons nous appuyer sur de nombreux travaux depuis Darwin, par exemple ceux de Paul Ekman, qui a créé des unités faciales que l’on peut composer sur le visage d’un robot afin d’exprimer une émotion donnée. Il y a aussi un grand nombre de travaux sur la génération des gestes et sur la synthèse émotionnelle de voix expressive. Pour la reconnaissance des émotions, c’est beaucoup plus compliqué à cause de la très grande variabilité des expressions entre les individus suivant les contextes et les cultures. Les sentiments sont des représentations mentales conscientes et sont souvent cachés, particulièrement dans certaines cultures » (16).
Il ne reste pas moins que si l’on considère que les robots n’ont pas d’affects, alors les principes légaux ou éthiques disponibles et destinés à distinguer les bons des mauvais affects policiers ne devraient-ils pas trouver à s’appliquer à eux. Il peut s’agir de principes intéressant les relations avec les citoyens et les attitudes à l’égard du public (17). Cette distinction entre bons et mauvais affects policiers n’existe pas moins en matière de définition légalo-éthique des rapports entre le policier et sa hiérarchie. Un troisième contexte dans lequel la distinction entre les bons et les mauvais affects est central en matière de police (ou plus généralement de sécurité) est celui des opérations policières à risque, celles-ci étant un moment propice à une tension entre la camaraderie ou le courage d’une part, la peur ou l’hostilité aux individus concernés (police de foules hostiles) d’autre part.
L’on peut faire une deuxième hypothèse : les robots étant voués à accomplir des actes dont la texture est dessinée par leurs programmateurs bienveillants (techniciens, policiers) ou malveillants, ils peuvent résonner d’un certain nombre d’idéologies ou de croyances humaines que différents principes légalo-éthiques tendent déjà à conjurer s’agissant des policiers : par exemple la substitution d’une conception personnelle de la mission de la police à la conception définie par la loi ; par exemple une « culture policière » spécifique et le cas échéant antilibérale. Mutatis mutandis, cette dernière hypothèse a été préfigurée en 2016 par l’affaire du robot Tay de Microsoft : « alors que la machine devait permettre d’étudier les capacités d’apprentissage et devenait plus intelligente au fur et à mesure de ses interactions en ligne, elle s’est mise à tweeter des commentaires pro nazis (« Hitler avait raison je déteste les juifs »), sexistes ou racistes (« Nous devons assurer l’existence de notre peuple et un avenir pour les enfants blancs », lui dit un internaute. « Je suis entièrement d’accord. Si seulement davantage de gens pouvaient défendre ce point de vue », répond-elle). Elle a aussi affiché son soutien à Donald Trump » (18).
Une troisième hypothèse est encore concevable, qui est plus ou moins liée d’ailleurs elle aussi à l’existence d’une « patte humaine » en surplomb de l’action des robots en matière de police. Il n’y a pas de raisons que les décisions et les actions des robots échappent aux biais cognitifs qui peuvent déjà entacher les décisions et les actions des policiers : par exemple le manque ou le défaut de connaissances suffisantes ou pertinentes pour prendre la bonne décision ou à tout le moins la décision légale ; par exemple le manque ou le défaut d’expérience des comportements criminels ou déviants.
Reste la question de l’usage de la force armée. En réalité, cette question est plus ou moins vertigineuse selon la définition que l’on retient de la notion de « robot ». Si l’on retient la définition extensive, celle qui recouvre y compris toute technologie agissant sous le commandement médiat d’un être humain, le robot qui tire et le policier qui lui en donne l’ordre ne font théoriquement qu’un. Toutefois, il faudra distinguer l’enjeu de l’appréciation par le policier de la nécessité et de la proportionnalité de l’usage de la force armée (19) de celui d’une mauvaise exécution éventuelle par le robot des ordres humains qu’il a reçus. Chacune des deux questions devrait soulever des problèmes de responsabilité pénale et administrative différents et vraisemblablement des difficultés sur l’identification du responsable d’un dysfonctionnement (le fabricant ? le policier opérateur ? le supérieur hiérarchique du policier opérateur ?). Si l’on retient du robot la définition très restrictive et limitée aux engins décidant par eux-mêmes, la question est bien plus fondamentale : faut-il proscrire tout agrément en force armée de ce type de robots ou faut-il proscrire seulement leur agrément en force létale ?
(1) Sur cet épisiode, voir en ligne : Andrea Peterson, « In an Apparent First, Dallas Police Used a Robot to Deliver Bomb That Killed Shooting Suspect », The Washington Post, 8 juillet 2016 ; Joel Achenbach et autres, « Five Dallas Police Officers Were Killed by a Lone Attacker, Authorities Say », The Washington Post, 8 juillet 2016 ; W.J. Hennigan & Brian Bennett, « Dallas Police Used a Robot to Kill a Gunman, a New Tactic That Raises Ethical Questions », The Los Angeles Times, 8 juillet 2016 ; Jon Swaine, « Dallas Police Reveal Details of Bomb-Carrying Robots It Used as a ‘Last Resort’ », The Guardian, 10 juillet 2016 ; Jack Nicas, « Dallas Police Believed to Be First to Use Robot Lethally », The Wall Street Journal, 8 juillet 2016 ; Sam Thielman, « Use of Police Robots to Kill Dallas Shooting Suspect Believed to Be First in U.S. History », The Guardian, 8 juillet 2016.
(2) Voir à ce propos nos développements dans Droit de la police et de la sécurité, LGDJ-Lextenso éditions, 2014, p. 1-10.
(3) Fabien Jobard, Jacques de Maillard, Sociologie de la police, Armand Colin, 2015, p. 111 et 140.
(4) Elizabeth E. Joh, « Policing Police Robots », 64 UCLA L. Rev. Disc. 516 (2016), p. 6. Voir par ailleurs de : Ryan Calo, « Robotics and the lessons of Cyberlaw », Ryan Calo, « Robotics and the Lessons of Cyberlaw », 103 Cal. L. Rev. 513 (2015).
(5) Pour une compréhension plus générale des questions nouvelles induites par les usages policiers de technologies de toutes natures, voir Richard Silberglitt et autres, Visions of Law Enforcement Technology in the Period 2024-2034, Rand Corporation, National Institute of Justice, 2015.
(6) Les polices américaines utilisent depuis plusieurs années des logiciels dits de « prédiction criminelle » tels que PredPol (Predictive Policing). Sur certaines questions juridiques posées par ces logiciels, voir Elizabeth E. Joh, « Policing by Numbers : Big Data and the Fourth Amendment », 89 Wash. L. Rev. 35 (2014).
(7) Michael Froomkin, « Introduction », in Robot Law (Ryan Calo, A. Michael Froomkin & Ian Kerr, dir.), Edward Elgar Pub, 2016, p. 1.
(8) Thomas Cavaillé-Fol, Frédéric Lert, Gabriel Siméon, « Les micro-robots », Science et vie, juin 2016, p. 53.
(9) Une organisation américaine de référence en matière de police telle que la Commission on Accreditation on Law Enforcement Agencies n’a rien de spécifique concernant les robots dans son quasi-millier de « standards » relatifs aux institutions policières.
(10) Il faut en effet garder à l’esprit qu’en France le « secret de la défense nationale » ne désigne pas seulement des informations classifiées ayant un caractère militaire. L’expression désigne en réalité toute information dont l’État considère qu’elle ne doit pas être divulguée. Il peut donc s’agir aussi bien d’informations diplomatiques que d’informations industrielles.
(11) Guide des usages des acteurs de la propriété intellectuelle en matière de sécurité de défense, 2014.
(12) Cette question est plus caractéristique du débat public américain en raison de « bavures » réelles ou alléguées commises au cours d’opérations de police dans lesquelles des polices locales ont pu se servir de certaines armes qui leur ont été transférées par l’armée américaine. Aussi, en 2015, le président des États-Unis avait édicté une liste d’armes et d’équipements que les armées américaines ne pouvaient plus donner ou vendre à des polices locales. Certains font néanmoins valoir que le thème de la « militarisation de la police » a une grande part d’exagération dans la mesure où les équipements militaires transférés vers des autorités civiles sont, en l’état et pour une grande part, des équipements utiles à des fonctions administratives ou de nature défensive.
(13) Voir à ce propos : Peter W. Singer, Wired for War : The Robotics Revolution and Conflict in the 21st Century, Penguin Books, 2009 ; Emma Cott, « Navy Robots Test the Limits of Autonomy », The New York Times, 6 mai 2015.
(14) Gregory Mar, « Policing in 2025 : How robots will change SWAT, patrol », PoliceOne.com, 7 décembre 2016.
(15) Guillaume Champeau, « Les robots policiers Knightscope patrouillent la Silicon Valley », numerama.com, 21 novembre 2014. D’autres types de robots patrouilleurs ont dépassé le stade de la recherche-développement, comme le « telebot » et le « Ramsee ». Invention française, l’« E4 » est, selon son créateur Théophile Gonos, « un robot de gardiennage, simple, sans installation préalable et à un prix raisonnable (…). Il reconnaît les visages, une fuite d’eau ou un feu. Il va aller "voir" et, s’il suspecte quelque chose, il envoie une photo sur le téléphone de son propriétaire. Il peut aussi déclencher une alarme et des flashs aveuglants pour faire fuir les intrus »
(16) Laurence Devillers, « L’empathie des robots », binaire.blog.lemonde.fr, 16 septembre 2016 ; plus généralement, sur le mimétisme et l’affectif en matière de robotique, de la même auteure : Des robots et des hommes. Mythes, fantasmes et réalité, Plon, 2017.
(17) Empathie, disponibilité, attention aux personnes vulnérables, non-discrimination, etc. Voir également nos développements dans Libertés et droits fondamentaux, Berger-Levrault, 2015, p. 365-375.
(18) Mathias Cena, « Microsoft débranche son robot devenu fou pour interrompre ses tweets racistes et pro-nazis », 20minutes.fr, 25 mars 2016.
30 octobre 2017