Autoblog de la La quadrature du net

Ce site n'est pas le site officiel de la Quadrature du net.
C'est un blog automatisé qui réplique les articles de laquadrature.net

VSA : l’AssemblĂ©e discute dĂ©jĂ  son extension aux transports

Tue, 14 May 2024 11:43:42 +0000 - (source)

Alors que les expĂ©rimentations de vidĂ©osurveillance algorithmique (VSA) prĂ©vues par la loi relative aux Jeux Olympiques ont Ă  peine dĂ©butĂ© et qu’aucune Ă©valuation n’a encore Ă©tĂ© rĂ©alisĂ©e, le gouvernement passe dĂ©jĂ  Ă  la vitesse supĂ©rieure. Mercredi 15 mai, la commission des lois de l’AssemblĂ©e va discuter d’une proposition de loi visant Ă  lĂ©galiser une nouvelle forme de VSA, en utilisant cette fois-ci comme excuse la sĂ©curitĂ© dans les transports. DerriĂšre ce texte passĂ© presque inaperçu se cache une nouvelle avancĂ©e sĂ©curitaire mais surtout un agenda politique assumĂ© : celui de la gĂ©nĂ©ralisation sur le long terme des technologies de surveillance algorithmique des espaces publics. Le rapporteur ClĂ©ment Beaune a refusĂ© de nous auditionner. Pourtant nous aurions eu beaucoup Ă  lui dire sur les dangers de cette technologie et les contradictions du gouvernement qui trahit sans scrupule les promesses formulĂ©es il n’y a mĂȘme pas un an.

Vous vous souvenez de la loi SĂ©curitĂ© globale ? Voici sa petite sƓur, la proposition de loi « relative au renforcement de la sĂ»retĂ© dans les transports Â». AdoptĂ©e en fĂ©vrier par le SĂ©nat, ce texte propose les pires projets sĂ©curitaires : captation du son dans les wagons, pĂ©rennisation des camĂ©ras-piĂ©tons pour les agent·es et extension aux chauffeur·euses de bus, autorisation donnĂ©e aux rĂ©gies de transports pour traiter des donnĂ©es sensibles (ce qui permettrait de collecter des donnĂ©es liĂ©es Ă  l’origine raciale, les donnĂ©es de santĂ© ou encore les opinions religieuses et politiques) ou encore transmission directe au ministĂšre public des procĂšs-verbaux d’infractions commises dans les transports.

Expérimenter pour banaliser et légitimer

Mais surtout, cette proposition de loi envisage une nouvelle expĂ©rimentation de la vidĂ©osurveillance algorithmique jusqu’en 2027. Son article 9 est un quasi copiĂ©-collĂ© de l’article 10 de la loi relative aux Jeux olympiques adoptĂ©e l’annĂ©e derniĂšre et qui prĂ©voyait l’utilisation d’algorithmes de reconnaissance de comportements dans un cadre soit-disant « expĂ©rimental Â» pour tout Ă©vĂšnement rĂ©crĂ©atif, sportif et culturel. Alors que les premiers dĂ©ploiements ont Ă  peine commencĂ©, que des sĂ©nateur·rices ont constatĂ© dans un rĂ©cent rapport que ces dispositifs ne seront pas suffisamment opĂ©rationnels pour les JO de Paris et que l’Ă©valuation prĂ©vue par la loi n’a pas encore Ă©tĂ© faite, ce nouveau texte discutĂ© demain propose de rendre lĂ©gal un autre type de logiciel d’analyse de flux vidĂ©os.

En l’occurrence, il s’agirait d’autoriser des traitements de donnĂ©es ayant pour but d’« extraire et exporter les images Â» rĂ©quisitionnĂ©es par la police dans le cadre d’enquĂȘtes pĂ©nales. DerriĂšre cette formule floue, nous devinons qu’il s’agit en rĂ©alitĂ© des algorithmes de VSA dits « a posteriori Â» dont nous documentons l’usage depuis des annĂ©es dans le cadre de l’initiative Technopolice.

En effet, s’il est trĂšs facile d’effectuer une recherche dans un document texte, la tĂąche s’avĂšre plus compliquĂ©e et chronophage lorsqu’il s’agit d’effectuer une recherche dans un flux vidĂ©o. La VSA « a posteriori Â» permet d’ automatiser des recherches dans des archives vidĂ©o. Comme nous l’expliquons dans notre brochure dĂ©taillĂ©e publiĂ©e dĂ©but mai, cela consiste Ă  lancer des requĂȘtes de reconnaissance d’image afin de faire remonter l’ensemble des bandes vidĂ©os correspondant Ă  certains critĂšres thĂ©matiques comme dĂ©tecter l’ensemble des hommes portant un t-shirt jaune et un pantalon noir repĂ©rĂ©s dans une zone gĂ©ographique donnĂ©e durant les derniĂšres 24h. ConcrĂštement, cela permet de retracer le parcours de quelqu’un dans une ville. La VSA peut Ă©galement raccourcir le temps de visionnage en condensant des heures ou des jours de vidĂ©os en quelques minutes. Le rĂŽle de la VSA dans cet usage est de sĂ©lectionner les passages susceptibles d’intĂ©resser la police et de faire une ellipse sur le reste du temps de vidĂ©o. Cette technologie repose sur l’analyse et le tri des caractĂ©ristiques biomĂ©triques des personnes, ce qui la rend totalement illĂ©gale.

Le plus connu des logiciels permettant de tels usages est celui de Briefcam, une entreprise israĂ©lienne rachetĂ©e par le groupe japonais Canon. Pas moins de 200 villes françaises seraient dotĂ©es de sa technologie de VSA, qui permet aussi de faire de la reconnaissance faciale. Le manuel d’utilisation que nous avons obtenu ainsi que les vidĂ©os promotionnelles1 Voir notamment cette vidĂ©o Ă  partir de 3:12 sont parlantes quant aux capacitĂ©s de ces algorithmes de tri et de catĂ©gorisation des personnes, considĂ©rĂ©s comme de simples « objets Â».

Comme toute technologie de VSA, elle permet Ă  la police d’augmenter son contrĂŽle de l’espace public, rĂ©duisant ainsi l’anonymat et les libertĂ©s que l’on y exerce. Mais la VSA Ă©tend Ă©galement les logiques policiĂšres en les automatisant. Toute dĂ©cision opĂ©rĂ©e sur le logiciel ne fait que reflĂ©ter un choix humain, en l’occurrence celui des policiers, et gĂ©nĂ©ralise les habitudes qu’ils ont en matiĂšre de surveillance de l’espace public. Qu’il s’agisse des critĂšres physiques choisis pour mettre en Ɠuvre des filtres de tri et de repĂ©rage (par exemple, un homme vĂȘtu d’un jogging et d’une casquette), des lieux ciblĂ©s par cette analyse (abords d’un lieu militant ou quartier populaire…) ou encore de la fonctionnalitĂ© choisie (pour retrouver le parcours de quelqu’un ou pour ne repĂ©rer qu’une certaine catĂ©gorie de personne), chacune des utilisations de cette VSA renforce des pratiques policiĂšres discriminantes et crĂ©Ă© un risque supplĂ©mentaire de surveillance.

Une hypocrisie de plus : lĂ©galiser l’illĂ©gal

Bien que ces logiciels soient massivement utilisĂ©s par la police dans de nombreuses villes de France, et ce en toute illĂ©galitĂ©, la proposition de loi discutĂ©e ce mercredi cantonne « l’expĂ©rimentation Â» aux transports pour trois ans. En pratique, seules la RATP ou la SNCF seront donc autorisĂ©es par la loi Ă  avoir recours Ă  ces algorithmes, et uniquement pour rĂ©pondre Ă  des rĂ©quisitions d’enregistrements dans le cadre d’enquĂȘtes pĂ©nales. PlutĂŽt que de condamner ces utilisations illĂ©gales et massives de VSA, le gouvernement a donc choisi de les lĂ©gitimer au travers d’un texte qui semble en apparence circonscrit et proportionnĂ©. Comme pour la loi relative aux Jeux Olympiques, le gouvernement souhaite avancer par « petit pas Â» pour mettre en Ɠuvre sa stratĂ©gie de lĂ©galisation, en concentrant l’attention sur un spectre rĂ©duit d’usages encadrĂ©s par des lois « expĂ©rimentales Â».

Usages de la VSA

Ces cadres « expĂ©rimentaux Â» permettent de donner l’apparence d’un aspect Ă©phĂ©mĂšre et rĂ©versible pour construire l’acceptabilitĂ© sociale d’une technologie autoritaire. Mais il ne fait que peu de doute que ces dispositifs seront soit pĂ©rennisĂ©s soit Ă©tendus Ă  de nouveaux usages L’arrivĂ©e de ce texte, un an Ă  peine aprĂšs celui de la loi JO, en est le meilleur exemple. Il n’est d’ailleurs pas Ă©tonnant que les transports aient Ă©tĂ© choisis pour mettre en application cette nouvelle accĂ©lĂ©ration. En effet, ceux-ci jouent un rĂŽle moteur dans la promotion de la VSA en France. En 2022, la CNIL avait lancĂ© une consultation publique sur le sujet et les contributions de la RATP et de la SNCF Ă©taient Ă©loquentes quant Ă  leurs intentions de surveillance.

Aussi, comme l’a rappelĂ© Mediapart, la SNCF expĂ©rimente rĂ©guliĂšrement depuis 2017, de façon totalement illĂ©gale, plusieurs logiciels de surveillance dans les gares achetĂ©s auprĂšs de plusieurs entreprises. DĂ©but mai, nous avons dĂ©noncĂ© Ă  la CNIL un de ces programmes illĂ©gaux mis en Ɠuvre par la SNCF, Prevent PCP, qui vise Ă  faire de la filature automatisĂ©e de personnes dans les gares, sur la base de leurs attributs physiques et biomĂ©triques, sous prĂ©texte de retrouver les personnes qui abandonneraient un bagage en gare. Quant Ă  la RATP, elle a expĂ©rimentĂ© la vidĂ©osurveillance algorithmique dans ses rames et sur ses quais avec Evitech et Wintics. Bref, la proposition de loi apparaĂźt taillĂ©e sur mesure pour lĂ©galiser une partie des dispositifs de VSA d’ores et dĂ©jĂ  utilisĂ©s illĂ©galement par la SNCF ou la RATP.

Un Parlement instrumentalisé

Qu’il s’agisse de cette proposition de loi sur les transports ou de la loi relative aux Jeux olympiques adoptĂ©e en mai 2023, l’intention qui prĂ©side Ă  ces textes n’est pas d’engager une discussion sincĂšre sur l’utilitĂ© de la VSA, mais d’entĂ©riner des Ă©tats de fait. Le SĂ©nat et l’AssemblĂ©e nationale apparaissent alors comme de simples chambre d’enregistrement du gouvernement, qui trahit ses engagements et multiplie les manƓuvres rendant impossible un rĂ©el dĂ©bat parlementaire.

En effet, celui-ci n’a pas peur de s’asseoir sur ses promesses faites l’annĂ©e derniĂšre aux dĂ©puté·es et sĂ©nateur·ices. Lors des dĂ©bats sur la loi sur les Jeux Olympiques, aussi bien le rapporteur Guillaume Vuilletet que Gerald Darmanin assuraient mordicus aux parlementaires inquiets que de nombreuses garanties avaient Ă©tĂ© prĂ©vues, et notamment puisqu’il s’agissait d’une « expĂ©rimentation Â», que seul l’aboutissement d’un processus d’Ă©valuation permettrait d’aller plus loin. Les modalitĂ©s de cet examen ont Ă©tĂ© prĂ©cisĂ©es par un dĂ©cret du 11 octobre 2023 et un comitĂ© a Ă©tĂ© nommĂ© pour rendre un rapport d’ici fin mars 2025. Mais ces gardes-fous, pourtant votĂ©s par la reprĂ©sentation nationale il y a un an, sont balayĂ©s d’un revers de main aujourd’hui : sans attendre ce rapport, le gouvernement prĂ©fĂšre avancer, en assumant avoir menti aux parlementaires.

D’autre part, le processus lĂ©gislatif qui entoure ce texte sur les transports dĂ©montre que le gouvernement refuse au Parlement les conditions d’un dĂ©bat serein et approfondi. Comme son nom l’indique, ce texte est une proposition de loi, c’est Ă  dire une initiative parlementaire et non gouvernementale, dĂ©posĂ©e en l’occurrence par Philippe Tabarot, un sĂ©nateur LR. Celui-ci n’est pas sans lien avec le sujet puisqu’il a Ă©tĂ© plusieurs annĂ©es Ă  la tĂȘte de la rĂ©gie des transports PACA puis vice-prĂ©sident de la Commission des transports de RĂ©gions de France.

Or, compte tenu du fait qu’il s’agit d’une proposition de loi de l’opposition, ce texte ne pouvait en thĂ©orie ĂȘtre transfĂ©rĂ© Ă  l’AssemblĂ©e qu’au travers d’une « niche Â» du parti LR. C’Ă©tait sans compter la volontĂ© de l’exĂ©cutif de le mettre Ă  l’ordre du jour de son propre chef. En outre, le gouvernement n’a pas hĂ©sitĂ© Ă  recourir une fois de plus Ă  l’excuse des Jeux olympiques pour dĂ©clencher une procĂ©dure accĂ©lĂ©rĂ©e pour l’examen du loi, prĂ©textant que ce texte devait entrer en vigueur avant cet Ă©vĂšnement en juillet. Mais ce n’est pas tout. Alors que l’annĂ©e derniĂšre, pour la loi JO, le gouvernement avait au minimum posĂ© les conditions d’un examen parlementaire informĂ©, ici aucune Ă©tude d’impact, aucun avis de la CNIL, aucune explication de la technologie couverte par l’article 9 n’a Ă©tĂ© publiĂ©e ou transmise aux parlementaires.

Les dĂ©puté·es vont donc voter un texte sans comprendre les implications techniques et les consĂ©quences en termes de surveillance de cet usage de la VSA, qui sera trĂšs probablement minimisĂ©e et mal expliquĂ©e par le rapporteur ClĂ©ment Beaune. D’ailleurs, ce dernier ne semble pas disposĂ© Ă  un quelconque dĂ©bat : lorsque nous lui avons demandĂ© Ă  ĂȘtre auditionnĂ© afin d’en savoir plus sur le contenu de ce texte ainsi que pour alerter sur ses dangers, l’administration de l’AssemblĂ©e nationale a refusĂ©, prĂ©textant un « calendrier trop chargĂ© Â».

Faire passer un texte Ă  toute vitesse, faire primer l’opportunisme politique sur la transparence dĂ©mocratique et refuser d’écouter une association de dĂ©fense des droits qui travaille depuis des annĂ©es sur le sujet, c’est tout le jeu dĂ©mocratique qui est bafouĂ©. Une fois de plus, il n’y a aucune volontĂ© de la part des pouvoirs publics d’examiner sincĂšrement l’utilitĂ© ou les dangers de la VSA, et encore moins de dĂ©manteler l’infrastructure de surveillance illĂ©galement dĂ©ployĂ©e depuis des annĂ©es. En rĂ©alitĂ©, les intĂ©rĂȘts politiques et sĂ©curitaires priment et les garde-fous dĂ©mocratiques sont rĂ©duits Ă  de purs instruments cosmĂ©tiques.

Cette proposition de loi sur les transports constitue une Ă©tape de plus dans le dĂ©ploiement de la surveillance automatisĂ©e des rues, au bĂ©nĂ©fice de la police et des industriels de la Technopolice. Alors que le gouvernement ne s’embarrasse mĂȘme plus Ă  permettre les conditions d’un dĂ©bat parlementaire, mobilisons-nous ! Interpellez votre dĂ©puté·e sur ce texte ou bien crĂ©ez vous-mĂȘme la contestation dans votre ville ou votre dĂ©partement. Car Ă  cotĂ© de ces dĂ©bats lĂ©gislatifs, la VSA continue de s’installer de façon illĂ©gale Ă  travers le pays, souvent Ă  l’Ă©chelon des collectivitĂ© locales. Pour dĂ©noncer cette hypocrisie et refuser le projet de sociĂ©tĂ© de surveillance de l’espace public, nous avons lancĂ© un kit de mobilisation il y a deux semaines. Vous pouvez y trouver ressources, modes d’action et des affiches pour faire valoir une opposition populaire Ă  la VSA. Rejoignez la campagne sur www.laquadrature.net/vsa, et si vous le pouvez, faites un don sur www.laquadrature.net/donner !

References

References
1 Voir notamment cette vidéo à partir de 3:12

QSPTAG #307 — 3 mai 2024

Fri, 03 May 2024 14:55:06 +0000 - (source)

Lancement de notre campagne contre la VSA

La loi JO de 2023 a lĂ©galisĂ© des « expĂ©rimentations Â» de vidĂ©osurveillance algorithmique (VSA) dans un cadre prĂ©cis : des Ă©vĂ©nements « festifs, sportifs ou culturels Â», sur une pĂ©riode donnĂ©e (jusqu’en mars 2025), et pour surveiller seulement huit critĂšres parmi lesquels les dĂ©parts de feu, les franchissements de ligne ou les mouvements de foule par exemple. Mais on le sait depuis longtemps grĂące Ă  notre campagne Technopolice, la VSA est dĂ©jĂ  prĂ©sente et utilisĂ©e dans des dizaines de communes sans aucun cadre lĂ©gal. La SNCF expĂ©rimente par exemple depuis plusieurs mois un dispositif appelĂ© Prevent PCP et qui dĂ©passe largement le cadre dĂ©limitĂ© par la loi JO.

C’est pourquoi nous lançons cette semaine une grande campagne contre la VSA lĂ©gale et illĂ©gale, en profitant de l’intĂ©rĂȘt suscitĂ© par les JO, pour dĂ©noncer l’hypocrisie consistant Ă  lĂ©galiser petit Ă  petit, et Ă  banaliser par le fait, un systĂšme de surveillance qui sert Ă  la fois des intĂ©rĂȘts Ă©lectoraux, industriels et policiers au mĂ©pris complet des droits fondamentaux et sans aucun dĂ©bat dĂ©mocratique.

PremiĂšre action de cette campagne : une plainte devant la CNIL contre le dispositif Prevent PCPC de la SNCF. Pour en savoir plus sur la campagne, lisez notre communiquĂ© de lancement ! Et retrouvez sur notre page de campagne les Ă©lĂ©ments de communication et de sensibilisation que nous avons prĂ©parĂ©s. Ils seront complĂ©tĂ©s au fil de la campagne.

Lire le communiquĂ© de lancement de la campagne : https://www.laquadrature.net/2024/05/02/contre-lempire-de-la-videosurveillance-algorithmique-la-quadrature-du-net-contre-attaque/
Le site de campagne : hhttps://www.laquadrature.net/vsa/

Hadopi : la CJUE renonce Ă  protĂ©ger l’anonymat en ligne

C’est une affaire qui commence en 2019. Dans le cadre de nos actions contre Hadopi, nous avions soulevĂ© devant le Conseil d’État le problĂšme de l’absence de contrĂŽle prĂ©alable Ă  la collecte des adresses IP et de l’identitĂ© civile des internautes, et la question de la licĂ©itĂ© de cette collecte au regard du droit de l’UE. AprĂšs un circuit complet, du Conseil d’État au Conseil constitutionnel et retour, le Conseil d’État avait dĂ©cidĂ© de transmettre le problĂšme sous forme d’une « question prĂ©judicielle Â» Ă  la Cour de justice de l’Union europĂ©enne (CJUE). Celle-ci a rendu une dĂ©cision trĂšs dĂ©cevante ce mardi 30 avril. À rebours de sa dĂ©cision de 2020, la CJUE autorise toujours la collecte massive de l’identitĂ© civile des internautes, et admet dĂ©sormais que l’association de celle-ci avec l’adresse IP et une communication peut se faire pour n’importe quel motif. Elle semble valider de guerre lasse la pratique illicite des États europĂ©ens depuis des annĂ©es. Tous les dĂ©tails de cette dĂ©cision et de ses consĂ©quences dans notre article de rĂ©action.

Lire notre rĂ©action : https://www.laquadrature.net/2024/04/30/surveillance-et-hadopi-la-justice-europeenne-enterre-un-peu-plus-lanonymat-en-ligne/

Soutenir La Quadrature en 2024

Nous avons besoin de vous pour travailler en 2024, et nous avons pour le moment atteint 60% de notre objectif de collecte. N’hĂ©sitez pas Ă  faire un don de soutien Ă  l’association, ou Ă  faire connaĂźtre notre campagne de dons autour de vous. Merci pour votre aide !

PrĂ©sentation des grands chantiers de 2024 : https://www.laquadrature.net/donner/ et https://www.laquadrature.net/2023/11/15/de-nouveaux-combats-pour-2024/
Faire un don Ă  La Quadrature : https://don.laquadrature.net/

Agenda

La Quadrature dans les médias

VSA et JO

Hadopi

Divers


Contre l’empire de la vidĂ©osurveillance algorithmique, La Quadrature du Net contre-attaque

Thu, 02 May 2024 14:02:58 +0000 - (source)

L’« expĂ©rimentation Â» de la vidĂ©osurveillance algorithmique (VSA) dans le cadre fixĂ© par la loi « Jeux Olympiques Â» adoptĂ©e l’an dernier n’en est pas une : elle n’est qu’une manƓuvre hypocrite destinĂ©e Ă  lĂ©galiser par petites touches une infrastructure policiĂšre dĂ©jĂ  massivement dĂ©ployĂ©e en France. Pour contrer cette stratĂ©gie, La Quadrature du Net lance aujourd’hui une campagne visant Ă  nourrir l’opposition populaire Ă  la VSA, une technologie basĂ©e sur des techniques d’« Intelligence Artificielle Â» qui s’assimile Ă  un contrĂŽle constant et automatisĂ© des espaces publics, et qui marque un tournant historique dans la surveillance d’État. Une plainte a Ă©galement Ă©tĂ© dĂ©posĂ©e devant la CNIL afin de dĂ©noncer l’hypocrisie des promoteurs de la VSA et pointer l’incurie de l’autoritĂ© de protection des donnĂ©es personnelles.

Le prétexte des Jeux Olympiques

Depuis quelques jours, les services de police du pays et les services de sĂ©curitĂ© des sociĂ©tĂ©s de transport ont lĂ©galement recours Ă  la VSA1Voir notre article consacrĂ© aux premiers arrĂȘtĂ©s prĂ©fectoraux autorisant le recours Ă  la VSA.. Fin avril, invoquant des afflux importants de personnes liĂ©s Ă  des matchs de foot ou des concerts, la prĂ©fecture de police de Paris a en effet autorisĂ© la SNCF et la RATP Ă  utiliser les technologies de la startup Wintics pour croiser les flux des centaines de camĂ©ras installĂ©es dans certaines gares et stations de mĂ©tro parisiennes2Les catĂ©gories d’évĂ©nements Ă  repĂ©rer par les systĂšmes de VSA reprennent une partie des catĂ©gories prĂ©vues par la loi de 2023, en l’espĂšce : franchissement ou prĂ©sence d’une personne dans une zone interdite ou sensible, densitĂ© trop importante de personnes, mouvement de foule, prĂ©sence d’objets abandonnĂ©s.. Ces « expĂ©rimentations Â» vont se poursuivre jusqu’en mars 2025, dans le cadre juridique fixĂ© par la loi relative aux Jeux Olympiques adoptĂ©e l’an dernier.

Qu’importe l’efficacitĂ© dĂ©risoire de ces systĂšmes de surveillance automatisĂ©e des espaces publics. Pour le ministĂšre de l’intĂ©rieur, les industriels et leurs relais politiques, ces expĂ©rimentations servent avant tout Ă  dĂ©tourner l’attention, alors qu’en parallĂšle, des centaines de systĂšmes de VSA sont illĂ©galement utilisĂ©s depuis des annĂ©es par l’État, les collectivitĂ©s locales ou les rĂ©gies de transport. Il s’agit aussi de faire oublier qu’au croisement d’intĂ©rĂȘts Ă©conomiques, Ă©lectoralistes et autoritaires, les promoteurs de la Technopolice travaillent depuis des annĂ©es Ă  l’imposition de la VSA partout sur le territoire.

Le pire est Ă  venir

De fait, les projets de loi visant Ă  pĂ©renniser la VSA en recourant aux applications les plus sensibles – Ă  l’image de la reconnaissance faciale en temps rĂ©el dans l’espace public ou de la vidĂ©overbalisation automatique des petites infractions – sont pour certains dĂ©jĂ  dans les cartons.

La proposition de loi Transports est un parfait exemple : l’AssemblĂ©e nationale s’apprĂȘte Ă  dĂ©battre de cette proposition poussĂ©e par la droite sĂ©natoriale et visant Ă  lĂ©galiser la VSA dans les transports. Le gouvernement soutient l’initiative parlementaire puisqu’il a activĂ© la procĂ©dure accĂ©lĂ©rĂ©e sur ce texte, sans mĂȘme attendre les Ă©valuations imposĂ©es par la loi JO3Guillaume Jacquot. « Transports : le SĂ©nat adopte une proposition de loi qui renforce l’arsenal de sĂ©curitĂ©, avec le soutien du gouvernement Â», Public SĂ©nat, 14 fĂ©vrier 2024..

Par ailleurs, en juin 2023, soit moins de trois mois aprĂšs l’adoption de la loi JO, le SĂ©nat reprenait un projet d’expĂ©rimentation d’abord mĂ»ri par la majoritĂ© macroniste en adoptant une proposition de loi prĂ©voyant une expĂ©rimentation de trois ans de la reconnaissance faciale couplĂ©e Ă  la vidĂ©osurveillance. « Trop tĂŽt Â», avait en substance rĂ©pondu le gouvernement, estimant que les conditions politiques n’étaient pas rĂ©unies et prĂ©fĂ©rant s’en tenir Ă  une stratĂ©gie des petits pas4Simon Barbarit, « Reconnaissance faciale : le SĂ©nat adopte une proposition de loi pour expĂ©rimenter cette technologie Â». Public SĂ©nat, 12 juin 2023..

DĂ©noncer l’hypocrisie ambiante

Pour mieux illustrer l’hypocrisie des « expĂ©rimentations Â» liĂ©es Ă  la loi JO, La Quadrature du Net vient de dĂ©poser une plainte devant la CNIL contre un dĂ©ploiement de la VSA totalement illĂ©gal et restĂ© largement sous les radars : le projet Prevent PCP.

Associant la SNCF et la RATP avec un panel d’entreprises, dont le groupe Atos et ChapsVision (par ailleurs toutes deux prestataires des expĂ©rimentations liĂ©es Ă  la loi JO), Prevent PCP prend formellement la forme d’un marchĂ© public subventionnĂ© par l’Union europĂ©enne. En pratique, les entreprises voient leurs systĂšmes de VSA dĂ©ployĂ©s dans des grandes gares Ă  travers l’Europe pour dĂ©tecter des « bagages abandonnĂ©s Â», via une mĂ©thode reposant sur l’identification et le suivi des propriĂ©taires des bagages. En France, ces systĂšmes de VSA sont ainsi dĂ©ployĂ©s depuis des mois dans la gare du Nord et la gare de Lyon Ă  Paris ou, plus rĂ©cemment, dans la gare de Marseille-Saint-Charles.

GrĂące aux Ă©lĂ©ments mis au jour par le groupe local Technopolice Marseille, La Quadrature du Net a donc dĂ©posĂ© une plainte devant la CNIL contre ce projet, qui n’est qu’un exemple parmi les centaines de dĂ©ploiements illĂ©gaux de la VSA en France. À travers cette dĂ©marche, il s’agit de renvoyer l’autoritĂ© en charge de la protection des donnĂ©es personnelles au rĂŽle qui devrait ĂȘtre le sien, alors qu’elle laisse prolifĂ©rer des projets illĂ©gaux de VSA tout en accompagnant le processus de lĂ©galisation. Cette plainte permet Ă©galement de souligner l’hypocrisie des protagonistes de Prevent PCP : alors mĂȘme qu’elles prennent part Ă  l’expĂ©rimentation de la VSA prĂ©vue par loi JO, la SNCF, la RATP, Atos ou ChapsVision se livrent en parallĂšle Ă  des dĂ©ploiements dĂ©pourvus de toute base lĂ©gale.

Nourrir une opposition populaire Ă  la VSA

Aujourd’hui, La Quadrature du Net lance Ă©galement diffĂ©rents outils destinĂ©s Ă  nourrir des mobilisations contre la VSA dans les prochains mois, et rĂ©sister Ă  sa lĂ©galisation programmĂ©e. Une brochure dĂ©taillĂ©e expliquant les dangers de la VSA, ainsi que des affiches destinĂ©es Ă  informer la population sont disponibles sur cette page de campagne dĂ©diĂ©e, qui sera enrichie dans les semaines et mois Ă  venir5La page de campagne est disponible Ă  l’adresse laquadrature.net/vsa..

Cette campagne contre la VSA s’inscrit dans le cadre de l’initiative Technopolice, lancĂ©e en 2019 par La Quadrature pour rĂ©sister au nouvelles technologies de surveillance policiĂšre. Le site Technopolice propose un forum public ainsi qu’une plateforme de documentation participative (appelĂ©e le « carrĂ© Â»), libre d’utilisation et destinĂ©s Ă  organiser et fĂ©dĂ©rer des collectifs locaux opposĂ©s Ă  ces technologies.

Pour faire la lumiĂšre sur les arrĂȘtĂ©s prĂ©fectoraux qui autorisent localement la VSA dans le cadre de la loi JO, nous avons Ă©galement lancĂ© un compte Mastodon, Attrap’Surveillance, qui analyse les recueils des actes administratifs des prĂ©fectures et diffuse des alertes lorsque des autorisations de surveillance policiĂšre sont dĂ©tectĂ©es. C’est ce dispositif qui a permis de repĂ©rer mi-avril les premiers arrĂȘtĂ©s de VSA. Dans les prochaines semaines, il permettra d’ĂȘtre averti des expĂ©rimentations de la VSA autorisĂ©es par les prĂ©fets afin de les dĂ©noncer.

Par tous les moyens, il nous faut faire valoir notre refus d’un contrĂŽle permanent de nos faits et gestes, dĂ©noncer ces expĂ©rimentations, documenter les projets illĂ©gaux qui continuent de prolifĂ©rer, et nous organiser localement pour battre en brĂšche la Technopolice. Ensemble, luttons pour que l’espace public ne se transforme pas dĂ©finitivement en lieu de rĂ©pression policiĂšre, pour que nos villes et nos villages soient des espaces de libertĂ©, de crĂ©ativitĂ© et de rencontres !

Pour suivre l’actualitĂ© de La Quadrature et suivre cette campagne contre la VSA, vous pouvez vous abonner Ă  notre lettre d’information.

References

References
1 Voir notre article consacrĂ© aux premiers arrĂȘtĂ©s prĂ©fectoraux autorisant le recours Ă  la VSA.
2 Les catĂ©gories d’évĂ©nements Ă  repĂ©rer par les systĂšmes de VSA reprennent une partie des catĂ©gories prĂ©vues par la loi de 2023, en l’espĂšce : franchissement ou prĂ©sence d’une personne dans une zone interdite ou sensible, densitĂ© trop importante de personnes, mouvement de foule, prĂ©sence d’objets abandonnĂ©s.
3 Guillaume Jacquot. « Transports : le SĂ©nat adopte une proposition de loi qui renforce l’arsenal de sĂ©curitĂ©, avec le soutien du gouvernement Â», Public SĂ©nat, 14 fĂ©vrier 2024.
4 Simon Barbarit, « Reconnaissance faciale : le SĂ©nat adopte une proposition de loi pour expĂ©rimenter cette technologie Â». Public SĂ©nat, 12 juin 2023.
5 La page de campagne est disponible à l’adresse laquadrature.net/vsa.

Surveillance et Hadopi : la justice europĂ©enne enterre un peu plus l’anonymat en ligne

Tue, 30 Apr 2024 09:42:17 +0000 - (source)

Dans son arrĂȘt du 30 avril 2024, la Cour de justice de l’Union europĂ©enne (CJUE) vient de rendre sa dĂ©cision concernant la lĂ©galitĂ© du systĂšme de surveillance massif de la Hadopi. Cet arrĂȘt est dĂ©cevant. La CJUE tempĂšre trĂšs fortement sa prĂ©cĂ©dente jurisprudence, au-delĂ  du cas de la Hadopi. En considĂ©rant dĂ©sormais que l’accĂšs aux adresses IP n’est pas sensible, elle admet la possibilitĂ© de surveiller massivement Internet.

La Cour de justice de l’Union europĂ©enne vient d’autoriser l’accĂšs massif et automatisĂ© Ă  l’adresse IP associĂ©e Ă  l’identitĂ© civile et au contenu d’une communication. Le tout pour des finalitĂ©s triviales et sans contrĂŽle prĂ©alable par un juge ou par une autoritĂ© administrative indĂ©pendante.

L’arrĂȘt du 30 avril 2024 est un revirement de jurisprudence. La CJUE vient d’autoriser un accĂšs massif aux adresses IP associĂ©es Ă  l’identitĂ© civile de l’internaute. Les polices de toute l’Europe, aprĂšs une dĂ©cennie de combat oĂč les États ont dĂ©libĂ©rĂ©ment choisi de ne pas appliquer les nombreuses dĂ©cisions prĂ©cĂ©dentes de la CJUE, viennent de l’emporter. C’est une prime Ă  l’abus, un signe trĂšs fort lancĂ© aux pays autoritaires : la CJUE admet qu’elle finira par changer sa jurisprudence si ses dĂ©cisions ne sont pas appliquĂ©es. C’est un affaiblissement inquiĂ©tant de l’autoritĂ© de la Cour face Ă  la pression des États membres.

Alors qu’en 2020, la CJUE considĂ©rait que la conservation des adresses IP constitue une ingĂ©rence grave dans les droits fondamentaux et que ces derniĂšres ne peuvent faire l’objet d’un accĂšs, associĂ© Ă  l’identitĂ© civile de l’internaute, seulement dans des cas de criminalitĂ© grave ou d’atteinte Ă  la sĂ©curitĂ© nationale, tel n’est aujourd’hui plus le cas. La CJUE renverse son raisonnement : elle estime dĂ©sormais que la conservation des adresses IP n’est, par dĂ©faut, plus une atteinte grave aux libertĂ©s fondamentales, et que dans certains cas seulement cet accĂšs porte une ingĂ©rence grave qu’il faut entourer de garanties.

Concernant notre affaire et le cas prĂ©cis de la Hadopi en France, la Cour pousse seulement la Hadopi Ă  Ă©voluer. Elle estime que dans certaines situations « atypiques Â» l’accĂšs Ă  l’adresse IP et l’identitĂ© civile associĂ©e Ă  une Ɠuvre culturelle peut crĂ©er une ingĂ©rence grave dans le droit Ă  la vie privĂ©e (on peut penser au cas d’une Ɠuvre permettant de tirer des conclusions relatives aux opinions politiques, Ă  l’orientation sexuelle, etc.) ; elle estime aussi que cet accĂšs porte une ingĂ©rence grave en cas de « rĂ©itĂ©ration Â» et exige dĂšs lors que l’accĂšs aux adresses IP ne puisse pas ĂȘtre « entiĂšrement automatisĂ© Â». Mais dans tous les autres cas la CJUE dit bien que la Hadopi peut accĂ©der de maniĂšre massive et automatisĂ©e Ă  l’identitĂ© civile des personnes.

Autrement dit, la riposte graduĂ©e (du nom de la procĂ©dure suivie par Hadopi qui consiste Ă  envoyer plusieurs avertissements dans les premiers temps, avant de saisir la justice si l’internaute ne « sĂ©curise Â» pas sa connexion) devra changer de forme. Le lĂ©gislateur devra inventer une machine Ă  gaz pour prĂ©voir un pseudo contrĂŽle externe indĂ©pendant de l’accĂšs Ă  l’identitĂ© civile par la Hadopi. Alors qu’aujourd’hui il n’existe aucune obligation de contrĂŽle externe de la Hadopi, l’autoritĂ© devra dĂ©sormais prĂ©voir un tel contrĂŽle lorsqu’elle souhaite, dans ces cas « atypiques Â» ou en cas de « rĂ©itĂ©ration Â» de l’internaute, accĂ©der Ă  l’identitĂ© civile. En somme, des agent·es externes Ă  la Hadopi seront chargé·es de cliquer sur un bouton « autoriser Â», lĂ  oĂč aujourd’hui la Hadopi se l’autorise elle-mĂȘme.

Plus gĂ©nĂ©ralement, cet arrĂȘt de la Cour europĂ©enne a surtout validĂ© la fin de l’anonymat en ligne. Alors qu’en 2020 elle prĂ©cisait qu’il existait un droit Ă  l’anonymat en ligne concrĂ©tisĂ© par la directive ePrivacy, elle l’abandonne aujourd’hui. Et pour cause : en permettant Ă  la police d’accĂ©der largement Ă  l’identitĂ© civile associĂ©e Ă  une adresse IP et au contenu d’une communication, elle met de facto fin Ă  l’anonymat en ligne.

Nous nous attendons dĂ©sormais Ă  ce que le Conseil d’État sauve la Hadopi, malgrĂ© cet arrĂȘt. La Quadrature du Net continuera son combat contre la surveillance en ligne, y compris celle de la Hadopi. Pour nous aider, vous pouvez nous faire un don.


QSPTAG #306 — 26 avril 2024

Fri, 26 Apr 2024 15:13:12 +0000 - (source)

VSA et JO : top dĂ©part

Vous le savez, la loi JO votĂ©e en 2023 autorise la vidĂ©osurveillance algorithmique (VSA) Ă  titre « d’expĂ©rimentation Â» sur une pĂ©riode assez Ă©tendue, jusqu’Ă  2025. On attendait les arrĂȘtĂ©s prĂ©fectoraux nĂ©cessaires pour les utilisations de la VSA lors des Ă©vĂ©nements publics qui doivent servir de terrain d’essai. Les premiers arrĂȘtĂ©s sont arrivĂ©s durant ce mois d’avril.

La RATP et la SNCF ont ainsi pu surveiller automatiquement les personnes Ă  l’occasion du match PSG-OL du 21 au 22 avril et lors du concert des Black Eyed Peas le 20 avril, sur des camĂ©ras installĂ©es Ă  la Gare de Lyon et prĂšs du pont du Garigliano, ainsi que l’ensemble des camĂ©ras des stations de mĂ©tro et de RER dans les gares de Nanterre PrĂ©fecture et de La DĂ©fense Grande Arche.

La Quadrature du Net s’est mobilisĂ©e depuis 2019 contre cette technologie et continue sa bataille. Nous vous tiendrons au courant dans les prochaines semaines des actions Ă  venir !

Lire l’article : https://www.laquadrature.net/2024/04/17/experimentation-de-la-vsa-les-premieres-autorisations-sont-tombees/

La loi SREN aggravée en commission paritaire

Nous avions suivi depuis mai 2023 les discussions de la loi pour « SĂ©curiser et rĂ©guler l’espace numĂ©rique Â» (SREN), qui Ă©tait encore travaillĂ©e en mars dernier par la commission mixte paritaire – un groupe de membres de l’AssemblĂ©e nationale et du SĂ©nat Ă  parts Ă©gales – pour trouver un accord sur un texte commun entre les deux chambres.

La commission a rendu son travail le 16 mars, et le rĂ©sultat n’est pas bon. VĂ©rification obligatoire de l’Ăąge des internautes sur les plateformes, retrait des contenus signalĂ©s par la police sans validation par un juge (censure administrative), « dĂ©lit d’outrage en ligne Â» mal dĂ©fini, filtrage des sites au niveau du navigateur, etc.

La plupart de ces mesures sont nocives parce qu’elles instaurent des exceptions ou des restrictions Ă  la libertĂ© de communication sous des prĂ©textes populaires (protĂ©ger les enfants, en particulier), en autorisant des moyens d’action faciles Ă  utiliser ensuite pour d’autres buts, et placĂ©s entre les mains de la police ou des caprices des gouvernements.

Certaines mesures entrent mĂȘme directement en conflit avec le droit de l’Union europĂ©enne. Le texte oblige par exemple les plateformes Ă  vĂ©rifier l’Ăąge des internautes. Une obligation qui ne peut ĂȘtre imposĂ©e qu’au niveau europĂ©en. Pour contourner l’obstacle, la derniĂšre version du texte cible seulement les plateformes situĂ©es « en France ou hors de l’Union europĂ©enne Â»

Découvrez tous les détails diaboliques du texte en lisant notre article.

Lire l’article : https://www.laquadrature.net/2024/04/09/projet-de-loi-sren-le-parlement-saccorde-pour-mettre-au-pas-internet/

Surveillance des militants

SoupçonnĂ©es de s’ĂȘtre introduites dans une cimenterie Lafarge en dĂ©cembre 2023, dans le cadre d’une action Ă©cologiste, dix-sept personnes ont Ă©tĂ© arrĂȘtĂ©es le 8 avril 2024. Dans le cadre d’un rassemblement de soutien organisĂ© Ă  Aix-en-Provence, un membre de La Quadrature a lu un texte pour exprimer l’inquiĂ©tude de l’association. Sous prĂ©texte de « lutte contre le terrorisme Â», on a donnĂ© Ă  la police et aux services de renseignement des moyens de surveillance numĂ©rique dĂ©mesurĂ©s, trĂšs intrusifs, peu ou mal contrĂŽlĂ©s, utilisĂ©s pour monter des dossiers criminels contre des citoyen·nes exerçant des droits politiques lĂ©gitimes. De l’aveu mĂȘme des services, la part des militant·es surveillé·es a doublĂ© dans les cinq derniĂšres annĂ©es. Un texte Ă  lire en intĂ©gralitĂ© sur notre site.

Lire l’article : https://www.laquadrature.net/2024/04/08/contre-la-criminalisation-et-la-surveillance-des-militant%c2%b7es-politiques/

Soutenir La Quadrature en 2024

Nous avons besoin de vous pour travailler en 2024 ! N’hĂ©sitez pas Ă  faire un don de soutien Ă  l’association, ou Ă  faire connaĂźtre notre campagne de dons autour de vous. Merci pour votre aide !

PrĂ©sentation des grands chantiers de 2024 : https://www.laquadrature.net/donner/ et https://www.laquadrature.net/2023/11/15/de-nouveaux-combats-pour-2024/
Faire un don Ă  La Quadrature : https://don.laquadrature.net/

Agenda

La Quadrature dans les médias

VSA et JO

Algos de contrĂŽle social

Loi SREN

Surveillance

Divers


Expérimentation de la VSA : les premiÚres autorisations sont tombées

Wed, 17 Apr 2024 12:25:30 +0000 - (source)

Les premiers arrĂȘtĂ©s prĂ©fectoraux autorisant la vidĂ©osurveillance algorithmique (VSA) dans le cadre de la loi JO viennent d’ĂȘtre publiĂ©s. La RATP et la SNCF peuvent dĂ©sormais surveiller automatiquement les personnes Ă  l’occasion du match PSG/OL du 19 au 22 avril et du concert des Black Eyed Peas le 20 avril. La Quadrature du Net s’est mobilisĂ©e depuis 2019 contre cette technologie et continue sa bataille. Nous vous tiendrons au courant dans les prochaines semaines des actions Ă  venir.

DĂ©ployĂ©e en toute illĂ©galitĂ© depuis des annĂ©es et autorisĂ©e de façon inĂ©dite en Europe avec la loi sur les JOP, la vidĂ©osurveillance algorithmique Ă©tait dans les starting blocks pour ĂȘtre utilisĂ©e pour la premiĂšre fois par la police. C’est maintenant chose faite.

La prĂ©fecture de police de Paris a autorisĂ© ce 17 avril 2024 l’utilisation du logiciel de VSA de la sociĂ©tĂ© Wintics par la SNCF et la RATP. La surveillance commencera dĂšs le 19 avril sur 118 camĂ©ras de la gare de Lyon et du pont du Garigliano Ă  Paris. Elle concernera Ă©galement le 20 avril l’ensemble des camĂ©ras des stations de mĂ©tro et de RER des gares de Nanterre PrĂ©fecture et de La DĂ©fense Grande Arche.

La rumeur d’une autorisation de VSA Ă  l’occasion du match PSG-OL circulait depuis plusieurs semaines puisque la SNCF annonçait depuis quelques temps sur des affiches gare de Lyon avoir obtenu une autorisation de la prĂ©fecture de Police. On apprenait sur cette affiche que la SNCF procĂ©dait dĂ©jĂ  Ă  des « tests Â» liĂ©s Ă  la phase de conception de l’algorithme, oĂč les personnes filmĂ©es servent de cobayes pour ajuster les logiciels. Des tests ont aussi Ă©tĂ© effectuĂ©s lors de deux concerts de Depeche Mode Ă  Paris. Une autre affiche dans les couloirs du mĂ©tro parisien indiquait que des expĂ©rimentations allaient aussi bientĂŽt ĂȘtre mises en Ɠuvre par la RATP.

Affiche de la SNCF Affiche de la RATP
 

Nous avons dĂ©veloppĂ© un outil de recensement des autorisations prĂ©fectorales de surveillance, dont l’information fait quasi systĂ©matiquement dĂ©faut, ce qui empĂȘche les personnes surveillĂ©es d’ĂȘtre au courant de ces mesures. Cet outil, dĂ©nommĂ© « Attrap’Surveillance Â» (pour Automate de Traque des Termes de Recherche dans les ArrĂȘtĂ©s PrĂ©fectoraux), analyse automatiquement les recueils des actes administratifs de chaque prĂ©fecture afin d’y repĂ©rer les autorisations prĂ©fectorales d’utilisation des drones et de VSA. C’est comme cela que nous avons pu apprendre la publication aujourd’hui de la premiĂšre autorisation formelle d’une utilisation rĂ©pressive de la VSA Ă  Paris. En publiant aussi tardivement ces arrĂȘtĂ©s, le prĂ©fet de police tente d’Ă©viter au maximum les recours en justice, qui n’auront probablement pas le temps d’ĂȘtre jugĂ©s avant le dĂ©but de la surveillance algorithmique.

Face Ă  la concrĂ©tisation de cette surveillance, aux abus qui se profilent et Ă  la Technopolice qui avance illĂ©galement en parallĂšle de la loi JO, La Quadrature du Net s’apprĂȘte Ă  rĂ©pliquer. Nous vous tiendrons au courant dans les prochaines semaines des actions Ă  venir.


Projet de loi SREN : le Parlement s’accorde pour mettre au pas Internet

Tue, 09 Apr 2024 13:10:02 +0000 - (source)

Nous vous parlions l’annĂ©e derniĂšre du projet de loi SREN (pour « SĂ©curiser et rĂ©guler l’espace numĂ©rique Â»). Il s’agit d’un texte censĂ© rĂ©guler les plateformes en ligne, dont nombre de ses mesures ont rĂ©vĂ©lĂ© une vision archaĂŻque d’Internet1Voir notre analyse gĂ©nĂ©rale du texte, celle spĂ©cifique du filtre anti-arnaque, et celle sur la vĂ©rification de l’Ăąge en ligne co-Ă©crite avec Act Up-Paris.. Le 26 mars dernier, dĂ©puté·es et sĂ©nateur·rices de la commission mixte paritaire (CMP) se sont accordé·es sur une version commune du texte. Les modifications apportĂ©es ne sont pourtant que cosmĂ©tiques. AprĂšs son vote la semaine derniĂšre par le SĂ©nat, cette version commune doit encore ĂȘtre votĂ©e par l’AssemblĂ©e nationale demain. Nous appelons cette derniĂšre Ă  le rejeter.

VĂ©rification de l’Ăąge : s’isoler plutĂŽt que de se conformer au droit europĂ©en

Si le projet de loi SREN met autant de temps Ă  ĂȘtre votĂ©, c’est que la France mĂšne depuis plusieurs mois un bras de fer avec la Commission europĂ©enne. Normalement, la rĂ©gulation des plateformes en ligne se dĂ©cide au niveau de l’ensemble de l’Union europĂ©enne. Pourtant, avec ce texte, le gouvernement français a dĂ©cidĂ© de n’en faire qu’Ă  sa tĂȘte. En voulant forcer les plateformes hĂ©bergeant du contenu pornographique Ă  vĂ©rifier l’Ăąge des internautes, mesure inutile qui n’empĂȘchera pas les mineur·es d’accĂ©der Ă  ces contenus, la France souhaite ainsi s’affranchir des rĂšgles europĂ©ennes qui s’imposent normalement Ă  elle.

La Commission europĂ©enne n’a Ă©videmment pas vu cela d’un bon Ɠil. Elle a donc actionnĂ© les pouvoirs qui lui sont octroyĂ©s dans ce genre de situations, et a bloquĂ© le texte Ă  deux reprises, arguant que le projet de loi SREN empiĂ©tait sur le droit de l’Union.

La parade trouvĂ©e par la CMP consiste Ă  restreindre l’obligation de vĂ©rification de l’Ăąge des internautes aux seules plateformes Ă©tablies « en France ou hors de l’Union europĂ©enne Â». Autrement dit, puisque les plateformes europĂ©ennes ne sont plus concernĂ©es par cette vĂ©rification d’Ăąge, cette mesure ne rentre plus dans le champ du droit europĂ©en, et la Commission europĂ©enne n’a plus rien Ă  dire ! Stupide, mais habile formalisme.

La France dĂ©cide ainsi de s’isoler du reste de l’Union : les plateformes françaises ou non-europĂ©ennes devront faire cette vĂ©rification d’Ăąge, alors que les plateformes europĂ©ennes en seront Ă©pargnĂ©es. On fĂ©licitera l’audace de la parade : alors qu’habituellement, pour refuser les rĂ©gulations sur les sujets numĂ©riques, le gouvernement français est le premier Ă  brandir la concurrence des États sur Internet et le risque que les acteurs français s’enfuient Ă  l’Ă©tranger en cas de « sur-rĂ©gulation Â» (argument brandi par exemple pour dĂ©tricoter le rĂšglement IA ou supprimer l’interopĂ©rabilitĂ© des rĂ©seaux sociaux), il semble ici s’accommoder prĂ©cisĂ©ment de ce qu’il dĂ©nonce, puisque les plateformes françaises seront pĂ©nalisĂ©es par rapport Ă  celles situĂ©es dans le reste de l’UE. Tout ça pour garder la face.

Ce tour de passe-passe politique ne doit nĂ©anmoins pas masquer la rĂ©alitĂ© de cette vĂ©rification d’Ăąge. Au-delĂ  d’une question d’articulation avec le droit de l’Union europĂ©enne, cette mesure, comme nous le dĂ©nonçons depuis le dĂ©but, mettra fin Ă  toute possibilitĂ© d’anonymat en ligne, notamment sur les rĂ©seaux sociaux (voir notre analyse et celle d’Act Up-Paris sur la question de la vĂ©rification de l’Ăąge).

Vous reprendrez bien un peu de censure automatisĂ©e ?

Le texte final de ce projet de loi prĂ©voit d’Ă©tendre la censure automatisĂ©e. Ses articles 3 et 3 bis A prĂ©voient une obligation de censure en 24 heures des contenus, respectivement d’abus sexuels sur enfants et de reprĂ©sentation d’actes de torture et de barbarie. Le mĂ©canisme est un calque de la censure automatisĂ©e des contenus Ă  caractĂšre terroriste : une notification de la police, une obligation de censure en 24h sous peine de fortes amendes et de plusieurs annĂ©es de prison, un contrĂŽle par la justice qui n’est pas obligatoire puisque le juge doit ĂȘtre saisi une fois la censure effective par l’hĂ©bergeur des contenus et non par la police.

La Quadrature du Net, tout comme de nombreuses autres organisations, dĂ©noncent depuis des annĂ©es le fait que ce systĂšme de censure administrative en trĂšs peu de temps aura comme consĂ©quence une automatisation de la censure : face aux sanctions monstrueuses en cas de non-retrait, et alors que les hĂ©bergeurs n’ont que trĂšs peu de temps pour agir, ils seront nĂ©cessairement poussĂ©s Ă  ne pas contester la police et Ă  censurer les contenus qu’on leur demande de retirer. C’est d’ailleurs exactement ce mĂ©canisme qu’avait censurĂ© le Conseil constitutionnel en 2020 avec la loi Avia, et qu’avec cinq autres associations nous dĂ©nonçons devant la justice Ă  propos du rĂšglement europĂ©en de censure terroriste.

Et le prĂ©texte de la lutte contre les abus sexuels sur mineur·es ou la lutte contre les actes de torture ou de barbarie ne peut justifier ces censures. Tout comme le projet de rĂšglement europĂ©en CSAR (pour « Child sexual abuse regulation Â», aussi appelĂ© « Chat Control Â»), le projet de loi SREN ne rĂ©soudra pas le problĂšme des abus sexuels sur mineur·es ni des actes de torture en censurant ces contenus. Une autre politique, ambitieuse, pour lutter contre les rĂ©seaux et trafiquants, est pour cela nĂ©cessaire.

Prendre les gens pour des schtroumpfs

Les dĂ©bats sur ce projet de loi auront, une fois de plus, dĂ©montrĂ© la piĂštre qualitĂ© des dĂ©bats parlementaires lorsqu’il s’agit de numĂ©rique2Ce qui n’est pas inĂ©dit, voir par exemple ce qui s’est passĂ© pendant les dĂ©bats sur la loi JO qui a lĂ©galisĂ© une partie de la vidĂ©osurveillance algorithmique.. Les dĂ©bats autour du filtre « anti-arnaque Â» ou de la peine de bannissement ont Ă©tĂ© particuliĂšrement rĂ©vĂ©lateurs de la maniĂšre dont le gouvernement voit les internautes : comme des incapables Ă  qui il faudrait montrer la voie, quitte Ă  mentir.

Le filtre anti-arnaque n’a pas Ă©tĂ© substantiellement modifiĂ© en CMP et la vision paternaliste que nous dĂ©noncions (voir notre analyse) est toujours prĂ©sente en l’Ă©tat actuel du texte. Ce filtre fait le constat de l’inefficacitĂ© des listes anti-hameçonnages qu’utilisent les principaux navigateurs mais, au lieu de fournir une liste anti-hameçonnage complĂ©mentaire, de qualitĂ© et transparente, le gouvernement prĂ©fĂšre forcer la main des navigateurs en leur imposant de censurer les contenus et de devenir des auxiliaires de police.

Main sur le cƓur, le gouvernement nous promet toutefois que seuls les contenus d’hameçonnage seront concernĂ©s par ce nouveau dispositif de censure que devront implĂ©menter les navigateurs. N’ayons aucune crainte, cette nouvelle maniĂšre de censurer ne sera jamais Ă©tendue Ă  tout le reste ! Difficile, en rĂ©alitĂ©, de croire un gouvernement d’Emmanuel Macron alors que ce dernier a clairement adoptĂ© depuis son arrivĂ©e Ă  l’ÉlysĂ©e une politique de remise en cause drastique des libertĂ©s fondamentales (voir notre rĂ©capitulatif en 2022 pour son premier mandat).

Et difficile de croire un gouvernement dont le ministre Jean-NoĂ«l Barrot, lorsqu’il Ă©tait chargĂ© de dĂ©fendre ce texte avant d’ĂȘtre dĂ©barquĂ© des affaires numĂ©riques, n’hĂ©sitait pas Ă  raconter n’importe quoi pour mieux faire passer la pilule. Car la peine de bannissement de rĂ©seaux sociaux, prĂ©vue Ă  l’article 5 du projet de loi, nĂ©cessite que les plateformes connaissent l’identitĂ© des personnes ouvrant un compte (et ce afin d’empĂȘcher que les personnes bannies ne reviennent sur la plateforme). Or, questionnĂ© sur France Culture Ă  propos des atteintes Ă  l’anonymat en ligne qu’implique cette mesure, le ministre Barrot a prĂ©fĂ©rĂ© mentir plutĂŽt que d’admettre le problĂšme. Il a affirmĂ© que le projet de loi ne prĂ©voyait qu’« une obligation de moyens [d’empĂȘcher un·e internaute banni·e de se refaire un compte] mais qui n’est pas sanctionnĂ©e par une amende Â». Sauf que c’est totalement faux : un rĂ©seau social qui n’aurait pas empĂȘchĂ© un·e internaute banni·e de se refaire un compte risquera jusqu’Ă  75 000 € d’amende par compte recrĂ©Ă©. Et ce point n’a pas Ă©voluĂ© lors des dĂ©bats parlementaires.

DĂ©tricoter la loi de 1881 sur la libertĂ© d’expression

Le texte final comporte une grande nouveautĂ© : le dĂ©lit d’outrage en ligne a Ă©tĂ© rĂ©introduit par la CMP. Cette disposition, initialement introduite par le SĂ©nat puis supprimĂ©e par l’AssemblĂ©e nationale car jugĂ©e trop dangereuse, consiste Ă  faire des abus d’expression en ligne une circonstance aggravante par rapport aux cas oĂč ils seraient commis hors ligne. ConcrĂštement, le projet de loi SREN sanctionne de 3 750 euros d’amende et d’un an d’emprisonnement le fait de « diffuser en ligne tout contenu qui soit porte atteinte Ă  la dignitĂ© d’une personne ou prĂ©sente Ă  son Ă©gard un caractĂšre injurieux, dĂ©gradant ou humiliant, soit crĂ©e Ă  son encontre une situation intimidante, hostile ou offensante Â».

Il s’agit donc d’un dĂ©lit extrĂȘmement large puisque la notion de « situation intimidante, hostile ou offensante Â» n’est nullement dĂ©finie lĂ©galement et sera la porte ouverte aux interprĂ©tations larges. De plus, la possibilitĂ© de sanctionner ce dĂ©lit par une amende forfaitaire rajoute des possibilitĂ©s d’abus, ce que dĂ©noncent dĂ©jĂ  des avocat·es et la DĂ©fenseure des droits. Mais ce dĂ©lit peut Ă©galement ĂȘtre sanctionnĂ© par une peine de bannissement.

Surtout, ce dĂ©lit d’outrage en ligne dĂ©roge Ă  la loi de 1881. Cette loi est le socle qui rĂ©git aujourd’hui les abus d’expression, y compris en ligne : elle prĂ©voit des mĂ©canismes qui Ă©vitent les abus (dĂ©lais de prescription courts, procĂ©dures particuliĂšres, etc.). Exit ces garde-fous : en introduisant ce dĂ©lit d’outrage en ligne dans le code pĂ©nal et non dans la loi de 1881, le lĂ©gislateur concrĂ©tise une longue envie de la droite autoritaire de dĂ©tricoter cette loi. Pourquoi, pourtant, faudrait-il abandonner les protections de la loi de 1881 pour le simple fait que ce serait en ligne, alors que la presse papier ou la tĂ©lĂ©vision sont souvent des dĂ©versoirs de haine ?

Le projet de loi SREN n’a donc pas fondamentalement Ă©voluĂ©. Il s’agit toujours d’un texte fondĂ© sur un mode de rĂ©gulation d’Internet Ă  la fois vertical et brutal, qui ne peut mener qu’Ă  une impasse et une restriction des libertĂ©s. Comme si l’État ne savait pas rĂ©guler un mĂ©dia autrement sur ce modĂšle autoritaire. Les autres modĂšles de rĂ©gulation, notamment l’obligation d’interopĂ©rabilitĂ© des rĂ©seaux sociaux, ont Ă©tĂ© sĂšchement rejetĂ©s par le pouvoir. Le rĂ©sultat de ce refus de voir ce qu’est Internet est un texte inadaptĂ©, dangereux pour les droits fondamentaux et l’expression libre en ligne, et qui ne rĂ©soudra aucunement les problĂšmes auxquels il prĂ©tend s’attaquer. L’AssemblĂ©e nationale doit donc rejeter ce projet de loi. Et pour nous aider Ă  continuer la lutte, vous pouvez nous faire un don.

References

References
1 Voir notre analyse gĂ©nĂ©rale du texte, celle spĂ©cifique du filtre anti-arnaque, et celle sur la vĂ©rification de l’Ăąge en ligne co-Ă©crite avec Act Up-Paris.
2 Ce qui n’est pas inĂ©dit, voir par exemple ce qui s’est passĂ© pendant les dĂ©bats sur la loi JO qui a lĂ©galisĂ© une partie de la vidĂ©osurveillance algorithmique.

Contre la criminalisation et la surveillance des militant·es politiques

Mon, 08 Apr 2024 14:44:36 +0000 - (source)

Ce texte a Ă©tĂ© lu par un·e membre de La Quadrature du Net le 5 avril 2024 lors du rassemblement devant le Tribunal judiciaire d’Aix-en-Provence, Ă  l’occasion des deux nouvelles mises en examen dans l’affaire Lafarge.

On est lĂ  aujourd’hui pour dire notre soutien aux personnes convoquĂ©es, Ă  toutes les personnes placĂ©es en garde Ă  vue et inquiĂ©tĂ©es dans cette affaire. On est lĂ  pour dĂ©noncer l’instrumentalisation de la justice et des services antiterroristes pour rĂ©primer les militantes et militants et dissuader toute forme de dĂ©sobĂ©issance civile. LĂ , enfin, pour dire notre indignation face au recours systĂ©matique Ă  des formes de surveillance intrusives et totalement disproportionnĂ©es.

Les mises en examen de ce jour, ou celles qui les ont prĂ©cĂ©dĂ© dans cette « affaire Lafarge Â», s’inscrivent dans un contexte plus global. Jusqu’Ă  un passĂ© pas si lointain, de nombreuses formes d’action directes Ă©taient tolĂ©rĂ©es par les autoritĂ©s. Mais progressivement, en lien avec la dĂ©rive nĂ©o-libĂ©rale amorcĂ©e dans les annĂ©es 1980, l’espace accordĂ© Ă  la critique d’un systĂšme injuste et Ă©cocide a fondu comme neige au soleil. De crise en crise, on a assistĂ© Ă  la consolidation d’un État d’exception, Ă  l’inflation des services de renseignement, Ă  la multiplication de dĂ©rogations au droit libĂ©ral — un droit certes bien trop imparfait, mais qui n’en demeurait pas moins un hĂ©ritage fondamental des luttes passĂ©es. On a Ă©galement vu un pouvoir politique s’entĂȘter au point de ne plus tolĂ©rer la moindre contestation, instrumentalisant le droit commun Ă  coup d’amendes, de dissolutions, de maintien de l’ordre hyper-violent.

Le tout pour rĂ©primer toutes celles et ceux qui ont la dignitĂ© de dire leur refus d’un systĂšme Ă  la violence dĂ©complexĂ©e, et le courage de mettre ce refus en actes. Dans ce processus du criminalisation des militant·es, les services de renseignement, de police judiciaire comme les magistrats du parquet peuvent dĂ©sormais s’appuyer sur les exorbitants moyens de surveillance. Autant de dispositifs qui se sont accumulĂ©s depuis 25 ans et qui, dans l’affaire Lafarge et d’autres jugĂ©es rĂ©cemment, s’emboĂźtent pour produire une surveillance totale. Une surveillance censĂ©e produire des Ă©lĂ©ments sur lesquels pourront s’Ă©difier le rĂ©cit policier et la rĂ©pression.

Cette surveillance, elle commence par l’activitĂ© des services de renseignement. ContrĂŽles d’identitĂ© qui vous mettent dans le viseur des services, camĂ©ras et micro planquĂ©es autour de lieux militants ou dans des librairies, balises GPS, interceptions, analyse des mĂ©tadonnĂ©es, … Tout est bon pour servir les prioritĂ©s politiques et justifier la pĂ©rennisation des crĂ©dits. L’activitĂ© du renseignement consacrĂ©e Ă  la surveillance des militant·es – Ă©rigĂ©e en prioritĂ© depuis la stratĂ©gie nationale du renseignement de 2019 –, elle a doublĂ© sous Macron, passant de 6 % au moins du total des mesures de surveillance en 2017 Ă  plus de 12% en 2022.

AprĂšs le fichage administratif, aprĂšs les notes blanches du renseignement, vient le stade des investigations judiciaires. LĂ  encore, comme l’illustre l’affaire Lafarge, la surveillance en passe par le recours Ă  la vidĂ©osurveillance – plus de 100 000 camĂ©ras sur la voie publique aujourd’hui –, puis par l’identification biomĂ©trique systĂ©matique, notamment via la reconnaissance faciale et le fichier TAJ, ou quand ce n’est pas possible par le fichier des cartes d’identitĂ© et de passeport, l’infĂąme fichier TES, qui est ainsi dĂ©tournĂ©.

Pour rappel, le recours Ă  la reconnaissance faciale via le fichier TAJ, ce n’est pas de la science fiction. Ce n’est pas non plus l’exception. Il est aujourd’hui utilisĂ©e au moins 1600 fois par jour par la police, et ce alors que cette modalitĂ© d’identification dystopique n’a jamais Ă©tĂ© autorisĂ©e par une loi et que, de fait, son usage n’est pas contrĂŽlĂ© par l’autoritĂ© judiciaire.

Cette reconnaissance faciale, elle est employĂ©e y compris pour des infractions dĂ©risoires, notamment lorsqu’il s’agit d’armer la rĂ©pression d’opposants politiques comme l’ont illustrĂ© les jugements de la semaine derniĂšre Ă  Niort, un an aprĂšs Sainte-Soline. Et ce alors que le droit europĂ©en impose normalement un critĂšre de « nĂ©cessitĂ© absolue Â».

La surveillance dĂ©coule enfin du croisement de toutes les traces numĂ©riques laissĂ©es au grĂ© de nos vies et nos activitĂ©s sociales. Dans cette affaire et d’autres encore, on voit ainsi se multiplier les rĂ©quisitions aux rĂ©seaux sociaux comme Twitter ou Facebook, l’espionnage des conversations tĂ©lĂ©phoniques et des SMS, le suivi des correspondances et des dĂ©placements de groupes entiers de personnes via leurs mĂ©tadonnĂ©es, la surveillance de leurs publications et de leurs lectures, la rĂ©quisition de leurs historiques bancaires ou des fichiers dĂ©tenus par les services sociaux, … Le tout, souvent sur la seule base de vagues soupçons. Et Ă  la clĂ©, une violation systĂ©matique de leur intimitĂ© ensuite jetĂ©e en pĂąture Ă  des policiers, lesquels n’hĂ©sitent pas Ă  Ă  s’en servir pour intimider ou tenter d’humilier lors des interrogatoires, et construire une vision biaisĂ©e de la rĂ©alitĂ© qui puisse corroborer leurs fantasmes.

De plus en plus, c’est la logique mĂȘme de la rĂ©sistance Ă  la dĂ©rive autoritaire qui est criminalisĂ©e. Vous utilisez des logiciels libres et autres services alternatifs aux multinationales qui dominent l’industrie de la tech et s’imbriquent dans les systĂšmes de surveillance d’État ? Cela suffit Ă  faire de vous un suspect, comme le rĂ©vĂšle l’affaire du « 8 dĂ©cembre Â» jugĂ©e il y a quelques mois. Vous choisissez des messageries dotĂ©es de protocoles de chiffrement pour protĂ©ger votre droit Ă  la confidentialitĂ© des communications ? On pourra recourir aux spywares et autres mĂ©thodes d’intrusion informatique pour aspirer le maximum de donnĂ©es contenues dans vos ordinateurs ou smartphones. C’est ce dont a Ă©tĂ© victime le photographe mis en cause dans cette affaire. Et si vous refusez de livrer vos codes de chiffrement lors d’une garde Ă  vue, on retiendra cela contre vous et on intentera des poursuites, quand bien mĂȘme l’infraction censĂ©e lĂ©gitimer votre garde Ă  vue s’est avĂ©rĂ©e tout Ă  fait grotesque.

Pour conclure, nous voudrions rappeler que, dans les annĂ©es 30, alors que l’Europe cĂ©dait peu Ă  peu au fascisme, un gouvernement français pouvait faire du pays une terre d’accueil pour les militant·es, les artistes, les intellectuelles. C’Ă©tait juste avant la fin honteuse de la IIIe rĂ©publique, juste avant le rĂ©gime de Vichy. Aujourd’hui, alors que, Ă  travers l’Europe comme dans le monde entier, les militant·es des droits humains, les militant·es Ă©cologistes, celles et ceux qui dĂ©noncent la violence systĂ©mique des États ou les mĂ©faits des multinationales, sont chaque jour plus exposé·es Ă  la rĂ©pression, l’État français se place aux avant-gardes de la dĂ©rive post-fasciste.

Reste Ă  voir si, plutĂŽt que de s’en faire la complice active comme le font craindre les dĂ©cisions rĂ©centes, l’institution judiciaire aura encore la volontĂ© d’y rĂ©sister.


QSPTAG #305 — 22 mars 2024

Fri, 22 Mar 2024 15:25:36 +0000 - (source)

Pour mieux surveiller ses allocataires, La CAF aura dorénavant accÚs aux revenus des Français en temps réel

Notre travail d’enquĂȘte sur les algorithmes de contrĂŽle social continue. AprĂšs avoir obtenu l’algorithme utilisĂ© par la CAF pour contrĂŽler ses allocataires en fonction d’un « score de risque Â», aprĂšs avoir analysĂ© cette mĂ©thode de calcul et dĂ©montrĂ© qu’elle ciblait volontairement les personnes les plus prĂ©caires, nous poursuivons nos recherches du cĂŽtĂ© des outils utilisĂ©s par d’autres services sociaux : assurance vieillesse, assurance maladie, assurance chĂŽmage, etc. Vous pouvez retrouver l’ensemble de ces travaux sur notre page de campagne.

Mais les derniĂšres nouvelles concernant les pratiques de la CAF nous sont arrivĂ©es par la presse : tout en se dĂ©fendant des mauvaises intentions que nous lui prĂȘtions, la CAF continuait/continu ? de demander l’accĂšs Ă  toujours plus de donnĂ©es, pour mieux surveiller ses allocataires. Elle a donc obtenu rĂ©cemment le droit d’accĂ©der au fichier du Dispositif des ressources mensuelles (DRM), qui recense quotidiennement pour chaque personne l’intĂ©gralitĂ© de ses sources de revenus : les salaires perçus et les prestations sociales touchĂ©es. CrĂ©Ă© pour faciliter le calcul des aides personnalisĂ©es pour le logement (APL), le fichier connaĂźt donc une dĂ©viation flagrante de sa finalitĂ© premiĂšre. Et l’utilisation que compte en faire la CAF n’est pas brillante : il s’agit d’amĂ©liorer la « productivitĂ© Â» de son algorithme de contrĂŽle.
Les revenus des allocataires Ă©taient jusqu’Ă  prĂ©sent connus annuellement au moment de la dĂ©claration de revenus, ou chaque trimestre auprĂšs des allocataires. La surveillance mensuelle des variations de revenus, en permettant une rĂ©vision plus serrĂ©e des droits des allocataires, permettra sans doute de dĂ©tecter de plus nombreux « trop perçus Â» – voilĂ  pour la « productivitĂ© Â». Et qui sont les personnes dont les revenus varient le plus, et ont le plus besoin des aides sociales ? Les plus pauvres, encore une fois.

En plus de cette discrimination automatisĂ©e, cette annonce nous paraĂźt rĂ©vĂ©ler deux problĂšmes : d’une part l’inefficacitĂ© du contrĂŽle opĂ©rĂ© par la CNIL, pourtant crĂ©Ă©e pour surveiller l’usage des fichiers, et d’autre part le dĂ©voiement du projet gouvernemental de « solidaritĂ© Ă  la source », annoncĂ© comme un moyen de lutter contre le « non recours » aux aides sociales, en passe de devenir un systĂšme de centralisation des donnĂ©e plĂ©thorique et sans contrĂŽle.

Lire l’article : https://www.laquadrature.net/2024/03/13/notation-des-allocataires-la-caf-etend-sa-surveillance-a-lanalyse-des-revenus-en-temps-reel/

Soutenir La Quadrature en 2024

Nous sommes toujours en campagne de soutien pour financer notre travail en 2024. C’est pour nous l’occasion de prĂ©senter les grands chantiers en cours, principalement la lutte contre les algorithmes de contrĂŽle social dans les administrations, la dĂ©fense du droit au chiffrement des communications, la promotion de l’interopĂ©rabilitĂ© des services Web, et la rĂ©flexion nĂ©cessaire autour du numĂ©rique dans le contexte de la crise Ă©cologique mondiale.

Nous avons besoin de vous pour travailler en 2024 ! N’hĂ©sitez pas Ă  faire un don de soutien Ă  l’association, ou Ă  faire connaĂźtre notre campagne de dons autour de vous. Merci pour votre aide !

PrĂ©sentation des grands chantiers de 2024 : https://www.laquadrature.net/donner/ et https://www.laquadrature.net/2023/11/15/de-nouveaux-combats-pour-2024/
Faire un don Ă  La Quadrature : https://don.laquadrature.net/

Agenda

La Quadrature dans les médias

Algos de contrĂŽle social

Surveillance

Technopolice : police prĂ©dictive

Technopolice : VSA et JO

Divers


Notation des allocataires : la CAF Ă©tend sa surveillance Ă  l’analyse des revenus en temps rĂ©el

Wed, 13 Mar 2024 09:37:17 +0000 - (source)

Retrouvez l’ensemble de nos publications, documentations et prises de positions sur l’utilisation par les organismes sociaux – CAF, PĂŽle Emploi, Assurance Maladie, Assurance Vieillesse – d’algorithmes Ă  des fins de contrĂŽle social sur notre page dĂ©diĂ©e et notre gitlab.

Il y a tout juste deux mois, nous publiions le code source de l’algorithme de notation des allocataires de la CAF. Cette publication dĂ©montrait l’aspect dystopique d’un systĂšme de surveillance allouant des scores de suspicion Ă  plus de 12 millions de personnes, sur la base desquels la CAF organise dĂ©libĂ©rement la discrimination et le sur-contrĂŽle des plus prĂ©caires. Ce faisant, nous espĂ©rions que, face Ă  la montĂ©e de la contestation1Le prĂ©sident de la Seine-Saint-Denis a notamment saisi le DĂ©fenseur des Droits suite Ă  la publication du code source de l’algorithme. Notre travail pour obtenir le code source de l’algorithme a par ailleurs servi aux Ă©quipes du journal Le Monde et de Lighthouse Reports pour publier une sĂ©rie d’articles ayant eu un grand retentissement mĂ©diatique. Une dĂ©putĂ©e EELV a par ailleurs abordĂ© la question de l’algorithme lors des questions au gouvernement. Thomas Piketty a Ă©crit une tribune sur le sujet et ATD Quart Monde un communiquĂ©. Le parti EELV a aussi lancĂ© une pĂ©tition sur ce sujet disponible ici., les dirigeant·es de la CAF accepteraient de mettre fin Ă  ces pratiques iniques. Il n’en fut rien.

À la remise en question, les responsables de la CAF ont prĂ©fĂ©rĂ© la fuite en avant. La premiĂšre Ă©tape fut un contre-feu mĂ©diatique oĂč son directeur, Nicolas Grivel, est allĂ© jusqu’Ă  dĂ©clarer publiquement que la CAF n’avait ni « Ă  rougir Â» ni Ă  s’« excuser Â» de telles pratiques. La deuxiĂšme Ă©tape, dont nous venons de prendre connaissance2Voir l’article « L’État muscle le DRM, l’arme pour lutter contre la fraude et le non-recours aux droits Â» publiĂ© le 01/02/2024 par Emile Marzof et disponible ici., est bien plus inquiĂ©tante. Car parallĂšlement Ă  ses dĂ©clarations, ce dernier cherchait Ă  obtenir l’autorisation de dĂ©multiplier les capacitĂ©s de surveillance de l’algorithme via l’intĂ©gration du suivi en « temps rĂ©el Â»3Bien que la frĂ©quence de mise Ă  jour des revenus soit majoritairement mensuelle, dans la mesure oĂč les salaires sont versĂ©s une fois par mois, nous reprenons ici l’expression utilisĂ©e par la Cour des comptes. Voir le chapitre 9 du Rapport sur l’application des lois de financement de la sĂ©curitĂ© sociale de 2022 disponible ici. des revenus de l’ensemble des allocataires. Autorisation qu’il a obtenue, avec la bĂ©nĂ©diction de la CNIL, le 29 janvier dernier4DĂ©cret n° 2024-50 du 29 janvier 2024 disponible ici. Voir aussi la dĂ©libĂ©ration n° 2023-120 du 16 novembre 2023 de la CNIL ici. Le dĂ©cret prĂ©voit une expĂ©rimentation d’un an. La surveillance des revenus est aussi autorisĂ©e pour le contrĂŽle des agriculteurs·rices par les MutualitĂ©s Sociales Agricoles et des personnes ĂągĂ©es par la Caisse Nationale d’Assurance Vieillesse..

Surveillance et « productivitĂ© Â» des contrĂŽles

Pour rappel, le revenu est une des quelque quarante variables utilisĂ©es par la CAF pour noter les allocataires. Comme nous l’avions montrĂ©, plus le revenu d’un·e allocataire est faible, plus son score de suspicion est Ă©levĂ© et plus ses risques d’ĂȘtre contrĂŽlé·e sont grands. C’est donc un des paramĂštres contribuant directement au ciblage et Ă  la discrimination des personnes dĂ©favorisĂ©es.

Jusqu’Ă  prĂ©sent, les informations sur les revenus des allocataires Ă©taient soit rĂ©cupĂ©rĂ©es annuellement auprĂšs des impĂŽts, soit collectĂ©es via les dĂ©clarations trimestrielles auprĂšs des allocataires concerné·es (titulaires du RSA, de l’AAH…)5Voir lignes 1100 du code de l’algorithme en usage entre 2014 et 2018 disponible ici : pour le calcul des revenus mensuels, la CAF utilise soit les dĂ©clarations de revenus trimestrielles (dans le cadre des personnes au RSA/AAH) divisĂ©es par 3, soit les revenus annuels divisĂ©s par 12. Si nous ne disposons pas de la derniĂšre version de l’algorithme, la logique devrait ĂȘtre la mĂȘme.
. DĂ©sormais, l’algorithme de la CAF bĂ©nĂ©ficiera d’un accĂšs en « temps rĂ©el Â» aux ressources financiĂšres de l’ensemble des 12 millions d’allocataires (salaires et prestations sociales).

Pour ce faire, l’algorithme de la CAF sera alimentĂ© par une gigantesque base de donnĂ©es agrĂ©geant, pour chaque personne, les dĂ©clarations salariales transmises par les employeurs ainsi que les prestations sociales versĂ©es par les organismes sociaux (retraites, chĂŽmage, RSA, AAH, APL…)6 L’architecture de la base DRM repose sur l’agrĂ©gation de deux bases de donnĂ©es. La premiĂšre est la base des « DĂ©clarations Sociales Nominatives Â» (DSN) regroupant les dĂ©clarations de salaires faites par les employeurs. La seconde, « base des autres revenus Â» (PASRAU), centralise les prestations sociales monĂ©taires (retraites, APL, allocations familiales, indemnitĂ©s journaliĂšres, AAH, RSA, allocations chĂŽmage..). La base DRM est mise Ă  jour quotidiennement et consultable en temps rĂ©el. D’un point de vue pratique, il semblerait que le transfert de donnĂ©es de la base DRM Ă  la CAF soit fait mensuellement. La CAF peut aussi accĂ©der Ă  une API pour une consultation du DRM en temps rĂ©el. Voir notamment le chapitre 9 du rapport de la Cour des comptes d’octobre 2022 sur l’application des lois de financement de la sĂ©curitĂ© sociale, disponible ici.
 : c’est le « Dispositif des Ressources Mensuelles Â» (DRM). Cette base, crĂ©Ă©e en 2019 lors de mise en place de la rĂ©forme de la « contemporanĂ©isation Â» des APL7Plus prĂ©cisĂ©ment, cette base a Ă©tĂ© crĂ©Ă©e afin de mettre en place la rĂ©forme des APL de 2021 et l’information des assuré·es sociaux (voir la dĂ©libĂ©ration de la CNIL 2019-072 du 23 mai 2019 disponible ici et le dĂ©cret n° 2019-969 du 18 septembre 2019 disponible ici.) La liste des prestations sociales pour lesquelles le DRM peut ĂȘtre utilisĂ© Ă  des fins de calcul s’est agrandie avec le rĂ©cent dĂ©cret permettant son utilisation Ă  des fins de contrĂŽle (voir le dĂ©cret n°2024-50 du 29 janvier 2024 disponible ici. Il peut dĂ©sormais, entre autres, ĂȘtre utilisĂ©e pour le calcul du RSA, de la PPA – prime d’activité –, des pensions d’invaliditĂ©s, de la complĂ©mentaire santĂ©-solidaire, des pensions de retraite… Il est par ailleurs le pilier de la collecte de donnĂ©es sur les ressources dans le cadre du projet de « solidaritĂ© Â» Ă  la source. Concernant la lutte contre la fraude, son utilisation n’Ă©tait pas envisagĂ©e pour dĂ©tecter des situations « Ă  risque Â» mĂȘme si certaines de ces donnĂ©es pouvaient, a priori, ĂȘtre utilisĂ©es notamment lors d’un contrĂŽle par les administrations sociales (consultation RNCPS – rĂ©pertoire national commun de protection sociale…) via l’exercice du droit de communication. Voir aussi le rapport de la Cour des comptes d’octobre 2022 sur l’application des lois de financement de la sĂ©curitĂ© sociale, disponible ici ainsi que le rapport de la Cour des comptes de 2021 sur la mise en place du prĂ©lĂšvement Ă  la source disponible ici.
, est mise à jour quotidiennement, et offre des capacités inégalées de surveillance des allocataires.

La justification d’une telle extension de la surveillance Ă  l’Ɠuvre Ă  des fins de notation des allocataires est d’accroĂźtre la « productivitĂ© du dispositif [de l’algorithme] Â» selon les propres termes des responsables de la CAF8Voir la dĂ©libĂ©ration 2023-120 de la CNIL disponible ici.
. Qu’importe que se multiplient les tĂ©moignages rĂ©vĂ©lant les violences subies par les plus prĂ©caires lors des contrĂŽles9Voir notamment les tĂ©moignages collectĂ©s par le collectif Changer de Cap, disponibles ici et le rapport de la DĂ©fenseure des Droits.. Qu’importe aussi que les montants rĂ©cupĂ©rĂ©s par l’algorithme soient dĂ©risoires au regard du volume des prestations sociales versĂ©es par l’institution10Les montants d’« indus Â» rĂ©cupĂ©rĂ©s par la CAF dans le cadre des contrĂŽles dĂ©clenchĂ©s par l’algorithme reprĂ©sentent 0,2% du montant total des prestations versĂ©es par la CAF. Voir ce document de la CAF.. Les logiques gestionnaires ont fait de la course aux « rendements des contrĂŽles Â» une fin en soi Ă  laquelle tout peut ĂȘtre sacrifiĂ©.

Que cette autorisation soit donnĂ©e Ă  titre « expĂ©rimental Â», pour une pĂ©riode d’un an, ne peut ĂȘtre de nature Ă  nous rassurer tant on sait combien le recours aux « expĂ©rimentations Â» est devenu un outil de communication visant Ă  faciliter l’acceptabilitĂ© sociale des dispositifs de contrĂŽle numĂ©rique11Voir notamment notre article « StratĂ©gies d’infiltration de la surveillance biomĂ©trique dans nos vies Â», disponible ici..

La CNIL à la dérive

La dĂ©libĂ©ration de la CNIL qui acte l’autorisation accordĂ©e Ă  la CAF de ce renforcement sans prĂ©cĂ©dent des capacitĂ©s de surveillance de son algorithme de notation laisse sans voix12Voir la dĂ©libĂ©ration n° 2023-120 du 16 novembre 2023 disponible ici.. Loin de s’opposer au projet, ses recommandations se limitent Ă  demander Ă  ce qu’une attention particuliĂšre soit « accordĂ©e Ă  la transparence Â» de l’algorithme et Ă  ce que… le « gain de productivitĂ© du dispositif Â» fasse l’objet d’un « rapport circonstanciĂ© et chiffrĂ© Â». La violation de l’intimitĂ© des plus de 30 millions de personnes vivant dans un foyer bĂ©nĂ©ficiant d’une aide de la CAF est donc ramenĂ©e Ă  une simple question d’argent…

Nulle part n’apparaĂźt la moindre critique politique d’un tel dispositif, alors mĂȘme que cela fait plus d’un an que, aux cĂŽtĂ©s de diffĂ©rents collectifs et de la DĂ©fenseure des Droits, nous alertons sur les consĂ©quences humaines dĂ©sastreuses de cet algorithme. La CNIL alerte par contre la CNAF sur le risque mĂ©diatique auquelle elle s’expose en rappelant qu’un scandale autour d’un algorithme en tout point similaire a « conduit le gouvernement nĂ©erlandais Ă  dĂ©missionner en janvier 2021 Â». Une illustration caricaturale de la transformation du « gendarme des donnĂ©es Â» en simple agence de communication pour administrations dĂ©sireuses de ficher la population.

On relĂšvera Ă©galement un bref passage de la CNIL sur les « consĂ©quences dramatiques Â» du risque de « dĂ©cisions individuelles biaisĂ©es Â» conduisant l’autoritĂ© Ă  demander Ă  ce que l’algorithme soit « conçu avec soin Â». Celui-ci dĂ©montre – au mieux – l’incompĂ©tence technique de ses membres. Rappelons que cet algorithme ne vise pas Ă  dĂ©tecter la fraude mais les indus ayant pour origine des erreurs dĂ©claratives. Or, ces erreurs se concentrent, structurellement, sur les allocataires aux minima sociaux, en raison de la complexitĂ© des rĂšgles d’encadrement de ces prestations13Voir nos diffĂ©rents articles sur le sujet ici et l’article de Daniel Buchet, ancien directeur de la maĂźtrise des risques et de la lutte contre la fraude de la CNAF. 2006. « Du contrĂŽle des risques Ă  la maĂźtrise des risques Â», disponible ici.
. Le ciblage des plus prĂ©caires par l’algorithme de la CAF n’est donc pas accidentel mais nĂ©cessaire Ă  l’atteinte de son objectif politique : assurer le « rendement des contrĂŽles Â». La seule façon d’Ă©viter de tels « biais Â» est donc de s’opposer Ă  l’usage mĂȘme de l’algorithme.

Pire, la CNIL valide, dans la mĂȘme dĂ©libĂ©ration, l’utilisation du DRM Ă  des fins de contrĂŽle de nos aĂźné·es par l’Assurance Vieillesse (CNAV)… tout en reconnaissant que l’algorithme de la CNAV n’a jamais « fait l’objet de formalitĂ©s prĂ©alables auprĂšs d’elle, mĂȘme anciennes Â»14Si nous n’avons pas encore la preuve certaine que la CNAV utilise un algorithme de profilage pour le contrĂŽle des personnes Ă  la retraite, la CNIL Ă©voque concernant cette administration dans sa dĂ©libĂ©ration « un traitement de profilage Â» et « un dispositif correspondant [Ă  l’algorithme de la CNAF] Â» laissant sous-entendre que c’est le cas. . Soit donc qu’il est probablement illĂ©gal. Notons au passage que le rapporteur de la CNIL associĂ© Ă  cette dĂ©libĂ©ration n’est autre que le dĂ©putĂ© Philippe Latombe, dont nous avons dĂ» signaler les manquements dĂ©ontologiques auprĂšs de la CNIL elle-mĂȘme du fait de ses accointances rĂ©pĂ©tĂ©es et scandaleuses avec le lobby sĂ©curitaire numĂ©rique15Voir aussi l’article de ClĂ©ment PourĂ© dans StreetPress, disponible ici, qui pointe par ailleurs les relations du dĂ©putĂ© avec l’extrĂȘme-droite..

« SolidaritĂ© Â» Ă  la source et contrĂŽle social : un appel Ă  discussion

Si nous ne nous attendions pas Ă  ce que le directeur de la CAF abandonne immĂ©diatement son algorithme de notation des allocataires, nous ne pouvons qu’ĂȘtre choqué·es de voir que sa seule rĂ©ponse soit de renforcer considĂ©rablement ses capacitĂ©s de surveillance. C’est pourquoi nous appelons, aux cĂŽtĂ©s des collectifs avec qui nous luttons depuis le dĂ©but, Ă  continuer de se mobiliser contre les pratiques numĂ©riques de contrĂŽle des administrations sociales, au premier rang desquelles la CAF.

Au-delĂ  du mĂ©pris exprimĂ© par la CAF face Ă  l’opposition grandissante aux pratiques de contrĂŽle, cette annonce met en lumiĂšre le risque de surveillance gĂ©nĂ©ralisĂ©e inhĂ©rent au projet gouvernemental de « solidaritĂ© Â» Ă  la source. PrĂ©sentĂ© comme la « grande mesure sociale Â» du quinquennat16Pour reprendre les termes de cet article du Figaro., ce projet vise Ă  substituer au systĂšme dĂ©claratif une automatisation du calcul des aides sociales via le prĂ©-remplissage des dĂ©clarations nĂ©cessaires Ă  l’accĂšs aux prestations sociales.

Étant donnĂ© la grande complexitĂ© des rĂšgles de calculs et d’attribution de certaines prestations sociales – en particulier les minima sociaux – cette automatisation nĂ©cessite en retour que soit dĂ©ployĂ©e la plus grande infrastructure numĂ©rique jamais crĂ©Ă©e Ă  des fins de rĂ©colte, de partage et de centralisation des donnĂ©es personnelles de la population française (impĂŽts, CAF, Assurance-Maladie, PĂŽle Emploi, CNAV, MutualitĂ©s Sociales Agricoles….). De par sa taille et sa nature, cette infrastructure pose un risque majeur en termes de surveillance et de protection de la vie privĂ©e.

Et c’est prĂ©cisĂ©ment Ă  cet Ă©gard que l’autorisation donnĂ©e Ă  la CAF d’utiliser le DRM pour nourrir son algorithme de notation des allocataires est emblĂ©matique. Car le DRM est lui-mĂȘme une pierre angulaire du projet de « solidaritĂ© Â» Ă  la source17Plus prĂ©cisĂ©ment, cette base a Ă©tĂ© crĂ©Ă©e afin de mettre en place la rĂ©forme des APL de 2021 et l’information des assuré·es sociaux (voir la dĂ©libĂ©ration de la CNIL 2019-072 du 23 mai 2010 disponible ici et le dĂ©cret n° 2019-969 du 18 septembre 2019 disponible ici.) La liste des prestations sociales pour lesquelles le DRM peut ĂȘtre utilisĂ© Ă  des fins de calcul s’est agrandie avec le rĂ©cent dĂ©cret permettant son utilisation Ă  des fins de contrĂŽle (voir le dĂ©cret n°2024-50 du 29 janvier 2024 disponible ici. Il peut dĂ©sormais, entre autres, ĂȘtre utilisĂ©e pour le calcul du RSA, de la PPA – prime d’activité –, des pensions d’invaliditĂ©s, de la complĂ©mentaire santĂ©-solidaire, des pensions de retraite… Il est par ailleurs le pilier de la collecte de donnĂ©es sur les ressources dans le cadre du projet de « solidaritĂ© Â» Ă  la source. Concernant la lutte contre la fraude, son utilisation n’Ă©tait pas envisagĂ©e pour dĂ©tecter des situations « Ă  risque Â» mĂȘme si certaines de ces donnĂ©es pouvaient, a priori, ĂȘtre utilisĂ©es notamment lors d’un contrĂŽle par les administrations sociales (consultation RNCPS – rĂ©pertoire national commun de protection sociale…) via l’exercice du droit de communication. Voir aussi le rapport de la Cour des comptes d’octobre 2022 sur l’application des lois de financement de la sĂ©curitĂ© sociale, disponible ici ainsi que le rapport de la Cour des comptes de 2021 sur la mise en place du prĂ©lĂšvement Ă  la source disponible ici.
 – sa « premiĂšre brique Â» selon les termes du Premier ministre – dont il constitue le socle en termes de centralisation des donnĂ©es financiĂšres18SĂ©nat, commission des affaires sociales, audition de M. Gabriel Attal, alors ministre dĂ©lĂ©guĂ© chargĂ© des comptes publics. Disponible ici.. Or, si sa constitution avait Ă  l’Ă©poque soulevĂ© un certain nombre d’inquiĂ©tudes19Voir notamment l’article de JĂ©rĂŽme Hourdeaux « Caisse d’allocations familiales : le projet du gouvernement pour ficher les allocataires Â» disponible (paywall) ici., le gouvernement s’Ă©tait voulu rassurant. Nulle question qu’il soit utilisĂ©e Ă  des fins de contrĂŽle : ses finalitĂ©s Ă©taient limitĂ©es Ă  la lutte contre le non-recours et au calcul des prestations sociales20DĂ©cret n° 2019-969 du 18 septembre 2019 relatif Ă  des traitements de donnĂ©es Ă  caractĂšre personnel portant sur les ressources des assurĂ©s sociaux disponible ici. La dĂ©libĂ©ration de la CNIL associĂ©e est disponible ici.. Cinq annĂ©es auront suffit pour que ces promesses soient oubliĂ©es.

Nous reviendrons trĂšs prochainement sur la solidaritĂ© Ă  la source dans un article dĂ©diĂ©. Dans le mĂȘme temps, nous appelons les acteurs associatifs, au premier titre desquels les collectifs de lutte contre la prĂ©caritĂ©, Ă  la plus grande prudence quant aux promesses du gouvernement et les invitons Ă  engager une discussion collective autour de ces enjeux.

References

References
1 Le prĂ©sident de la Seine-Saint-Denis a notamment saisi le DĂ©fenseur des Droits suite Ă  la publication du code source de l’algorithme. Notre travail pour obtenir le code source de l’algorithme a par ailleurs servi aux Ă©quipes du journal Le Monde et de Lighthouse Reports pour publier une sĂ©rie d’articles ayant eu un grand retentissement mĂ©diatique. Une dĂ©putĂ©e EELV a par ailleurs abordĂ© la question de l’algorithme lors des questions au gouvernement. Thomas Piketty a Ă©crit une tribune sur le sujet et ATD Quart Monde un communiquĂ©. Le parti EELV a aussi lancĂ© une pĂ©tition sur ce sujet disponible ici.
2 Voir l’article « L’État muscle le DRM, l’arme pour lutter contre la fraude et le non-recours aux droits Â» publiĂ© le 01/02/2024 par Emile Marzof et disponible ici.
3 Bien que la frĂ©quence de mise Ă  jour des revenus soit majoritairement mensuelle, dans la mesure oĂč les salaires sont versĂ©s une fois par mois, nous reprenons ici l’expression utilisĂ©e par la Cour des comptes. Voir le chapitre 9 du Rapport sur l’application des lois de financement de la sĂ©curitĂ© sociale de 2022 disponible ici.
4 DĂ©cret n° 2024-50 du 29 janvier 2024 disponible ici. Voir aussi la dĂ©libĂ©ration n° 2023-120 du 16 novembre 2023 de la CNIL ici. Le dĂ©cret prĂ©voit une expĂ©rimentation d’un an. La surveillance des revenus est aussi autorisĂ©e pour le contrĂŽle des agriculteurs·rices par les MutualitĂ©s Sociales Agricoles et des personnes ĂągĂ©es par la Caisse Nationale d’Assurance Vieillesse.
5 Voir lignes 1100 du code de l’algorithme en usage entre 2014 et 2018 disponible ici : pour le calcul des revenus mensuels, la CAF utilise soit les dĂ©clarations de revenus trimestrielles (dans le cadre des personnes au RSA/AAH) divisĂ©es par 3, soit les revenus annuels divisĂ©s par 12. Si nous ne disposons pas de la derniĂšre version de l’algorithme, la logique devrait ĂȘtre la mĂȘme.

6 L’architecture de la base DRM repose sur l’agrĂ©gation de deux bases de donnĂ©es. La premiĂšre est la base des « DĂ©clarations Sociales Nominatives Â» (DSN) regroupant les dĂ©clarations de salaires faites par les employeurs. La seconde, « base des autres revenus Â» (PASRAU), centralise les prestations sociales monĂ©taires (retraites, APL, allocations familiales, indemnitĂ©s journaliĂšres, AAH, RSA, allocations chĂŽmage..). La base DRM est mise Ă  jour quotidiennement et consultable en temps rĂ©el. D’un point de vue pratique, il semblerait que le transfert de donnĂ©es de la base DRM Ă  la CAF soit fait mensuellement. La CAF peut aussi accĂ©der Ă  une API pour une consultation du DRM en temps rĂ©el. Voir notamment le chapitre 9 du rapport de la Cour des comptes d’octobre 2022 sur l’application des lois de financement de la sĂ©curitĂ© sociale, disponible ici.

7 Plus prĂ©cisĂ©ment, cette base a Ă©tĂ© crĂ©Ă©e afin de mettre en place la rĂ©forme des APL de 2021 et l’information des assuré·es sociaux (voir la dĂ©libĂ©ration de la CNIL 2019-072 du 23 mai 2019 disponible ici et le dĂ©cret n° 2019-969 du 18 septembre 2019 disponible ici.) La liste des prestations sociales pour lesquelles le DRM peut ĂȘtre utilisĂ© Ă  des fins de calcul s’est agrandie avec le rĂ©cent dĂ©cret permettant son utilisation Ă  des fins de contrĂŽle (voir le dĂ©cret n°2024-50 du 29 janvier 2024 disponible ici. Il peut dĂ©sormais, entre autres, ĂȘtre utilisĂ©e pour le calcul du RSA, de la PPA – prime d’activité –, des pensions d’invaliditĂ©s, de la complĂ©mentaire santĂ©-solidaire, des pensions de retraite… Il est par ailleurs le pilier de la collecte de donnĂ©es sur les ressources dans le cadre du projet de « solidaritĂ© Â» Ă  la source. Concernant la lutte contre la fraude, son utilisation n’Ă©tait pas envisagĂ©e pour dĂ©tecter des situations « Ă  risque Â» mĂȘme si certaines de ces donnĂ©es pouvaient, a priori, ĂȘtre utilisĂ©es notamment lors d’un contrĂŽle par les administrations sociales (consultation RNCPS – rĂ©pertoire national commun de protection sociale…) via l’exercice du droit de communication. Voir aussi le rapport de la Cour des comptes d’octobre 2022 sur l’application des lois de financement de la sĂ©curitĂ© sociale, disponible ici ainsi que le rapport de la Cour des comptes de 2021 sur la mise en place du prĂ©lĂšvement Ă  la source disponible ici.

8 Voir la délibération 2023-120 de la CNIL disponible ici.

9 Voir notamment les témoignages collectés par le collectif Changer de Cap, disponibles ici et le rapport de la Défenseure des Droits.
10 Les montants d’« indus Â» rĂ©cupĂ©rĂ©s par la CAF dans le cadre des contrĂŽles dĂ©clenchĂ©s par l’algorithme reprĂ©sentent 0,2% du montant total des prestations versĂ©es par la CAF. Voir ce document de la CAF.
11 Voir notamment notre article « StratĂ©gies d’infiltration de la surveillance biomĂ©trique dans nos vies Â», disponible ici.
12 Voir la délibération n° 2023-120 du 16 novembre 2023 disponible ici.
13 Voir nos diffĂ©rents articles sur le sujet ici et l’article de Daniel Buchet, ancien directeur de la maĂźtrise des risques et de la lutte contre la fraude de la CNAF. 2006. « Du contrĂŽle des risques Ă  la maĂźtrise des risques Â», disponible ici.

14 Si nous n’avons pas encore la preuve certaine que la CNAV utilise un algorithme de profilage pour le contrĂŽle des personnes Ă  la retraite, la CNIL Ă©voque concernant cette administration dans sa dĂ©libĂ©ration « un traitement de profilage Â» et « un dispositif correspondant [Ă  l’algorithme de la CNAF] Â» laissant sous-entendre que c’est le cas.
15 Voir aussi l’article de ClĂ©ment PourĂ© dans StreetPress, disponible ici, qui pointe par ailleurs les relations du dĂ©putĂ© avec l’extrĂȘme-droite.
16 Pour reprendre les termes de cet article du Figaro.
17 Plus prĂ©cisĂ©ment, cette base a Ă©tĂ© crĂ©Ă©e afin de mettre en place la rĂ©forme des APL de 2021 et l’information des assuré·es sociaux (voir la dĂ©libĂ©ration de la CNIL 2019-072 du 23 mai 2010 disponible ici et le dĂ©cret n° 2019-969 du 18 septembre 2019 disponible ici.) La liste des prestations sociales pour lesquelles le DRM peut ĂȘtre utilisĂ© Ă  des fins de calcul s’est agrandie avec le rĂ©cent dĂ©cret permettant son utilisation Ă  des fins de contrĂŽle (voir le dĂ©cret n°2024-50 du 29 janvier 2024 disponible ici. Il peut dĂ©sormais, entre autres, ĂȘtre utilisĂ©e pour le calcul du RSA, de la PPA – prime d’activité –, des pensions d’invaliditĂ©s, de la complĂ©mentaire santĂ©-solidaire, des pensions de retraite… Il est par ailleurs le pilier de la collecte de donnĂ©es sur les ressources dans le cadre du projet de « solidaritĂ© Â» Ă  la source. Concernant la lutte contre la fraude, son utilisation n’Ă©tait pas envisagĂ©e pour dĂ©tecter des situations « Ă  risque Â» mĂȘme si certaines de ces donnĂ©es pouvaient, a priori, ĂȘtre utilisĂ©es notamment lors d’un contrĂŽle par les administrations sociales (consultation RNCPS – rĂ©pertoire national commun de protection sociale…) via l’exercice du droit de communication. Voir aussi le rapport de la Cour des comptes d’octobre 2022 sur l’application des lois de financement de la sĂ©curitĂ© sociale, disponible ici ainsi que le rapport de la Cour des comptes de 2021 sur la mise en place du prĂ©lĂšvement Ă  la source disponible ici.

18 Sénat, commission des affaires sociales, audition de M. Gabriel Attal, alors ministre délégué chargé des comptes publics. Disponible ici.
19 Voir notamment l’article de JĂ©rĂŽme Hourdeaux « Caisse d’allocations familiales : le projet du gouvernement pour ficher les allocataires Â» disponible (paywall) ici.
20 Décret n° 2019-969 du 18 septembre 2019 relatif à des traitements de données à caractÚre personnel portant sur les ressources des assurés sociaux disponible ici. La délibération de la CNIL associée est disponible ici.

Powered by VroumVroumBlog 0.1.31 - RSS Feed
Download config articles