Site icon Blog ARC Optimizer

Des flics menteurs, corrompus et anti-américains se déchaînent avec l'IA


Des centaines de milliers d'agents chargés de l'application des lois aux États-Unis ont le pouvoir d'utiliser l'IA de la boîte noire pour mener une surveillance contraire à l'éthique, générer des preuves et contourner nos protections du quatrième amendement. Et il y a peu de raisons de croire que quiconque fera quoi que ce soit à ce sujet.

Le problème est que les systèmes d'IA blackbox sont une mine d'or pour les startups, les grandes technologies et les politiciens. Et, comme le grand public ignore ce qu'ils font ou comment ils sont utilisés, les forces de l'ordre ont carte blanche pour faire ce qu'elles veulent.

Commençons par les agents individuels.

Tout flic, quelle que soit son affiliation. ou statut, a accès à des dizaines (voire des centaines) de systèmes d'IA tiers.

Quand je mentionne un « système d'IA », vous imaginez peut-être un serveur avec un tas de lumières clignotantes ou un civil bien habillé penché sur une console avec une demi-douzaine de moniteurs.

Mais je parle d'une application Android ou iPhone que les officiers et agents peuvent utiliser sans même que leurs superviseurs le sachent.

Voici comment cela fonctionne

Un flic installe un logiciel d'une entreprise telle que Clearview AI sur son smartphone personnel. Cela leur permet de prendre une photo de n'importe qui et de révéler son identité. Le flic exécute ensuite l'identité via une application d'une entreprise comme Palantir qui fait apparaître une multitude d'informations sur l'individu.

Crédit : Vice / DOJ [19659011]Une capture d'écran des bases de données d'une application » width= »1050″ height= »666″ srcset= »https://cdn0.tnwcdn.com/wp-content/blogs.dir/1/files/2021/07/vicerecords.jpg 1050w, https://cdn0.tnwcdn.com/wp-content/blogs.dir/1/files/2021/07/vicerecords-280×178.jpg 280w, https://cdn0.tnwcdn.com/wp-content/blogs.dir/1/files/2021/07/vicerecords-426×270.jpg 426w, https://cdn0.tnwcdn.com/wp-content/blogs.dir/1/files/2021/07/vicerecords-213×135.jpg 213w, https://cdn0.tnwcdn.com/wp-content/blogs.dir/1/files/2021/07/vicerecords-796×505.jpg 796w »/>

Ainsi, sans mandat, l'agent Friendly a désormais accès à votre opérateur téléphonique, votre FAI et vos enregistrements de courrier électronique. Ils ont accès à vos dossiers médicaux et de santé mentale, à vos antécédents de service militaire, à vos dossiers judiciaires, à vos dossiers juridiques, à vos antécédents de voyage et à vos dossiers de propriété. Et il est aussi facile à utiliser que Netflix ou Spotify.

Mieux encore, du moins pour les flics corrompus qui utilisent ces systèmes de manière contraire à l'éthique, il n'y a absolument aucune surveillance. Les policiers se voient souvent proposer ces systèmes directement par les fournisseurs en tant qu'« essais » afin qu'ils puissent les essayer avant de décider s'ils doivent demander à leurs services de les adopter à grande échelle.

La raison pour laquelle les agents utilisent ces systèmes est qu'ils rendent leur travail beaucoup plus facile. . Ils permettent à un officier de police de sauter le processus de mandat et d'agir en tant que juges eux-mêmes.

Qu'en est-il des services de police et d'autres agences ? outils de surveillance. Ceux-ci incluent les systèmes de reconnaissance faciale qui ne fonctionnent pas pour les visages noirsles systèmes de police prédictive qui permettent aux flics de imputer la sur-police des communautés minoritaires pauvres à l'algorithmeet les services de niche dont le seul but est de générer des preuves.

La police prédictive est l'un des systèmes d'IA contraires à l'éthique les plus couramment utilisés par les forces de l'ordre. Ces systèmes sont essentiellement des escroqueries à l'huile de serpent qui prétendent utiliser des « données » pour déterminer où les crimes vont se produire. Mais, comme nous le savons tous, vous ne pouvez pas prédire quand ni où un crime va se produire. Tout ce que vous pouvez faire est de déterminer, historiquement, où la police a tendance à arrêter le plus de personnes.

Ce que les systèmes de police prédictifs font réellement, c'est de donner à la police un bouc émissaire pour sur-policier les communautés minoritaires et pauvres. L'essentiel est que vous ne pouvez pas, mathématiquement parlant, tirer des inférences à partir de données qui n'existent pas. Et il n'y a pas de données sur la criminalité future.

Quiconque dit que ces systèmes peuvent prédire la criminalité fonctionne évidemment uniquement sur la foi, car personne ne peut expliquer pourquoi un système de boîte noire génère la sortie qu'il produit – pas même le développeurs qui l'ont créé.

Qu'en est-il des autres systèmes d'IA ?

En termes simples : chaque fois qu'un système d'IA utilisé par les forces de l'ordre peut, de quelque manière que ce soit, affecter un résultat pour un humain, il est probablement nocif.

Vice a publié un article aujourd'hui détaillant l'utilisation par le service de police de Chicago de ShotSpotter, un système d'IA censé détecter les coups de feu.

Selon la société, il peut détecter les coups de feu dans de vastes zones avec une précision allant jusqu'à 95 %. Mais devant les tribunaux, ils prétendent qu'il ne s'agit que d'une garantie marketing et que le bruit de fond peut affecter l'exactitude de toute lecture.

Ce qui signifie qu'il s'agit d'un système de boîte noire que personne ne peut expliquer et qu'aucun service juridique ne défendra.

Vice rapporte que la police a demandé aux employés de ShotSpotter de modifier les preuves pour les faire apparaître comme si le système détectait les coups de feu, ce n'était pas le cas dans plusieurs cas. Dans l'un, la police a demandé à un employé de modifier l'emplacement d'une détection pour refléter l'emplacement d'un crime. Et dans un autre, ils ont demandé à un employé de changer la désignation « feu d'artifice » en « coup de feu » afin de faciliter une arrestation.

Lorsqu'ils ont été contestés devant le tribunal, les procureurs ont simplement retiré la preuve. C'est ça. A notre connaissance, personne n'a été arrêté ou inculpé.

Le problème ici n'est pas que ShotSpotter ne fonctionne pas (bien que, si vous devez utiliser le Tucker Carlson defense au tribunal, ce n'est probablement pas le cas). C'est que, même si ça a fonctionné, ça ne sert absolument à rien.

Avez-vous déjà entendu une décharge d'arme à feu ? Ils sont bruyants. Ils ne passent pas inaperçus s'il y a du monde autour, et un coup de feu tiré dans n'importe quel quartier de Chicago serait entendu par des dizaines de milliers de personnes.

Et les gens, contrairement aux algorithmes de la boîte noire, peuvent témoigner devant un tribunal. Ils peuvent décrire ce qu'ils ont entendu, quand ils l'ont entendu, et expliquer à un jury pourquoi ils pensaient que ce qu'ils avaient entendu était ou n'était pas un coup de feu.

Si nous découvrons que les procureurs leur ont dit de dire qu'ils avaient entendu un coup de feu et qu'ensuite ils admettent devant le tribunal qu'ils ont menti, cela s'appelle un parjure et c'est un crime. Nous pouvons demander des comptes aux gens.

Apathie capitaliste basée sur l'ignorance

La raison pour laquelle il y a tant d'IA de flic contraire à l'éthique est qu'elle est incroyablement rentable. Les startups et les grandes entreprises technologiques qui vendent l'IA sont payées des milliards par les contribuables qui s'en moquent ou ne comprennent pas ce qui se passe.

Les politiciens autorisant les paiements engrangent l'argent des lobbyistes. Et les flics qui l'utilisent peuvent ignorer nos droits constitutionnels à leur guise sans aucune crainte de représailles. C'est une tempête parfaite d'ignorance, de corruption et de capitalisme.

Et ça ne fera qu'empirer.

Les pères fondateurs américains, tout comme l'IA, ne pouvaient pas prédire l'avenir. Lorsqu'ils ont rédigé le deuxième amendement, par exemple, ils n'avaient aucun moyen de savoir que des centaines de milliers d'agents du gouvernement lourdement armés patrouilleraient un jour dans nos communautés 24 heures sur 24, faisant ainsi de notre droit de garder et de porter des armes une forme de protection sans objet. contre la tyrannie.

Et maintenant, la même chose est arrivée à nos droits du quatrième amendement. Lorsque nos informations privées étaient enfermées dans des classeurs et que le seul moyen d'y accéder était avec la signature d'un juge sur un mandat de perquisition, notre droit à la vie privée était au moins quelque peu protégé contre la corruption.

Maintenant, ces protections ont disparu. Vous n'avez pas besoin d'un algorithme prédictif pour comprendre, historiquement parlant, ce qui se passe ensuite.




Source link
Quitter la version mobile