On parle beaucoup des applications de l’IA et du fait que son utilisation va bien au-delà des industries créatives. Après tout, cette technologie peut également être utilisée dans l’industrie, l’analyse et la santé. Cependant, cela ne doit pas s’arrêter là et presque toutes les professions peuvent utiliser l’intelligence artificielle.
Cependant, il ne faut pas oublier qu’il s’agit encore parfois d’un outil extrêmement peu fiable et peu sécurisé. Par conséquent, il vaut toujours la peine de prendre en compte tous les résultats que nous offrent les outils basés sur l’intelligence artificielle.
Les forces de l’ordre américaines l’ont très bien compris. La dernière analyse du Washington Post confirme que lorsque l’on combine l’imprécision de l’IA et la négligence humaine, un véritable drame peut se produire.
Des erreurs d’intelligence artificielle ont conduit à des arrestations injustifiées

Le Washington Post a décidé d’analyser les données des rapports de police, des dossiers et des récits de policiers, d’avocats et de procureurs afin de vérifier la participation potentielle et l’efficacité de l’IA dans ces professions. Il s’avère que ce n’est pas du tout un phénomène rare, mais il est très rarement mentionné au public. Pourquoi? La raison est prosaïque : tout le monde n’est pas content de voir les forces de l’ordre utiliser une telle technologie.
Cependant, il s’avère que l’utilisation de l’IA dans ces cas comporte des risques considérables. Il y a eu des arrestations injustifiées, et c’est arrivé quand… les agents se sont appuyés uniquement sur les résultats des systèmes de reconnaissance faciale, omettant des éléments clés de l’enquête. Par conséquent, les traces d’ADN, les empreintes digitales n’étaient souvent pas relevées et l’alibi n’était même pas vérifié (!).
La situation est si bizarre qu’il y a même eu des cas où des preuves évidentes de l’innocence du suspect ont été ignorées. Un exemple est une situation dans laquelle des agents ont arrêté un homme soupçonné de faux chèques, malgré l’absence d’analyse de ses comptes bancaires. Ce sont d’énormes oublis qui sont fondamentalement inacceptables. Un autre exemple est le cas d’une femme enceinte qui a été arrêtée pour avoir volé une voiture et, fait intéressant, les témoins ont clairement désigné une personne qui n’était pas enceinte.
Mais que se passe-t-il dans de tels cas ? Il s’avère que cela est le résultat d’une technologie de reconnaissance faciale limitée dans des conditions autres que celles du laboratoire. Ironiquement, ces incidents impliquent également ce que l’on pourrait appeler le « facteur humain ». Il s’agit de situations dans lesquelles une personne accorde automatiquement trop de confiance aux capacités de l’IA, ignorant d’autres prémisses encore plus rationnelles.
On n’est jamais assez prudent
Les situations décrites montrent clairement que même les modèles d’IA les plus développés peuvent ne pas être fiables et que les conséquences sont très graves. Dans le même temps, c’est un signal pour ceux qui s’inquiètent : il reste encore un long chemin à parcourir avant d’être remplacés par l’intelligence artificielle.
Néanmoins, on ne peut ignorer que les services de sécurité utilisent de telles solutions mais ne s’en vantent pas publiquement. Tant que c’est pour une bonne cause, ce n’est probablement pas un problème. C’est pire lorsqu’il s’agit d’erreurs et d’abus flagrants. On ne peut donc qu’espérer qu’il y en ait le moins possible.