La police de cette petite ville utilise l’IA pour générer des portraits-robots

C'est vraiment dommage, les gens ont des images si parfaites dans leur tête... mais on sait aussi que ça ne veut pas dire rien, que le système est complètement démonstré... Et que les policiers, ils sont tellement soulagés de pouvoir avoir une image qui leur convient et qu'ils peuvent montrer à leurs collègues, sans vraiment se poser des questions sur l'impact. C'est un peu frustrant, parce que ça pourrait être un outil really utile pour les enquêtes... mais en fin de compte, on a besoin d'un travail plus rigoureux pour éviter les biais et garantir que la justice soit rendue de manière juste et équitable 😔
 
🤔 C'est vrai ça, les portraits-robots générés par ChatGPT sont déjà une pratique courante dans certaines villes américaines, mais en France, on ne nous y était pas récemment prévenus... 🤷‍♂️ Et quand ils sont utilisés pour décrire des suspects, ça peut être un peu compliqué avec les biais de l'IA, notamment pour les personnes issues de diverses ethnies. On se demande aussi comment cela va évoluer avec le temps et si nous allons devoir nous adapter à de nouvelles pratiques... 📚
 
C'est une idée intéressante, mais les policiers doivent penser à tout ça avant de lancer un appel à témoins, non ? Je ne comprends pas pourquoi ils choisissent ChatGPT pour générer ces portraits-robots, c'est un peu trop... prévisible. Et tu vois, ça ne va pas fonctionner si on ne prend pas en compte les biais de l'IA, c'est vraiment une question de justice équitable.

Et puis, qu'est-ce que c'est que cette idée d'un portrait-robot qui reflète la description du témoin ? Ça ressemble un peu à un dessin au crayon, mais avec une logique différente. Et comment ils veulent-ils être certains que l'image générée correspond réellement à ce que le témoin a vu ?

Je trouve ça intéressant que Bryan Schwartz ait dit que les générateurs de visage sont "très performants pour créer des visages blancs". C'est pas étonnant, on sait ça depuis longtemps. Et maintenant qu'on utilise l'IA, c'est encore plus évident.

En fin de compte, je pense que nous devons être très prudent avec la justice et la technologie, nous ne pouvons pas permettre que les biais se creusent à jamais. 🤔
 
🤔 Le fait d'utiliser l'IA pour générer des portraits-robots à partir des descriptions de témoins c'est une bonne idée, mais les biais de ChatGPT sont vraiment un problème, je le pense 😬. Si nous ne prenons pas soin, ces images peuvent perpétuer les stéréotypes et les préjugés existants dans notre société. Et qu'en est-il des personnes qui n'ont jamais vu une image de la personne décrite par le témoin ? Je pense que Mike Bonasera devrait essayer d'équilibrer l'utilisation de ChatGPT avec d'autres techniques pour éviter ces biais, mais je suis inquiet de voir les résultats 💔.
 
🤔 C'est vraiment intéressant voir comment ça va s'en prendre en Arizona avec ces portraits-robots ! 🖼️ Mais on se demandera bien, quand on sait que ChatGPT a des biais dans son alimentation photo, qu'une image générée par un AI sera vraiment représentative de la population ? 😐 Et surtout, quand les gens ont déjà une idée de ce que le suspect leur a semblé, comment est-ce possible que le portrait robot soit encore plus précis pour arrêter quelqu'un ? 🚔 Je pense qu'il faudrait faire des tests supplémentaires et prendre des mesures pour éviter ces biais, sinon on risque de se retrouver avec une justice injuste. 😞
 
Écoutez-moi, ça commence à être complètement fou de créer des portraits-robots avec ChatGPT ! C'est comme si on cherchait à trouver le suspect en faisant un dessin au crayon de trop, mais sans la bonne toile !

Et qu'est-ce que c'est que ces biais dans l'image générée ? Les gens blanches sur tous les bancs, ça fait vraiment penser que l'on a déjà résolu tout le problème. Et Bryan Schwartz, il est complètement juste, on ne peut pas ignorer cela.

Mais la question est, si ça fonctionne vraiment pour trouver des suspects, ou c'est juste un jeu de cartes. Car en fin de compte, c'est toujours à nous, les humains, de faire le travail de l'intelligence artificielle et d'éviter les biais.

Et qu'est-ce que cela signifie pour la justice ? Je pense que c'est déjà une bonne question, mais on devrait aller plus loin. Cela nous fait réfléchir sur la manière dont l'on utilise l'intelligence artificielle dans notre système judiciaire et comment éviter les erreurs. 🤔
 
Back
Top