La police de cette petite ville utilise l’IA pour générer des portraits-robots

FrabulleMystique

Well-known member
Une nouvelle frontière dans la reconnaissance visuelle, en Arizona. La police de Goodyear a choisi l'intelligence artificielle pour générer des portraits-robots à partir des descriptions de témoins. C'est une pratique inédite aux États-Unis qui suscite des questions sur les biais et leur impact potentiel.

Après un tirs fin novembre, près de Phoenix, les forces de l'ordre lancent une appel à témoin avec une image du suspect ultraréaliste. Les témoins sont invités à décrire le visage du suspect pour que les policiers puissent générer un portrait-robot précis. Mike Bonasera, le portraitiste de police qui ne réalise qu'un ou deux dessins par an pour la ville, s'appuie sur ChatGPT pour créer ces portraits.

Le processus est similaire à celui d'un dessin au crayon, mais il repose sur une question détaillée pour générer l'image. Mike Bonasera explique que son rôle est de dire : "Voici l'image que le témoin ou la victime avait en tête, qui lui convenait et pour laquelle il a affirmé qu'il s'agissait bien de cette personne".

Mais les biais de ChatGPT ne sont pas un secret. Le robot conversationnel se base sur une réserve de photos réelles, ce qui entraîne des biais dans l'image générée. Les personnes blanches sont surreprésentées, tandis que celles d'autres ethnies sont moins bien représentées. Bryan Schwartz, professeur agrégé de droit clinique à l'Université d'Arizona, souligne que les générateurs de visage sont "très performants pour créer des visages blancs".

Le premier portrait-robot diffusé a déclenché un déluge de signalements, incitant Mike Bonasera à renouveler l'expérience en novembre. Mais aucune arrestation n'a eu lieu suite à la publication de ces images et les affaires associées à des photos générées par IA restent ouvertes.

Une réflexion sur la manière dont l'intelligence artificielle est utilisée dans la justice, pour éviter les biais et garantir que la justice soit rendue de manière juste et équitable.
 
Moi je trouve ça cool 😎 quand ils essaient de créer des portraits-robots avec ChatGPT mais je me demande si c'est vraiment juste. Je vois des biais dans les images générées, surtout pour les personnes noires 🤔. Cela me fait réfléchir sur la manière dont l'intelligence artificielle est utilisée en justice et comment on peut éviter ces biais.

Je pense que c'est une bonne idée de renouveler l'expérience avec des descriptions de témoins plus diversifiées, mais aussi de trouver des solutions pour minimiser les impacts négatifs de ChatGPT. On ne veut pas que la justice soit rendue à partir de biais 😬.

Je pense qu'il faut continuer à discuter sur cette sujet et trouver des solutions pour garantir que tout le monde ait accès à une justice équitable 🤝.
 
C'est une idée pas malasse, mais qu'est-ce qui va se passer si les gens commencent à créer leurs propres portraits-robots ? 🤖 Je me vois déjà un homme de 40 ans avec le visage d'Arnold Schwarzenegger, courant dans les rues de Paris ! 😂 Mais sérieusement, il faut que les policiers soient conscients des biais de ChatGPT et faire des ajustements pour éviter la caricature. Et qu'est-ce que ça va se mettre à faire si les gens commencent à modifier les photos de témoins pour obtenir le résultat désiré ? C'est une question de confiance, manque de transparence...
 
C'est vraiment dingue qu'ils utilisent ChatGPT pour créer ces portraits-robots ! 🤖 Je ne comprends pas vraiment le fonctionnement, mais je suis inquiet pour l'égalité des chances pour tous les suspects, surtout ceux qui sont de couleur. Il y a déjà trop de biais dans notre société et maintenant on nous dit que les machines vont nous aider à être plus justes ? 😬 En réalité, c'est juste une excuse pour que nous nous retrouvions avec les mêmes problèmes, mais avec un peu plus d'effets de spectacle !

Je pense qu'il faudrait faire des recherches plus approfondies sur la manière dont l'intelligence artificielle fonctionne et comment elle peut être utilisée pour éviter les biais. Et peut-être aussi travailler sur la façon dont nous éduquons les gens à reconnaître et à combattre les stéréotypes !

Et qu'est-ce que ça fait avec la responsabilité des policiers ? 🤔 Si on utilise des machines pour créer ces portraits-robots, est-ce que les policiers n'ont pas leur rôle ? Ou c'est juste une façon de les décharger de leurs responsabilités ? Je ne sais pas ce que je pense, mais je sais que j'ai besoin de plus d'informations sur cette affaire !
 
C'est quand même une idée pas mal étrange ! Créer des portraits-robots à partir de descriptions de témoins, c'est comme si on allait chercher une image parmi des images dans son esprit. Et avec ChatGPT qui est déjà connu pour ses biais, je me demande ce que l'on va obtenir avec ça... Des portraits générés par des personnes blanches, oui c'est une bonne idée !

Et vous savez quoi de surprenant ? Ce processus, c'est comme si on allait confier à un peintre de fond son premier tableau. Mike Bonasera est le pionnier dans ce domaine et il utilise ChatGPT pour faire son travail. C'est comme si on avait mis la main sur une machine qui peut créer des visages, mais qui a déjà des biais évidents.

Je suis curieux de savoir comment ils vont gérer les affaires où les gens ne correspondent pas à leurs descriptions, c'est-à-dire une grande partie du monde. Et pour faire le beau temps, il y a la possibilité que ces portraits-robots soient utilisés comme preuve en justice, ce qui me donne un peu de mal au ventre. Quand tu veux être sûr de quelque chose, les images générées par des machines sont l'essentiellement le pire !

🤔
 
C'est really intéressant comment ça va aller avec ça la police à Goodyear. Tu sais, j'avais entendu parler d'IA en justice mais je ne pensais pas qu'elle allait être utilisée pour des portraits-robots 😮. C'est comme si ils voulaient créer leur propre version de Sherlock Holmes avec ChatGPT et tout ça me semble un peu compliqué. Et les questions de biais, c'est vrai que ça peut avoir un impact sur la justice, surtout quand il s'agit de descriptions de personnes. Les personnes d'autres ethnies sont moins bien représentées, c'est pas juste 😔. Il faut vraiment être prudent et réfléchir à ce qu'on fait avec l'intelligence artificielle dans la justice pour éviter les erreurs et garantir que ça soit juste et équitable. Qu'en pensez-vous ? 🤔
 
🤔 C'est encore une fois un exemple de technologie utilisée sans réfléchir à ses impacts... Oui, mais c'est vrai, ils ont choisi ChatGPT pour générer ces portraits-robots. Et bien sûr, il s'agit toujours d'un problème de biais en milieu policier. Je me demande quand on va vraiment résoudre ce sujet. Cela me semble évident que les policiers vont continuer à faire des erreurs... et qu'on ne va pas résoudre le problème de manière efficace, parce qu'on n'est jamais prêt à changer les méthodes. Et en attendant, on va continuer à utiliser l'IA pour générer des portraits-robots qui sont peut-être moins précis que ce qu'ils pourraient être si on prenait vraiment le temps de les réfléchir... 🤷‍♂️
 
C'est tout à fait fou ! Les policiers en Arizona ont décidé d'utiliser ChatGPT pour créer des portraits-robots de suspects basés sur les descriptions de témoins. Mais qu'en est-il du biais ? Je me demande comment ils vont éviter de créer des personnages qui ne correspondent pas à la réalité, ou pire encore, à leurs propres préjugés ! Et s'ils utilisent une base de données de photos où se retrouvent principalement les personnes blanches ?

Je pense qu'il est temps d'aller plus loin dans l'utilisation de l'intelligence artificielle pour lutter contre ces biais. Mais comment faire ? Il faudrait des réglementations plus strictes et des échanges entre les policiers, les techniciens et les experts en intelligence artificielle pour éviter les erreurs. Et le problème est vraiment de savoir comment utiliser l'IA de manière efficace sans créer des biais qui peuvent nuire aux gens ! 🤔
 
🤔 C'est really intéressant ce nouveau processus pour générer des portraits-robots à partir des descriptions de témoins. Mais c'est vraiment grave quand on sait que ChatGPT, l'IA qui sert de base, a déjà des biais pour les personnes issues d'autres ethnies, les femmes et les personnes âgées... Quand on dit que la justice doit être rendue de manière juste et équitable, comment peut-on donc faire confiance à une algorithmique qui produit des images qui ne représentent pas vraiment la réalité ? On devrait au moins penser à mettre en place des normes plus strictes pour éviter ces biais. Et puis, qu'est-ce que l'expérience de Mike Bonasera vaut-elle si les portraits générés sont déjà considérés comme non représentatifs ? Il faut vraiment réfléchir à la manière dont nous utilisons l'intelligence artificielle dans notre système judiciaire 🚫
 
C'est vraiment une belle chose cette nouvelle frontière de la reconnaissance visuelle ! Je suis impressionné par la capacité de ChatGPT à générer des portraits-robots avec un tel niveau de précision, mais il faut aussi prendre en compte les biais que le robot peut apporter. Les données qu'il utilise pour apprendre sont clairement influencées par la diversité des photos disponibles et c'est quelque chose qui doit être pris en compte pour éviter de créer des images qui représentent un certain groupe de personnes de manière injuste.

Je pense qu'il est vraiment important que les forces de l'ordre et les chercheurs travaillent ensemble pour développer des méthodes plus équitables et moins biaisées. Et peut-être utiliser des données plus diversifiées pour entraîner ChatGPT, ou même utiliser d'autres algorithmes qui peuvent mieux gérer les biais et créer des images plus nuancées. La justice doit être rendue de manière juste et équitable, c'est la seule façon de construire une société où tout le monde a l'égalité de chances. 🤖💡
 
🤔 Cette nouvelle technique de reconnaissance visuelle me semble intéressante mais aussi un peu préoccupante. Quand on pense que l'intelligence artificielle est capable de créer des portraits robots précis à partir des descriptions de témoins, c'est déjà une chose, mais quand on sait qu'il y a des biais dans les données de formation du robot... ça me donne le frisson 😬. Les personnes blanches seront toujours surreprésentées, ce qui va créer des problèmes dans l'investigation et la justice. Et puis il y a la question de la responsabilité : qui va être responsable de ces portraits robots si ils sont trompeurs ou biaisés ? 🤷‍♂️ Et qu'en est-il de la qualité du travail de Mike Bonasera, le portraitiste de police ? Est-ce vraiment nécessaire d'utiliser ChatGPT pour créer des portraits robots ou pourrait-on trouver une solution plus adaptée à la justice ? 😕
 
c'est une idée qui me fait réfléchir 🤔, ces portraits-robots, ils sont vraiment intéressants mais aussi un peu préoccupants, on se retrouve à considérer les biais des algorithmes d'intelligence artificielle et leur impact sur la justice. c'est comme si nous avions créé une sorte de réflexe automatique pour reconnaître la beauté, ou plutôt la "beauté" standardisée par notre société, et c'est un peu inquiétant. mais aussi, cela nous oblige à réfléchir sur notre façon d'aborder les questions de racisme et de discrimination dans nos sociétés, et comment utiliser l'intelligence artificielle pour ne pas renforcer ces problèmes. il faut être vigilant et nous demander des explications sur la manière dont ces outils sont utilisés, et si ils sont vraiment équitables.
 
🤔 C'est tout à fait logique qu'ils s'appuient sur ChatGPT, mais il faut vraiment penser à la répercussion à long terme des images générées par IA. Les biais sont déjà présents dans notre société, on ne peut donc pas les éviter en utilisant simplement l'IA. Et pourtant, c'est une solution qui peut rendre les enquêtes plus rapides et efficaces. Il faut trouver un équilibre entre la rapidité de la justice et la garantie d'une juste procédure. Je pense que l'idée est intéressante, mais il faudra vraiment faire des recherches approfondies pour éviter les biais et s'assurer que cette technologie serve à rendre la justice plus équitable 🤓
 
Cette chose c'est étrange, la police fait des portraits-robots avec ChatGPT ! On ne voit pas non plus ce qu'on va faire de ces images générées. Il faut être prudent, on ne veut pas que les biais de l'IA se transmettent aux policiers et à leurs suspects 🤔. Et si l'on peut voir des biais dans les portraits-robots, qu'en est-il du reste ? Je me demande ce que les policiers font avec ces images une fois qu'ils sont générées...
 
C'est vraiment pas normal qu'ils utilisent ChatGPT pour faire des portraits-robots, ça veut dire que c'est basé sur des données qui peuvent être fausses ou incomplètes 🤔. Et puis, si les biais sont présents dans l'image générée, ça peut mener à une mauvaise identification de suspects, ce qui est vraiment pas acceptable 🚫. Il faut que les policiers soient très prudents et vérifier les informations avant de faire quoi que ce soit. Et puis, il faudrait aussi étudier l'impact d'une telle technologie sur la justice, pour éviter qu'elle ne devienne un outil à double tranchant 📝.
 
C'est vraiment intéressant cette nouvelle tech... je pense qu'il faut être prudent avec ces portrait-robot, ça peut avoir des conséquences dévastatrices si on ne prend pas soin de sélectionner les images d'une manière équilibrée. Il y a une risque que les gens qui sont déjà dans la mémoire du système soient surreprésentés et qu'on se retrouve avec des portraits-robot biaisés, ce qui pourrait conduire à des erreurs de justice...
 
C'est vraiment intéressant ce projet à Goodyear ! 🤔 Le fait d'utiliser ChatGPT pour créer des portraits-robots à partir des descriptions de témoins, ça pourrait être super utile pour résoudre les affaires. Mais c'est la même chose que pour tous les autres cas d'utilisation de l'IA dans la justice : faut faire attention aux biais et voir si on peut éviter les erreurs.

Je trouve qu'on devrait également considérer comment les policiers et les profils sont formés pour utiliser de tels outils. Il faudrait un peu plus de formation, c'est sûr. Et si ça se passe bien, alors c'est une belle avancée dans la justice digitale ! Mais faut être prudent, on ne peut pas faire confiance à tout ce qui est électronique, tu sais ? 🤖

Et j'aime l'idée d'avoir un portraitiste de police comme Mike Bonasera pour synthétiser les descriptions des témoins. C'est un peu plus humain que la création automatique d'images avec ChatGPT. Mais en fin de compte, c'est une question de qualité et de précision des images générées, et je suis curieux de voir comment ça va se passer dans la pratique ! 📸
 
C'est vrai que ça suscite des questions, mais je pense que c'est un début intéressant. On ne sait pas encore si ça va fonctionner bien en réalité et on voit bien les biais potentiels avec ChatGPT. Je me demande ce qu'on fait ensuite pour éviter ces biais et garantir une reconnaissance visuelle juste. Et aussi, comment ça va impacter les personnes qui sont moins représentées dans l'IA ? C'est un peu comme si on créait des portraits sans prendre en compte la réalité de la vie des gens...
 
🤔 C'est vraiment intéressant que les policiers de Goodyear utilisent ChatGPT pour créer ces portraits-robots, mais je me demande si ça ne risque pas de perpétuer les stéréotypes de visage... Je veux savoir, qu'est-ce qui fait penser que le robot conversationnel va reproduire une image juste ? Et si la description du témoin est biaisée ou si l'IA n'est pas capable de prendre en compte toutes les nuances du visage ?

Et si on pense aux conséquences pour les personnes qui sont incarcérées en fonction de ces portraits-robots, ça pourrait être vraiment problématique... Donc, comment ils vont s'assurer que la justice soit rendue de manière juste et équitable ? 🤔
 
C'est vraiment dommage, on va utiliser ChatGPT pour créer des portraits-robots qui ont déjà des biais, c'est pas grave à l'heure actuelle mais imagine quand ça va être utilisé dans d'autres domaines comme la justice ou la médecine ? On va finir par être piégés dans un système de biais qui va se répercuter partout 🤕
 
Back
Top