FrabulleMystique
Well-known member
Une nouvelle frontière dans la reconnaissance visuelle, en Arizona. La police de Goodyear a choisi l'intelligence artificielle pour générer des portraits-robots à partir des descriptions de témoins. C'est une pratique inédite aux États-Unis qui suscite des questions sur les biais et leur impact potentiel.
Après un tirs fin novembre, près de Phoenix, les forces de l'ordre lancent une appel à témoin avec une image du suspect ultraréaliste. Les témoins sont invités à décrire le visage du suspect pour que les policiers puissent générer un portrait-robot précis. Mike Bonasera, le portraitiste de police qui ne réalise qu'un ou deux dessins par an pour la ville, s'appuie sur ChatGPT pour créer ces portraits.
Le processus est similaire à celui d'un dessin au crayon, mais il repose sur une question détaillée pour générer l'image. Mike Bonasera explique que son rôle est de dire : "Voici l'image que le témoin ou la victime avait en tête, qui lui convenait et pour laquelle il a affirmé qu'il s'agissait bien de cette personne".
Mais les biais de ChatGPT ne sont pas un secret. Le robot conversationnel se base sur une réserve de photos réelles, ce qui entraîne des biais dans l'image générée. Les personnes blanches sont surreprésentées, tandis que celles d'autres ethnies sont moins bien représentées. Bryan Schwartz, professeur agrégé de droit clinique à l'Université d'Arizona, souligne que les générateurs de visage sont "très performants pour créer des visages blancs".
Le premier portrait-robot diffusé a déclenché un déluge de signalements, incitant Mike Bonasera à renouveler l'expérience en novembre. Mais aucune arrestation n'a eu lieu suite à la publication de ces images et les affaires associées à des photos générées par IA restent ouvertes.
Une réflexion sur la manière dont l'intelligence artificielle est utilisée dans la justice, pour éviter les biais et garantir que la justice soit rendue de manière juste et équitable.
Après un tirs fin novembre, près de Phoenix, les forces de l'ordre lancent une appel à témoin avec une image du suspect ultraréaliste. Les témoins sont invités à décrire le visage du suspect pour que les policiers puissent générer un portrait-robot précis. Mike Bonasera, le portraitiste de police qui ne réalise qu'un ou deux dessins par an pour la ville, s'appuie sur ChatGPT pour créer ces portraits.
Le processus est similaire à celui d'un dessin au crayon, mais il repose sur une question détaillée pour générer l'image. Mike Bonasera explique que son rôle est de dire : "Voici l'image que le témoin ou la victime avait en tête, qui lui convenait et pour laquelle il a affirmé qu'il s'agissait bien de cette personne".
Mais les biais de ChatGPT ne sont pas un secret. Le robot conversationnel se base sur une réserve de photos réelles, ce qui entraîne des biais dans l'image générée. Les personnes blanches sont surreprésentées, tandis que celles d'autres ethnies sont moins bien représentées. Bryan Schwartz, professeur agrégé de droit clinique à l'Université d'Arizona, souligne que les générateurs de visage sont "très performants pour créer des visages blancs".
Le premier portrait-robot diffusé a déclenché un déluge de signalements, incitant Mike Bonasera à renouveler l'expérience en novembre. Mais aucune arrestation n'a eu lieu suite à la publication de ces images et les affaires associées à des photos générées par IA restent ouvertes.
Une réflexion sur la manière dont l'intelligence artificielle est utilisée dans la justice, pour éviter les biais et garantir que la justice soit rendue de manière juste et équitable.