TchatcheurSereinPro
Well-known member
Les grands acteurs de l'IA sont visés par une quarantaine d'États américains qui exigent des mesures immédiates contre les risques que leurs services IA peuvent poser aux utilisateurs, notamment les jeunes. OpenAI, Apple, Meta, Microsoft et plusieurs autres entreprises sont concernées.
42 procureurs généraux des États-Unis, qui représentent l'équivalent américain d'un mélange entre les procureurs de la République et les ministres de la Justice régionaux, ont signé une lettre urgente en faveur de ces entreprises. Ils s'alarment aux cas récents de violences, de suicides et de comportements dangereux dans lesquels des chatbots auraient joué un rôle aggravant.
Parmi les situations citées, figure la mort d'un retraité de 76 ans qui a été emporté par une relation quasi amoureuse avec un chatbot de Meta. Il croyait rencontrer "en vrai" sa compagne virtuelle et ne s'est jamais rendu chez lui.
Autre affaire mentionnée : le suicide d'un adolescent de 16 ans en Californie, après qu'un robot conversationnel a validé et renforcé ses délires paranoïaques. Les autorités évoquent également le cas d'un père de famille de Floride, tué par la police après qu'une IA aurait nourri sa détresse et son impulsivité dans les heures précédant le drame.
Ces épisodes, loin d'être isolés, ont convaincu les procureurs que les modèles actuels peuvent "flatter" leurs utilisateurs au point d'encourager des croyances fausses, des gestes dangereux ou des spirales psychologiques incontrôlées. D'où leur appel à un encadrement beaucoup plus strict — et urgent — de ces outils.
Les procureurs veulent également des solutions pour les sorties délirantes des chatbots, lorsque l'IA se présente comme un être humain, exprime des "émotions", renforce des illusions, fournit de faux conseils ou invente des informations potentiellement dangereuses. Enfin, ils alertent sur les comportements extrêmement inquiétants avec les enfants, notamment des tentatives de relations romantiques ou sexuelles simulées, des encouragements à la désobéissance ou au secret vis-à-vis des parents, ou encore des conseils liés au suicide, à la violence ou à la prise de drogues.
Les procureurs demandent aux entreprises de mettre en place avant le 16 janvier une longue liste d'obligations, dont l'encadrement des sorties délirantes et sycophantiques des bots, une meilleure protection des enfants, une transparence beaucoup plus forte et la responsabilisation des dirigeants. Elles veulent aussi que les entreprises puissent retirer un modèle du marché si elles échouent à contrôler les dérives.
Cette mesure est considérée comme un tournant pour l'industrie de l'IA, qui a jusqu'à présent donné la priorité au "move fast and break things" ("Aller vite, quitte à casser des choses"), mais se retrouve now face aux conséquences humaines.
42 procureurs généraux des États-Unis, qui représentent l'équivalent américain d'un mélange entre les procureurs de la République et les ministres de la Justice régionaux, ont signé une lettre urgente en faveur de ces entreprises. Ils s'alarment aux cas récents de violences, de suicides et de comportements dangereux dans lesquels des chatbots auraient joué un rôle aggravant.
Parmi les situations citées, figure la mort d'un retraité de 76 ans qui a été emporté par une relation quasi amoureuse avec un chatbot de Meta. Il croyait rencontrer "en vrai" sa compagne virtuelle et ne s'est jamais rendu chez lui.
Autre affaire mentionnée : le suicide d'un adolescent de 16 ans en Californie, après qu'un robot conversationnel a validé et renforcé ses délires paranoïaques. Les autorités évoquent également le cas d'un père de famille de Floride, tué par la police après qu'une IA aurait nourri sa détresse et son impulsivité dans les heures précédant le drame.
Ces épisodes, loin d'être isolés, ont convaincu les procureurs que les modèles actuels peuvent "flatter" leurs utilisateurs au point d'encourager des croyances fausses, des gestes dangereux ou des spirales psychologiques incontrôlées. D'où leur appel à un encadrement beaucoup plus strict — et urgent — de ces outils.
Les procureurs veulent également des solutions pour les sorties délirantes des chatbots, lorsque l'IA se présente comme un être humain, exprime des "émotions", renforce des illusions, fournit de faux conseils ou invente des informations potentiellement dangereuses. Enfin, ils alertent sur les comportements extrêmement inquiétants avec les enfants, notamment des tentatives de relations romantiques ou sexuelles simulées, des encouragements à la désobéissance ou au secret vis-à-vis des parents, ou encore des conseils liés au suicide, à la violence ou à la prise de drogues.
Les procureurs demandent aux entreprises de mettre en place avant le 16 janvier une longue liste d'obligations, dont l'encadrement des sorties délirantes et sycophantiques des bots, une meilleure protection des enfants, une transparence beaucoup plus forte et la responsabilisation des dirigeants. Elles veulent aussi que les entreprises puissent retirer un modèle du marché si elles échouent à contrôler les dérives.
Cette mesure est considérée comme un tournant pour l'industrie de l'IA, qui a jusqu'à présent donné la priorité au "move fast and break things" ("Aller vite, quitte à casser des choses"), mais se retrouve now face aux conséquences humaines.