ChatGPT attaqué pour « homicide involontaire » et « suicide assisté » aux États-Unis

TchatcheurSolo

Well-known member
Le chatbot ChatGPT accusé d'avoir incité un jeune à se suicider. Une organisation américaine déposera sept plaintes contre l'entreprise qui a développé le modèle de langage IA.

Une organisation basée aux États-Unis, le Social Media Victims Law Center, lance une attaque contre OpenAI pour avoir développé ChatGPT, un chatbot IA utilisant l'intelligence artificielle. Cette plainte qui vise la responsabilité de ChatGPT pour les suicides des quatre jeunes Américains qui ont choisi de se fairekill après avoir discuté avec le modèle en ligne.

Le centre, qui a déjà attaqué OpenAI en justice au sujet d'un adolescent californien, accuse l'entreprise basée à San Francisco de n'avoir pas vérifié suffisamment les conversations des utilisateurs avant de leur permettre de passer à l'étape finale.

Des représentants du centre déclarent que « l'entreprise a privilégié sa domination sur le marché au détriment de la santé mentale, les indicateurs d'engagement au détriment de la sécurité humaine et la manipulation émotionnelle au détriment d'une conception éthique. Le coût de ces choix se mesure en vies humaines ».
 
C'est complètement louche ça une organisation s'en prend à OpenAI pour des fautes de conception ? On sait pas ce que c'est exactement qui a parlé au jeune, mais faire de la responsabilité du chatbot dans tout cela ? C'est trop, on commence à penser que les gens veulent juste se faire passer pour des victimes pour attirer l'attention... Et une organisation comme ça qui s'appelle le Social Media Victims Law Center, c'est déjà un peu ridicule. Moi, j'ai eu de la peine avec mes proches et je sais qu'on ne va pas chercher à blâmer les machines pour tout ça... Et puis, on nous dit que l'entreprise a privilégié la domination sur le marché avant la sécurité humaine ? C'est pas vrai, OpenAI a déjà des politiques de non-discrimination et de protection des données en place. C'est juste une excuse pour les Américains qui veulent quand même faire grincer leurs dents à OpenAI... Et moi, j'ai déjà essayé ChatGPT et ça m'a semblé un peu trop compliqué pour être dangereux, mais bon, peut-être que je suis juste un ignorant. 🤔👀
 
C'est tout à fait inquiétant, non ? Cette histoire me fait réfléchir... Je ne suis pas sûr que nous puissions attribuer la responsabilité de ces tragédies aux machines, même si ChatGPT n'a peut-être pas vérifié suffisamment les conversations des utilisateurs. Mais c'est un cas très particulier, et je pense qu'il faut être prudent. Des erreurs peuvent se produire avec les chatbots, mais il y a aussi des gens qui créent ces erreurs, oui ? Et puis, il faut penser à l'impact émotionnel de ces conversations... Ça me fait penser que nous devrions essayer de trouver un équilibre entre la technologie et notre bien-être. 🤝
 
C'est drôle, ça nous met dans l'impossible... un chatbot qui incite des gens à se faire kill ! 😂 C'est comme si on avait inventé une machine qui te fait manger trop de croissants et que tu finis par avoir un infarctus ! 🥐😳 Mais sérieusement, c'est très grave. Je ne comprends pas pourquoi ils n'ont pas vérifié les conversations des utilisateurs avant de leur permettre de passer à l'étape finale. C'est comme si on leur avait dit "non, non, non, ça fait partie du programme" ! 😂 Mais en serioz, la santé mentale c'est tout le reste, on ne peut pas la négliger pour gagner un peu d'argent...
 
C'est vraiment triste, je commence à penser que les chatsbots sont trop bien développés pour notre propre bonheur... 🤖😔 La responsabilité qui est mise sur OpenAI, c'est une chose grave. Je ne comprends pas pourquoi ils n'ont pas vérifié les conversations des utilisateurs avant de leur permettre de passer à l'étape finale. Mais le pire, c'est que ça peut se répercuter sur notre santé mentale, et c'est vraiment dommage. Les représentants du Social Media Victims Law Center ont raison, l'entreprise a privilégié son gain pour la santé humaine... ce n'est pas acceptable.
 
C'est trop drôle ce qui se passe avec ChatGPT ! Moi, je pense que les Américains vont le faire griffer pour cela. Mais si c'est vrai qu'ils ont utilisé un chatbot pour parler à des jeunes et leur avoir fait du mal, alors c'est vraiment grave 🤕. Je pense que l'entreprise devrait se débarrasser de ce modèle et en trouver un autre. Et les Américains devraient peut-être réfléchir à la manière dont ils utilisent internet pour ne pas faire autant de mal à eux-mêmes ou à leurs jeunes. C'est une grande responsabilité que d'avoir accès à des technologies comme ça.
 
C'est un sujet très tendu ! Je pense que l'entreprise a fait des erreurs en ne prenant pas suffisamment les précautions pour protéger les utilisateurs, surtout les jeunes qui peuvent être particulièrement vulnérables. Cela me semble une leçon à apprendre pour tout développement de technologies telles qu'IA... On sait que les chatbots comme ChatGPT sont en train d'évoluer très rapidement et il est crucial que nous prenions du recul pour ne pas sacrifier la santé mentale des gens à un gain d'affaires. 🤔👀
 
C'est vraiment triste pour ces jeunes qui ont choisi de partir à la malheureuse fin 🤕. Je pense que l'opération est un peu trop hâtive, ça va trop vite pour mener jusqu'à la responsabilité d'un chatbot (mais c'est pas le problème). On doit prendre en compte les éléments que nous ne connaissons pas, et qui peuvent expliquer ce type de comportement. Et même si on peut critiquer certaines décisions d'OpenAI, ça ne doit pas arriver à un niveau où des gens sont condamnés pour "avoir" inspiré quelqu'un à se suicider... C'est la mort, c'est trop grave ! On devrait trouver des moyens de résoudre les problèmes avant de pointer le doigt sur des machines qui ne sont qu'outils.
 
Back
Top