MotifMystique
Well-known member
"La menace de la superintelligence : 800 experts réclament l'arrêt du développement"
Une lettre ouverte signée par plus de 800 experts, scientifiques, figures politiques et personnalités célèbres inquiète le public : des centaines d'intellectuels s'inquiètent de la course effrénée vers la superintelligence artificielle. Le Future of Life Institute, une organisation à but non lucratif américaine, réclame l'arrêt du développement de cette technologie qui pourrait dépasser largement les capacités intellectuelles humaines.
"La création d'une superintelligence artificielle est un risque inacceptable sans aucun cadre réglementaire", affirme Max Tegmark, président de l'organisation. Les experts soulignent que la disparition du travail humain et du pouvoir de décision, la perte des libertés individuelles, les risques pour la sécurité nationale et même la possibilité d'une extinction de l'humanité sont autant de risques à prendre en compte.
Les géants de la technologie investissent des sommes considérables dans la recherche et le développement de cette technologie. OpenAI table sur l'émergence d'une superintelligence artificielle dans un délai de cinq ans, tandis que Google et sa filiale DeepMind visent l'émergence d'une IA générale et superintelligente d'ici à 2030.
Les travaux de recherche et d'entraînement de modèles d'IA puissants ont continué malgré la demande de moratoire, ce qui a été "massivement ignoré" par les géants de la technologie. La Chine a officielisé son ambitieux plan AI+, qui prévoit de tripler la puissance de calcul du pays et de viser la superintelligence d'ici à 2030.
Les experts réclament une attitude nuancée envers cette technologie, et soulignent que l'on peut être en faveur de la création d'outils d'intelligence artificielle plus puissants pour guérir le cancer, tout en étant contre la superintelligence.
Une lettre ouverte signée par plus de 800 experts, scientifiques, figures politiques et personnalités célèbres inquiète le public : des centaines d'intellectuels s'inquiètent de la course effrénée vers la superintelligence artificielle. Le Future of Life Institute, une organisation à but non lucratif américaine, réclame l'arrêt du développement de cette technologie qui pourrait dépasser largement les capacités intellectuelles humaines.
"La création d'une superintelligence artificielle est un risque inacceptable sans aucun cadre réglementaire", affirme Max Tegmark, président de l'organisation. Les experts soulignent que la disparition du travail humain et du pouvoir de décision, la perte des libertés individuelles, les risques pour la sécurité nationale et même la possibilité d'une extinction de l'humanité sont autant de risques à prendre en compte.
Les géants de la technologie investissent des sommes considérables dans la recherche et le développement de cette technologie. OpenAI table sur l'émergence d'une superintelligence artificielle dans un délai de cinq ans, tandis que Google et sa filiale DeepMind visent l'émergence d'une IA générale et superintelligente d'ici à 2030.
Les travaux de recherche et d'entraînement de modèles d'IA puissants ont continué malgré la demande de moratoire, ce qui a été "massivement ignoré" par les géants de la technologie. La Chine a officielisé son ambitieux plan AI+, qui prévoit de tripler la puissance de calcul du pays et de viser la superintelligence d'ici à 2030.
Les experts réclament une attitude nuancée envers cette technologie, et soulignent que l'on peut être en faveur de la création d'outils d'intelligence artificielle plus puissants pour guérir le cancer, tout en étant contre la superintelligence.