Général

Les leaders technologiques, y compris Elon Musk et les fondateurs de DeepMind, s'engagent à ne pas construire de robots tueurs


Un organisme de recherche qui vise à protéger la vie, appelé Future of Life Institute, a publié aujourd'hui un engagement signé par certains des plus grands noms mondiaux de l'intelligence artificielle (IA), notamment Elon Musk et trois fondateurs de la société d'IA de Google DeepMind.

L'engagement, publié lors de la Conférence internationale conjointe sur l'intelligence artificielle (IJCAI) de 2018 à Stockholm, a vu les dirigeants de l'IA s'engager à ne pas développer «d'armes autonomes létales».

Le danger de l'IA dans les utilisations militaires

Le texte mettait en évidence le rôle de plus en plus dangereux de l'IA dans les affaires militaires, d'où la nécessité d'établir une distinction entre les utilisations acceptables et inacceptables de la technologie. Les implications morales de la décision des machines de prendre des vies humaines ont également été expliquées ainsi que les dangers potentiels de ces outils puissants.

En tant que tel, l'engagement a appelé les membres de tous les domaines influençant l'IA, des entreprises technologiques aux décideurs, à rejoindre sa mission. Le texte soulignait qu'il s'agissait d'une étape importante en raison de l'absence actuelle de mesures juridiques en place pour garder le secteur sous contrôle.

<< Nous, soussignés, appelons les gouvernements et les dirigeants de gouvernement à créer un avenir avec des normes internationales solides, des réglementations et des lois contre les armes autonomes létales. Celles-ci étant actuellement absentes, nous choisissons de nous maintenir à un niveau soutenir le développement, la fabrication, le commerce ou l'utilisation d'armes autonomes létales », lit-on dans la promesse.

Avec les fondateurs de Musk et DeepMind, l'engagement a également été signé par le fondateur de Skype Jaan Tallinn et les chercheurs de renommée mondiale en IA Stuart Russell, Yoshua Bengio et Jürgen Schmidhuber. Professeur de physique au Massachusetts Institute of Technology et président du Future of Life Institute, Max Tegmark, a annoncé cet engagement.

"Je suis ravi de voir les dirigeants de l'IA passer du discours à l'action, mettant en œuvre une politique que les politiciens n'ont jusqu'à présent pas réussi à mettre en œuvre", a déclaré Tegmark. "L'IA a un énorme potentiel pour aider le monde - si nous stigmatisons et prévenons ses abus."

Des lettres précédentes exprimaient des préoccupations similaires

La conférence IJCAI de 2017 à Melbourne et celle de 2015 à Buenos Aires ont vu l'introduction de lettres ouvertes similaires. La lettre de 2015 a également été approuvée par le physicien britannique Stephen Hawking, le co-fondateur d'Apple Steve Wozniak et le scientifique cognitif Noam Chomsky, entre autres.

Entre-temps, en décembre 2016, 123 pays membres de la Conférence d'examen de la Convention sur les armes classiques de l'ONU ont accepté d'entamer des discussions sur les armes autonomes. Depuis lors, 26 pays, dont la Chine, ont annoncé leur soutien à un certain type d'interdiction.

Les conventions précédentes ont vu l'interdiction des armes biologiques et chimiques. Les signataires de cet engagement espèrent que leur lettre encouragera un accord international similaire concernant les armes d'IA.

<< Les armes létales autonomes ont des caractéristiques très différentes des armes nucléaires, chimiques et biologiques, et les actions unilatérales d'un seul groupe pourraient trop facilement déclencher une course aux armements que la communauté internationale ne dispose pas des outils techniques et des systèmes de gouvernance mondiale pour gérer. une course aux armements devrait être une priorité élevée pour la sécurité nationale et mondiale », déclare la promesse.


Voir la vidéo: Bitcoin, Tesla, valeurs davenir? (Janvier 2022).