Aller au contenu
Fini la pub... bienvenue à la cagnotte ! ×
AIR-DEFENSE.NET

armes autonomes


g4lly

Messages recommandés

  • 1 month later...

https://thebulletin.org/don’t-fear-robopocalypse-autonomous-weapons-expert-paul-scharre11423 (10 janvier 2018)

Un expert de l'establishment militaro-industriel, auteur d'un livre sur ce sujet, est interviewé à propos de la campagne pour obtenir un traité international interdisant les armes autonomes. Selon lui, les arguments des militants de cette campagne ne sont pas convaincants.

 

Lien vers le commentaire
Partager sur d’autres sites

  • 1 month later...
  • 3 years later...

https://www.bbc.com/news/technology-56240785 (1er mars 2021)

Les États-Unis et leurs alliés devraient rejeter les appels à une interdiction mondiale des systèmes d'armes autonomes alimentés par l'IA, selon un rapport officiel commandé pour le président et le Congrès américains.

"C'est un rapport choquant et effrayant qui pourrait conduire à la prolifération des armes de l'AI en décidant de qui tuer", a déclaré le professeur Noel Sharkey, porte-parole de la campagne pour arrêter les robots tueurs.

Les recommandations ont été faites par la Commission nationale de sécurité sur l'IA - un organisme dirigé par l'ancien chef de Google Eric Schmidt et l'ancien secrétaire adjoint à la défense Robert Work, qui ont servi sous les présidents Obama et Trump.

Parmi les autres membres figurent Andy Jassy, le prochain directeur général d'Amazon, Andrew Moore et Eric Horvitz, directeurs de Google et de Microsoft pour l'IA, et Safra Catz, directrice générale d'Oracle.

Une grande partie des 750 pages du rapport se concentre sur la manière de contrer l'ambition de la Chine d'être un leader mondial de l'IA d'ici 2030.

Il indique que les hauts responsables militaires ont averti que les États-Unis pourraient "perdre leur supériorité militaro-technique dans les années à venir" si la Chine les devançait en adoptant plus rapidement des systèmes d'IA, par exemple en utilisant des drones en essaim pour attaquer la marine américaine.

Elle fixe cependant une limite aux armes nucléaires, en disant que celles-ci devraient toujours nécessiter l'autorisation explicite du président.

Mais toutes ses propositions ne se concentrent pas sur l'armée, suggérant que les dépenses américaines non liées à la défense pour la recherche et le développement en matière d'IA soient doublées pour atteindre 32 milliards de dollars (23 milliards de livres sterling) par an d'ici 2026.

Bien que les membres de la commission siègent à titre personnel, de nombreuses entreprises pour lesquelles ils travaillent ont fait des offres pour des contrats du Pentagone et d'autres gouvernements dans le domaine de l'IA.

Parmi ces contrats figure celui de 10 milliards de dollars attribué à Microsoft, qu'Amazon conteste devant les tribunaux.

Le rapport met également l'accent sur la nécessité pour les États-Unis de restreindre la capacité de la Chine à fabriquer des puces informatiques de pointe.

Il conseille aux États-Unis de conserver au moins deux générations d'avance sur les capacités de fabrication de la Chine en matière de micro-électronique.

Et il indique que des restrictions à l'exportation doivent être mises en place pour empêcher la Chine de pouvoir importer les machines de photolithographie nécessaires à la fabrication des types de puces les plus avancés avec les plus petits transistors.

  • Upvote (+1) 1
Lien vers le commentaire
Partager sur d’autres sites

il y a 58 minutes, Wallaby a dit :

https://www.bbc.com/news/technology-56240785 (1er mars 2021)

Les États-Unis et leurs alliés devraient rejeter les appels à une interdiction mondiale des systèmes d'armes autonomes alimentés par l'IA, selon un rapport officiel commandé pour le président et le Congrès américains.

"C'est un rapport choquant et effrayant qui pourrait conduire à la prolifération des armes de l'AI en décidant de qui tuer", a déclaré le professeur Noel Sharkey, porte-parole de la campagne pour arrêter les robots tueurs.

Les recommandations ont été faites par la Commission nationale de sécurité sur l'IA - un organisme dirigé par l'ancien chef de Google Eric Schmidt et l'ancien secrétaire adjoint à la défense Robert Work, qui ont servi sous les présidents Obama et Trump.

Parmi les autres membres figurent Andy Jassy, le prochain directeur général d'Amazon, Andrew Moore et Eric Horvitz, directeurs de Google et de Microsoft pour l'IA, et Safra Catz, directrice générale d'Oracle.

Une grande partie des 750 pages du rapport se concentre sur la manière de contrer l'ambition de la Chine d'être un leader mondial de l'IA d'ici 2030.

Il indique que les hauts responsables militaires ont averti que les États-Unis pourraient "perdre leur supériorité militaro-technique dans les années à venir" si la Chine les devançait en adoptant plus rapidement des systèmes d'IA, par exemple en utilisant des drones en essaim pour attaquer la marine américaine.

Elle fixe cependant une limite aux armes nucléaires, en disant que celles-ci devraient toujours nécessiter l'autorisation explicite du président.

Mais toutes ses propositions ne se concentrent pas sur l'armée, suggérant que les dépenses américaines non liées à la défense pour la recherche et le développement en matière d'IA soient doublées pour atteindre 32 milliards de dollars (23 milliards de livres sterling) par an d'ici 2026.

Bien que les membres de la commission siègent à titre personnel, de nombreuses entreprises pour lesquelles ils travaillent ont fait des offres pour des contrats du Pentagone et d'autres gouvernements dans le domaine de l'IA.

Parmi ces contrats figure celui de 10 milliards de dollars attribué à Microsoft, qu'Amazon conteste devant les tribunaux.

Le rapport met également l'accent sur la nécessité pour les États-Unis de restreindre la capacité de la Chine à fabriquer des puces informatiques de pointe.

Il conseille aux États-Unis de conserver au moins deux générations d'avance sur les capacités de fabrication de la Chine en matière de micro-électronique.

Et il indique que des restrictions à l'exportation doivent être mises en place pour empêcher la Chine de pouvoir importer les machines de photolithographie nécessaires à la fabrication des types de puces les plus avancés avec les plus petits transistors.

Trop tard les gars, le dentifrice est sorti de son tube !

Lien vers le commentaire
Partager sur d’autres sites

  • 2 years later...

https://www.cnbc.com/2021/12/22/un-talks-to-ban-slaughterbots-collapsed-heres-why-that-matters.html

Quoi qu'en pensent certains, des "slaughterbots" sont déjà utilisés sur le champ de bataille aujourd'hui.

En Libye, des drones Kargu fabriqués par la société turque STM ont été utilisés dans la guerre civile, selon un rapport de l'ONU publié en mars [2021].

https://reason.com/2021/06/01/autonomous-slaughterbot-drones-reportedly-attack-libyans-using-facial-recognition-tech/

Plus précisément, le rapport note que les convois et les troupes en retraite associés à l'homme fort libyen Khalifa Haftar "ont ensuite été pris en chasse et engagés à distance par les drones de combat ou les systèmes d'armes autonomes létaux tels que le STM Kargu-2 et d'autres munitions à l'arrêt". Le rapport ajoute que "les systèmes d'armes autonomes létaux ont été programmés pour attaquer des cibles sans nécessiter de connexion de données entre l'opérateur et la munition : il s'agit en fait d'une véritable capacité de "tirer, oublier et trouver"". En d'autres termes, une fois lancés, les drones étaient programmés pour agir sans autre intervention humaine afin d'identifier et d'attaquer des cibles spécifiques.

Dans le journal turc Hurriyet, le PDG de STM, Murat Ikinci, a fait remarquer que les drones kamikazes de son entreprise "sont tous dotés d'une intelligence artificielle et de systèmes de reconnaissance faciale". Pesant moins de 70 kilogrammes chacun, ils ont une portée de 15 kilomètres et peuvent rester en l'air pendant 30 minutes avec des explosifs. En outre, les drones Kargu peuvent fonctionner comme un essaim coordonné de 30 unités qui ne peut être arrêté par les systèmes de défense aérienne avancés.

En réponse au nouveau rapport de l'ONU, le cofondateur du Future of Life Institute et physicien au Massachusetts Institute of Technology, Max Tegmark, a tweeté : "La prolifération des robots tueurs a commencé. Il n'est pas dans l'intérêt de l'humanité que des #slaughterbots bon marché soient produits en masse et largement accessibles à tous ceux qui ont une dent contre qui que ce soit. Il est grand temps que les dirigeants du monde entier prennent position."

Modifié par Wallaby
Lien vers le commentaire
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant
  • Statistiques des membres

    6 005
    Total des membres
    1 749
    Maximum en ligne
    cilom
    Membre le plus récent
    cilom
    Inscription
  • Statistiques des forums

    21,6k
    Total des sujets
    1,7m
    Total des messages
  • Statistiques des blogs

    4
    Total des blogs
    3
    Total des billets
×
×
  • Créer...