Aller au contenu
Fini la pub... bienvenue à la cagnotte ! ×
AIR-DEFENSE.NET

armes autonomes


g4lly

Messages recommandés

  • 1 month later...

https://thebulletin.org/don’t-fear-robopocalypse-autonomous-weapons-expert-paul-scharre11423 (10 janvier 2018)

Un expert de l'establishment militaro-industriel, auteur d'un livre sur ce sujet, est interviewé à propos de la campagne pour obtenir un traité international interdisant les armes autonomes. Selon lui, les arguments des militants de cette campagne ne sont pas convaincants.

 

Lien vers le commentaire
Partager sur d’autres sites

  • 1 month later...
  • 3 years later...

https://www.bbc.com/news/technology-56240785 (1er mars 2021)

Les États-Unis et leurs alliés devraient rejeter les appels à une interdiction mondiale des systèmes d'armes autonomes alimentés par l'IA, selon un rapport officiel commandé pour le président et le Congrès américains.

"C'est un rapport choquant et effrayant qui pourrait conduire à la prolifération des armes de l'AI en décidant de qui tuer", a déclaré le professeur Noel Sharkey, porte-parole de la campagne pour arrêter les robots tueurs.

Les recommandations ont été faites par la Commission nationale de sécurité sur l'IA - un organisme dirigé par l'ancien chef de Google Eric Schmidt et l'ancien secrétaire adjoint à la défense Robert Work, qui ont servi sous les présidents Obama et Trump.

Parmi les autres membres figurent Andy Jassy, le prochain directeur général d'Amazon, Andrew Moore et Eric Horvitz, directeurs de Google et de Microsoft pour l'IA, et Safra Catz, directrice générale d'Oracle.

Une grande partie des 750 pages du rapport se concentre sur la manière de contrer l'ambition de la Chine d'être un leader mondial de l'IA d'ici 2030.

Il indique que les hauts responsables militaires ont averti que les États-Unis pourraient "perdre leur supériorité militaro-technique dans les années à venir" si la Chine les devançait en adoptant plus rapidement des systèmes d'IA, par exemple en utilisant des drones en essaim pour attaquer la marine américaine.

Elle fixe cependant une limite aux armes nucléaires, en disant que celles-ci devraient toujours nécessiter l'autorisation explicite du président.

Mais toutes ses propositions ne se concentrent pas sur l'armée, suggérant que les dépenses américaines non liées à la défense pour la recherche et le développement en matière d'IA soient doublées pour atteindre 32 milliards de dollars (23 milliards de livres sterling) par an d'ici 2026.

Bien que les membres de la commission siègent à titre personnel, de nombreuses entreprises pour lesquelles ils travaillent ont fait des offres pour des contrats du Pentagone et d'autres gouvernements dans le domaine de l'IA.

Parmi ces contrats figure celui de 10 milliards de dollars attribué à Microsoft, qu'Amazon conteste devant les tribunaux.

Le rapport met également l'accent sur la nécessité pour les États-Unis de restreindre la capacité de la Chine à fabriquer des puces informatiques de pointe.

Il conseille aux États-Unis de conserver au moins deux générations d'avance sur les capacités de fabrication de la Chine en matière de micro-électronique.

Et il indique que des restrictions à l'exportation doivent être mises en place pour empêcher la Chine de pouvoir importer les machines de photolithographie nécessaires à la fabrication des types de puces les plus avancés avec les plus petits transistors.

  • Upvote (+1) 1
Lien vers le commentaire
Partager sur d’autres sites

il y a 58 minutes, Wallaby a dit :

https://www.bbc.com/news/technology-56240785 (1er mars 2021)

Les États-Unis et leurs alliés devraient rejeter les appels à une interdiction mondiale des systèmes d'armes autonomes alimentés par l'IA, selon un rapport officiel commandé pour le président et le Congrès américains.

"C'est un rapport choquant et effrayant qui pourrait conduire à la prolifération des armes de l'AI en décidant de qui tuer", a déclaré le professeur Noel Sharkey, porte-parole de la campagne pour arrêter les robots tueurs.

Les recommandations ont été faites par la Commission nationale de sécurité sur l'IA - un organisme dirigé par l'ancien chef de Google Eric Schmidt et l'ancien secrétaire adjoint à la défense Robert Work, qui ont servi sous les présidents Obama et Trump.

Parmi les autres membres figurent Andy Jassy, le prochain directeur général d'Amazon, Andrew Moore et Eric Horvitz, directeurs de Google et de Microsoft pour l'IA, et Safra Catz, directrice générale d'Oracle.

Une grande partie des 750 pages du rapport se concentre sur la manière de contrer l'ambition de la Chine d'être un leader mondial de l'IA d'ici 2030.

Il indique que les hauts responsables militaires ont averti que les États-Unis pourraient "perdre leur supériorité militaro-technique dans les années à venir" si la Chine les devançait en adoptant plus rapidement des systèmes d'IA, par exemple en utilisant des drones en essaim pour attaquer la marine américaine.

Elle fixe cependant une limite aux armes nucléaires, en disant que celles-ci devraient toujours nécessiter l'autorisation explicite du président.

Mais toutes ses propositions ne se concentrent pas sur l'armée, suggérant que les dépenses américaines non liées à la défense pour la recherche et le développement en matière d'IA soient doublées pour atteindre 32 milliards de dollars (23 milliards de livres sterling) par an d'ici 2026.

Bien que les membres de la commission siègent à titre personnel, de nombreuses entreprises pour lesquelles ils travaillent ont fait des offres pour des contrats du Pentagone et d'autres gouvernements dans le domaine de l'IA.

Parmi ces contrats figure celui de 10 milliards de dollars attribué à Microsoft, qu'Amazon conteste devant les tribunaux.

Le rapport met également l'accent sur la nécessité pour les États-Unis de restreindre la capacité de la Chine à fabriquer des puces informatiques de pointe.

Il conseille aux États-Unis de conserver au moins deux générations d'avance sur les capacités de fabrication de la Chine en matière de micro-électronique.

Et il indique que des restrictions à l'exportation doivent être mises en place pour empêcher la Chine de pouvoir importer les machines de photolithographie nécessaires à la fabrication des types de puces les plus avancés avec les plus petits transistors.

Trop tard les gars, le dentifrice est sorti de son tube !

Lien vers le commentaire
Partager sur d’autres sites

  • 2 years later...

https://www.cnbc.com/2021/12/22/un-talks-to-ban-slaughterbots-collapsed-heres-why-that-matters.html

Quoi qu'en pensent certains, des "slaughterbots" sont déjà utilisés sur le champ de bataille aujourd'hui.

En Libye, des drones Kargu fabriqués par la société turque STM ont été utilisés dans la guerre civile, selon un rapport de l'ONU publié en mars [2021].

https://reason.com/2021/06/01/autonomous-slaughterbot-drones-reportedly-attack-libyans-using-facial-recognition-tech/

Plus précisément, le rapport note que les convois et les troupes en retraite associés à l'homme fort libyen Khalifa Haftar "ont ensuite été pris en chasse et engagés à distance par les drones de combat ou les systèmes d'armes autonomes létaux tels que le STM Kargu-2 et d'autres munitions à l'arrêt". Le rapport ajoute que "les systèmes d'armes autonomes létaux ont été programmés pour attaquer des cibles sans nécessiter de connexion de données entre l'opérateur et la munition : il s'agit en fait d'une véritable capacité de "tirer, oublier et trouver"". En d'autres termes, une fois lancés, les drones étaient programmés pour agir sans autre intervention humaine afin d'identifier et d'attaquer des cibles spécifiques.

Dans le journal turc Hurriyet, le PDG de STM, Murat Ikinci, a fait remarquer que les drones kamikazes de son entreprise "sont tous dotés d'une intelligence artificielle et de systèmes de reconnaissance faciale". Pesant moins de 70 kilogrammes chacun, ils ont une portée de 15 kilomètres et peuvent rester en l'air pendant 30 minutes avec des explosifs. En outre, les drones Kargu peuvent fonctionner comme un essaim coordonné de 30 unités qui ne peut être arrêté par les systèmes de défense aérienne avancés.

En réponse au nouveau rapport de l'ONU, le cofondateur du Future of Life Institute et physicien au Massachusetts Institute of Technology, Max Tegmark, a tweeté : "La prolifération des robots tueurs a commencé. Il n'est pas dans l'intérêt de l'humanité que des #slaughterbots bon marché soient produits en masse et largement accessibles à tous ceux qui ont une dent contre qui que ce soit. Il est grand temps que les dirigeants du monde entier prennent position."

Modifié par Wallaby
Lien vers le commentaire
Partager sur d’autres sites

  • 1 year later...

https://www.lemonde.fr/pixels/article/2025/02/05/google-assouplit-ses-principes-concernant-l-usage-de-l-ia-dans-l-armement-ou-la-surveillance_6532915_4408996.html

Google assouplit ses principes concernant l’usage de l’IA dans l’armement ou la surveillance

Dans la foulée du retour de Donald Trump à la Maison Blanche, l’entreprise a supprimé de ses principes éthiques des promesses faites en 2018, qui prohibaient l’usage de ses technologies d’intelligence artificielle à des fins militaires ou de surveillance.

Google a mis à jour, mardi 4 février, ses principes gouvernant le développement de l’intelligence artificielle (IA), retirant sa promesse de se tenir à distance des armes et des systèmes de surveillance. Dans son billet de blog listant ses engagements, l’entreprise a supprimé la section mentionnant les « applications de l’IA que Google n’entend pas développer », qui incluaient justement ces secteurs.

Les anciens principes, toujours accessibles dans une version archivée du billet, stipulaient que Google ne développerait pas les applications de l’IA dans plusieurs domaines : « Les armes ou autres technologies dont l’objectif principal (…) est de blesser des personnes », « les technologies qui recueillent ou utilisent des informations à des fins de surveillance en violation des normes internationalement acceptées » et « les technologies dont le but contrevient aux principes largement acceptés du droit international et des droits humains ».

Désormais, seule l’intention de « s’aligner sur les objectifs des utilisateurs, la responsabilité sociale et les principes largement acceptés du droit international et des droits de l’homme ».

Un porte-parole de Google, contacté par l’Agence France-Presse, a refusé de commenter, renvoyant simplement au rapport intitulé L’IA responsable, publié mardi par James Manyika, vice-président de l’entreprise, et Demis Hassabis, patron de la filiale d’IA Google DeepMind. « Il y a une compétition mondiale pour le leadership en matière d’IA dans un paysage géopolitique de plus en plus complexe, écrivent les deux dirigeants. Et nous pensons que les entreprises, les gouvernements et les organisations qui partagent ces valeurs devraient travailler ensemble pour créer une IA qui protège les personnes, favorise la croissance mondiale et soutient la sécurité nationale. »

Un tournant par rapport aux engagements de 2018

Les principes initiaux de Google concernant les usages potentiels de ses technologies d’intelligence artificielle avaient été publiés en juin 2018, après que 3 100 salariés de la société avaient demandé à mettre fin à la participation du groupe au projet « Maven », un programme de recherche du Pentagone sur des drones militaires. Plus récemment, des contrats conclus par Google pour fournir des services de cloud aux armées américaine et israélienne avaient déclenché des protestations en interne, suivies de licenciements.

Le changement de politique opéré mardi survient alors que Donald Trump a annulé, dès son premier jour, un décret pris par son prédécesseur, Joe Biden, encadrant la sécurité en matière d’IA. Les sociétés du secteur ont depuis moins d’obligations : elles n’ont plus besoin, par exemple, de communiquer les résultats de tests quand leurs programmes présentent « un risque sérieux en termes de sécurité nationale, de sécurité économique nationale, ou de santé publique ».

Depuis l’élection américaine, les patrons de la tech ont été nombreux à afficher leur soutien au nouveau président et ont revu certains de leurs engagements antérieurs. A l’instar du revirement du patron de Meta, Mark Zuckerberg, sur les politiques de modération.

...

Lien vers le commentaire
Partager sur d’autres sites

  • 2 weeks later...

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant
  • Statistiques des membres

    6 040
    Total des membres
    1 749
    Maximum en ligne
    Cricribibi
    Membre le plus récent
    Cricribibi
    Inscription
  • Statistiques des forums

    21,6k
    Total des sujets
    1,7m
    Total des messages
  • Statistiques des blogs

    4
    Total des blogs
    3
    Total des billets
×
×
  • Créer...