Hirondelle Posté(e) le 21 août 2020 Share Posté(e) le 21 août 2020 (modifié) [je n’ai pas trouvé de fil adapté à la discussion, mais je doute qu’il n’existe pas] Je viens de lire une brève chez les copains d’en face et la discussion qui s’en suit: https://taskandpurpose.com/military-tech/darpa-artificial-intelligence-dogfight-competition Citation L'IA remporte une victoire sans faille contre un pilote de chasse F-16 humain dans un combat aérien DARPA ALEX HOLLINGS, SANDBOXX IL Y A 21 HEURES Les essais AlphaDogfight de la DARPA se sont officiellement terminés avec l'incroyable système pilote d'intelligence artificielle de Heron Systems battant non seulement ses concurrents de l'industrie, mais en remportant 5 victoires consécutives contre un pilote de F-16 de l'US Air Force hautement qualifié, sans que le pilote humain ne marque un seul coup. [...] http://www.checksix-forums.com/viewtopic.php?f=279&t=209593&sid=f71dc9aa582de387ec981b1ef6e470ab Comme ils sont nuls chez C6 ( coucou @Deltafan entre autre), comme je me fais difficilement à l’idée que Tanguy sera un jour remplacé par un bidule avec Windoz et Untel inside, comme il y a plein de mectons ici qui tripotent plus souvent du silicium et du binaire que leur copine, j’aurais une première question : L’as de l’USAF se fait écrabouiller par une IA, dans des conditions pas forcément réalistes aujourd’hui, mais on s’entend pour dire qu’elles le deviendront davantage dans quelques années / décennies (lire le fil de C6). Mais c’est aussi un peu les limites de l’exercice : on mesure les performances du pilote d’aujourd’hui contre l’ordinateur de demain. Alors, vous me voyez venir : qu’en sera-t-il lorsque Tanguy disposera des équipements et des armements adaptés à la lutte contre les pilotordis ? En gros quand il aura lui aussi un conseiller artificiel capable d’anticiper «en miroir » les réactions du truc numérique d’en face ? Et une piste de réflexion : que se passerait-t-il si la DARPA collait un face de son IA une autre IA semblable ? Match nul (à conditions égales naturellement) ou c’est plus compliqué que ça ? Modifié le 21 août 2020 par Hirondelle Lien vers le commentaire Partager sur d’autres sites More sharing options...
BPCs Posté(e) le 21 août 2020 Share Posté(e) le 21 août 2020 il y a 4 minutes, Hirondelle a dit : Et une piste de réflexion : que se passerait-t-il si la DARPA collait un face de son IA une autre IA semblable ? L'IA qui a dogfighté avec le primate humain avait auparavant buté plusieurs autres IA pour à être sélectionnée. http://www.opex360.com/2020/08/21/une-intelligence-artificielle-domine-un-pilote-de-chasse-lors-dune-simulation-de-combats-aeriens/ Ce qui est intéressant est que le primate humain ci-dessus cité a amélioré ses résultats au fil des dogfights : de l'intérêt d'un vrai réseau neuronal en chair et (pas) en os pour s'améliorer et auto-apprendre. Ceci dit un temps de réaction de l"ordre de la nanoseconde pour un IA en silicium ne posera-t-il pas problème face à un ordinateur biologique dont la première réaction au seuil infra conscient va se situer à 50 ms ? 2 Lien vers le commentaire Partager sur d’autres sites More sharing options...
Phacochère Posté(e) le 21 août 2020 Share Posté(e) le 21 août 2020 Sarah O'Connor... 1 Lien vers le commentaire Partager sur d’autres sites More sharing options...
Hirondelle Posté(e) le 21 août 2020 Auteur Share Posté(e) le 21 août 2020 il y a 6 minutes, Phacochère a dit : Sarah O'Connor... Gneuuuh ? @BPCs oullah, tu vas trop loin en évoquant les réseaux neuronaux : il me semble qu’on est là dans des perspectives lointaines. Pour le reste, j’aurais aimé savoir si le Heron confronté au Heron aboutirait nécessairement à un match nul ? Et au passage si le match nul serait la pulvérisation des 2 appareils ? 1 Lien vers le commentaire Partager sur d’autres sites More sharing options...
g4lly Posté(e) le 21 août 2020 Share Posté(e) le 21 août 2020 1 hour ago, BPCs said: Ceci dit un temps de réaction de l"ordre de la nanoseconde pour un IA en silicium ne posera-t-il pas problème face à un ordinateur biologique dont la première réaction au seuil infra conscient va se situer à 50 ms ? Parce que tu ne prends pas assez de recul sur l'info ... ... ici on est dans une contexte très particulier d'un simulateur informatique. L'humain est défavorisé parce que chez lui les infos doivent passé par l'interface homme machine ... puis ses propres sens. La ou le joueur électronique reçoit tout instantanément en langage informatique naturel ... Dans la vrai vie ... le pilote électronique ne recevra pas les infos aussi rapidement ... tout devra être filtré par des senseur, des interpréteur etc. L'autre souci expliqué dans l'article c'est l'aguerrissement du pilote humain face aux "règles" du pilote électronique. A mesure ou les confrontations on eux lieu ... s'est passé un nivellement ... le pilote humain s'est rapidement habitué aux tactiques du pilotes électronique. Pas dis que l'inverse soit si rapide. En gros la situation ici est une surprise pour l'humain ... pas pour l'électronique ... ce qui donne un avantage majeur a la machine. On a eu les même phénomène dans les confrontations humain machine au échec par exemple. A mesure des confrontations la machine perdait son avantage. 2 1 Lien vers le commentaire Partager sur d’autres sites More sharing options...
BPCs Posté(e) le 21 août 2020 Share Posté(e) le 21 août 2020 il y a 33 minutes, Hirondelle a dit : oullah, tu vas trop loin en évoquant les réseaux neuronaux : il me semble qu’on est là dans des perspectives lointaines. Non non le primate humain il a son réseau neuronal qui est en parti construit à la naissance et qui va continuer à maturer Au cours de l'enfance tout en sélectionnant les connections qui sont utiles pour ces apprentissages. Donc oui ça c'est du bon gros réseau neuronal maturé sur des centaines de milliers d'années. 1 Lien vers le commentaire Partager sur d’autres sites More sharing options...
Hirondelle Posté(e) le 21 août 2020 Auteur Share Posté(e) le 21 août 2020 @BPCs : pas compris. Je pensais que tu évoquais ce genre de chose https://www.lebigdata.fr/reseau-de-neurones-artificiels-definition éventuellement en version biologique. Lien vers le commentaire Partager sur d’autres sites More sharing options...
BPCs Posté(e) le 21 août 2020 Share Posté(e) le 21 août 2020 il y a 7 minutes, g4lly a dit : L'autre souci expliqué dans l'article c'est l'aguerrissement du pilote humain face aux "règles" du pilote électronique. A mesure ou les confrontations on eux lieu ... s'est passé un nivellement ... le pilote humain s'est rapidement habitué aux tactiques du pilotes électronique. Pas dis que l'inverse soit si rapide. On verra. Ce qui me frappe c'est que ce soit d'emblée l'IA qui ne se retrouve plus en challenger. Et là c'est du Dogfight, mais pour une mission de pénétration avec loitering et recherche de cible ? Ça va être une tuerie... 1 Lien vers le commentaire Partager sur d’autres sites More sharing options...
g4lly Posté(e) le 21 août 2020 Share Posté(e) le 21 août 2020 5 minutes ago, BPCs said: Et là c'est du Dogfight, mais pour une mission de pénétration avec loitering et recherche de cible ? Ça va être une tuerie... Tu fonces encore tete baissée ... alors que c'est avant tout une annonce marketing. Dans le cas ou le pilote électronique est dans l'environnement très particulier d'une simulation informatique ... souvent ça se passe bien ... dans la vraie vie ça se passe beaucoup moins bien. Il suffit de voir les immense fail de la conduite soit disant autonome ... la voiture au pire tu l’arrête au bord de la route ... avec l'avion ça risque d’être amusant, il suffit de voir la quantité astronomique de drone "perdu" ... Après pour une mission d'attaque ... un missile de croisière est suffisamment automatisé pour faire le job ... ça fonctionne depuis des année ... sans besoin d'intelligence quelconque. Lien vers le commentaire Partager sur d’autres sites More sharing options...
BPCs Posté(e) le 21 août 2020 Share Posté(e) le 21 août 2020 il y a 6 minutes, g4lly a dit : Tu fonces encore tete baissée ... alors que c'est avant tout une annonce marketing. Mais non c'est une rupture que tu te refuses de voir il y a 8 minutes, g4lly a dit : l'environnement très particulier d'une simulation informatique . Non, dans celui d'un de ces simulateurs où on entraine les pilotes. il y a 9 minutes, g4lly a dit : les immense fail de la conduite soit disant autonome ... Le dogfight c'est la conduite de ville avec la petite fille blonde qui traverse pour rattraper son ballon. La mission air-sol, c'est la conduite sur autoroute : moindre complexité il y a 11 minutes, g4lly a dit : Après pour une mission d'attaque ... un missile de croisière est suffisamment automatisé pour faire le job ... ça fonctionne depuis des année ... sans besoin d'intelligence quelconque. C'est la co-gestion de la mission par le swarm qui est en jeu, et, si besoin, indépendamment de la gestion humaine si brouillage ou destruction des communications avec l'arrière. Tout cela dans un contexte où l'humain aussi peut de faire leurrer comme au Kosovo par de fausses cibles. Lien vers le commentaire Partager sur d’autres sites More sharing options...
g4lly Posté(e) le 21 août 2020 Share Posté(e) le 21 août 2020 8 minutes ago, BPCs said: Mais non c'est une rupture que tu te refuses de voir Intéresse toi un peu au sujet - en lisant des bouquin sérieux dessus - ... tu vas vite comprendre que les pontes - tous - en "IA" sont infiniment moins enthousiaste que toi ... et surtout qu'il n'y voit aucunement de l'intelligence. 8 minutes ago, BPCs said: Non, dans celui d'un de ces simulateurs où on entraine les pilotes. L'automate aurait tiré physiquement sur le joystick ... et regardé les écrans avec ses petit yeux électronique Pour comprendre la différence entre une simu et la vrai vie ... tu peux t'intéresser aux performances des e-pilote de F1 ... et des vrai pilote de F1 ... c'est particulièrement intéressant ... les vrais pilote son super mauvais sur simulateur, pourtant reproduisant finement la physique des véhicule, et celle du cockpit ... 8 minutes ago, BPCs said: C'est la co-gestion de la mission par le swarm qui est en jeu, et, si besoin, indépendamment de la gestion humaine si brouillage ou destruction des communications avec l'arrière. Des missiles qui détectent et sélectionnent eux même leur cible - en discriminant les valide et les autres - ça existe déjà ... Lien vers le commentaire Partager sur d’autres sites More sharing options...
BPCs Posté(e) le 22 août 2020 Share Posté(e) le 22 août 2020 Il y a 18 heures, g4lly a dit : Après pour une mission d'attaque ... un missile de croisière est suffisamment automatisé pour faire le job ... ça fonctionne depuis des année ... sans besoin d'intelligence quelconque. Il y a 18 heures, g4lly a dit : Des missiles qui détectent et sélectionnent eux même leur cible - en discriminant les valide et les autres - ça existe déjà ... Voir une un objet, le classifier et prendre une décision motrice en direction de celui-ci, c'est déjà une tache cognitive. Lien vers le commentaire Partager sur d’autres sites More sharing options...
g4lly Posté(e) le 22 août 2020 Share Posté(e) le 22 août 2020 2 hours ago, BPCs said: Voir une un objet, le classifier et prendre une décision motrice en direction de celui-ci, c'est déjà une tache cognitive. Non c'est un vulgaire automatisme... Lien vers le commentaire Partager sur d’autres sites More sharing options...
BPCs Posté(e) le 22 août 2020 Share Posté(e) le 22 août 2020 il y a 33 minutes, g4lly a dit : Non c'est un vulgaire automatisme... C'est comme dans le fil turboprop : tu sais toujours tout mieux que tout le monde y compris @DEFA550 dans ce fil-là. Donc pour revenir à ce fil-ci, pas de bol, quand on mesure une tache de ce type chez un humain, on appelle cela une tache cognitive... Un automatisme c'est quelque chose de réflexe : on tape sur un tendon du genou, on a toujours la même réponse automatique ou réflexe : l'extension de la jambe. Pourtant quand tu mesures ce que tu appelles un automatisme qui consiste à discriminer une image ou un son par rapport à d'autre type d'image, ce n'est plus un automatisme, car il y a une phase d'analyse pour discriminer quelle est la bonne réponse. Il y a 20 heures, g4lly a dit : Il y a 21 heures, BPCs a dit : Non, dans celui d'un de ces simulateurs où on entraine les pilotes. L'automate aurait tiré physiquement sur le joystick ... et regardé les écrans avec ses petit yeux électronique Ben non, car justement les commandes ne sont plus hydrauliques mais électriques et l'écran du radar est un périphérique d'entrée pour elle. D'ailleurs puisqu'on parle de tache cognitive humaine, repérer une image, décider que ce n'est une image banale mais au contraire une target, cela prend 300 ms. Si tu veux en plus essayer de leurrer l'observateur tu passes à 450 ms. Ensuite envoyer l'ordre à ton petit pouce d'appuyer sur le bouton du joystick pour faire boum, cela met environ 25 ms de plus. A comparer à des réponses de l'ordre du Nanosecondes de la part de l'IA pour générer son process. Lien vers le commentaire Partager sur d’autres sites More sharing options...
g4lly Posté(e) le 23 août 2020 Share Posté(e) le 23 août 2020 Tu as tendance a tout anthropomorphiser. L'automatisme c'est une science ... Du moins dans le débat qui nous concerne. Lien vers le commentaire Partager sur d’autres sites More sharing options...
Snapcoke Posté(e) le 23 août 2020 Share Posté(e) le 23 août 2020 Il y a 5 heures, BPCs a dit : C'est comme dans le fil turboprop : tu sais toujours tout mieux que tout le monde y compris @DEFA550 dans ce fil-là. Donc pour revenir à ce fil-ci, pas de bol, quand on mesure une tache de ce type chez un humain, on appelle cela une tache cognitive... Un automatisme c'est quelque chose de réflexe : on tape sur un tendon du genou, on a toujours la même réponse automatique ou réflexe : l'extension de la jambe. Pourtant quand tu mesures ce que tu appelles un automatisme qui consiste à discriminer une image ou un son par rapport à d'autre type d'image, ce n'est plus un automatisme, car il y a une phase d'analyse pour discriminer quelle est la bonne réponse. Ben non, car justement les commandes ne sont plus hydrauliques mais électriques et l'écran du radar est un périphérique d'entrée pour elle. D'ailleurs puisqu'on parle de tache cognitive humaine, repérer une image, décider que ce n'est une image banale mais au contraire une target, cela prend 300 ms. Si tu veux en plus essayer de leurrer l'observateur tu passes à 450 ms. Ensuite envoyer l'ordre à ton petit pouce d'appuyer sur le bouton du joystick pour faire boum, cela met environ 25 ms de plus. A comparer à des réponses de l'ordre du Nanosecondes de la part de l'IA pour générer son process. On va faire un jeux BPCs, puisque tu semble pensais que l'IA serait extrêmement supérieur a un humain pour la frappe air-sol. On va aligné une soixantaine de photos aériennes, et ensuite on va nous demandé a toi et a moi de discriminé les points importants ( véhicule blindés ou tout ce qui peut-être significatif ) puis ensuite on va demandé a une IA de le faire. Ensuite nous montrons dans un hélico et on fera la même chose en vrai, et on demandera a l'IA de le faire aussi ce petit exercice depuis l'hélicoptère avec son œil ( caméra ) on verra si l'IA est aussi performante que nous, je ne pense pas que cela sois si simple. j'aimerais bien voir comment une IA discriminerai une cible dans un environnement extrêmement complexe. j'ai la conviction que l'IA en simulateur est terriblement avantagée par cette environnement où tout ce qui semble être... Quelque-chose, est cette chose. Pourquoi l'IA qui gère les équipes dans football manager n'a pas remplacé les entraîneurs humains ? Surement car les paramètres ne sont pas incrémenter, c'est quelques chose de bien plus complexe que simplement faire quelques chose de simulé... pas de faux positifs pour l'IA. Moi je suis comme Gally, je doute... J'attendrais un affrontement IRL 1 Lien vers le commentaire Partager sur d’autres sites More sharing options...
Lame Posté(e) le 23 août 2020 Share Posté(e) le 23 août 2020 Je mets mon grain de sel pour désarmorcer un quiproquo. L'intelligence humaine dont l'équivalent informatique serait l'intelligence artificielle générale (IAG) est un bouquet de capacités cognotives. Une de ses capacités est la détection de similitude entre des paquets de données ou entre les paquets de données d'une série et un paquet de référence. La détection de similitude est la seule capacité cognitive des systèmes experts qui sont bien des intelligences artificielles faibles et restreintes, pas des IAG. Cette capacité cognitive ne doit évidemment pas être confondue avec l'intelligence et l'innovation: une système expert militaire n'est qu'un capteur qui fait des comparaison à grande vitesse. La technologie hardware influence évidemment les performances du système expert, ce qui explique en partie l'intérêt des Etats et mégacorporations pour les calculateurs quantiques et la spintronique. Les jeux vidéo, notamment Starcraft, comportent des "IA" qui sont conçues pour donner une illusion d'inventivité. Il s'agit en fait de bouquets de systèmes experts comportant un système principal (l'adversaire du joueur) et des systèmes auxiliaires. Le système principal joue de parties contre lui-même et contre chaque système auxiliaire pour générer des paquets de données. Quand il est confronté à une situation tactique (un paquet de donnée), il sélectionne la situation tactique mémorisée qui produit le meilleur score en fonction de l'objectif assignée à la machine parmi les situations mémorisée qui ressemblent le plus à la situation tactique en cours. Ce sont bien sûr les informaticiens chargés de programmer les algorythmes de systèmes experts et de les combiner entre eux qui sont remarquablement intelligents. De même que les humains qui arrivent à analyser leurs comportements et les duper. Il y a 8 heures, Snapcoke a dit : j'ai la conviction que l'IA en simulateur est terriblement avantagée par cette environnement où tout ce qui semble être... Quelque-chose, est cette chose. En supposant que la simulation n'est pas conçue pour favoriser le logiciel ("tricherie" de l'IA), quelle est le réalisme du brouillard de guerre et des conditions météorologiques auxquels il est confronté? 1 1 Lien vers le commentaire Partager sur d’autres sites More sharing options...
Hirondelle Posté(e) le 23 août 2020 Auteur Share Posté(e) le 23 août 2020 (modifié) Até (chuet) pas convaincu du tout que la démo ne soit complètement bidonnée sauf à croire que l’instructeur de F16 est une totale andouille (je ne sais pas d’ou vient cette video, pas de YouTube en tous cas, donc à visionner sur c6 sauf si quelqu’un la trouve et l’insere ici...) http://www.checksix-forums.com/viewtopic.php?f=279&t=209593&sid=b4d8b2002c2f2c84ecb135bb40152593&start=25 Edit : trouvée Modifié le 23 août 2020 par Hirondelle 1 Lien vers le commentaire Partager sur d’autres sites More sharing options...
Kelkin Posté(e) le 23 août 2020 Share Posté(e) le 23 août 2020 Le 22/08/2020 à 00:47, g4lly a dit : L'automate aurait tiré physiquement sur le joystick ... et regardé les écrans avec ses petit yeux électronique Pour ce que j'en ai lu, non, justement. L'IA était directement "branchée" sur le simulateur et avait donc accès en temps réel aux coordonnées des avions (le sien comme celui de l'adversaire), donc une compréhension de la situation parfaite, sans avoir besoin de faire de l'interprétation d'images (parce que ce n'était pas l'objet du test). Après, il faut se méfier avec les IAs, car elles trichent. Très, très, très souvent, quand on fait une IA pour résoudre un problème, elle adopte une solution qui marche très bien dans le logiciel de test mais qui est inutilisable en dehors. (Mon exemple préféré est l'IA qui devait écrire un programme générant un résultat identique à celui d'un fichier de référence, mais sans le copier (interdiction de lire le fichier avant d'écrire le programme), et le programme qu'elle a pondu... efface le fichier et ne sort aucun résultat. Lors de la comparaison, absence de fichier de résultat et absence de fichier témoin, donc c'est bel et bien identique !) 1 Lien vers le commentaire Partager sur d’autres sites More sharing options...
Snapcoke Posté(e) le 23 août 2020 Share Posté(e) le 23 août 2020 Il y a 6 heures, Hirondelle a dit : Até (chuet) pas convaincu du tout que la démo ne soit complètement bidonnée sauf à croire que l’instructeur de F16 est une totale andouille (je ne sais pas d’ou vient cette video, pas de YouTube en tous cas, donc à visionner sur c6 sauf si quelqu’un la trouve et l’insere ici...) http://www.checksix-forums.com/viewtopic.php?f=279&t=209593&sid=b4d8b2002c2f2c84ecb135bb40152593&start=25 Edit : trouvée D'abord ate a parfaitement raison, le pilote américain est mauvais, moi même je ne ferais pas ce genre d'erreur dans War thunder en mode simulation... Ensuite je persiste à dire que la, l'IA a toute les données et ne fait qu'optimisé... En situation réelle elle devra faire a vécu des senseurs, et plein d'autres choses.... Lien vers le commentaire Partager sur d’autres sites More sharing options...
stormshadow Posté(e) le 24 août 2020 Share Posté(e) le 24 août 2020 (modifié) Citation D'abord ate a parfaitement raison, le pilote américain est mauvais, moi même je ne ferais pas ce genre d'erreur dans War thunder en mode simulation... Ensuite je persiste à dire que la, l'IA a toute les données et ne fait qu'optimisé... En situation réelle elle devra faire a vécu des senseurs, et plein d'autres choses.... L'IA et l'humain avait les mêmes données dans cette simulation et vu que l'IA peut analyser les données bien plus vite que n'importe quel humain, elle sera toujours bien meilleur que n'importe que humain quelque soit la mission à quantité équivalente de données disponible. Et une IA ne se fatigue pas, ne stresse pas et ne fait aucune faute d’inattention ce qui l'avantage encore plus face à l'humain. Modifié le 24 août 2020 par stormshadow Lien vers le commentaire Partager sur d’autres sites More sharing options...
Lame Posté(e) le 2 septembre 2020 Share Posté(e) le 2 septembre 2020 Le 24/08/2020 à 13:28, stormshadow a dit : Et une IA ne se fatigue pas, ne stresse pas et ne fait aucune faute d’inattention ce qui l'avantage encore plus face à l'humain. Oui, c'est vrai mais elle peut commettre des tirs fratricides suite à une erreur d'identification ami/ennemi comme tous les systèmes d'armes automatisés jusqu'à présent. Néanmoins, les limites de l'IA d'Heron system ne signifient pas qu'elle est dénuée d'intérêt. Quelques usages hypothétique: - Elle peut piloter un engin de reconnaissance. - Elle peut piloter un F-16 doté de missiles anti-missiles et servir de diversion ou d'appât face à la DCA ennemie. - Elle peut servir de copilote de secours pour un pilote hors combat (blessure, perte de connaissance). Pour rappel, la Darpa a engagé le développement de drones ailiers tel que le Kratos XQ-58 Valkyrie. Je pense que le concept serait appliqué plus efficacement s'il était possible de droniser efficacement un chasseur habité. On aurait alors des chasseurs habités et des ailiers de même modèle sans pilote. 1 Lien vers le commentaire Partager sur d’autres sites More sharing options...
g4lly Posté(e) le 3 septembre 2020 Share Posté(e) le 3 septembre 2020 4 hours ago, Lame said: Oui, c'est vrai mais elle peut commettre des tirs fratricides suite à une erreur d'identification ami/ennemi comme tous les systèmes d'armes automatisés jusqu'à présent. Ce que certain appelle une IA n'est ni plus ni moins faillible qu'une intelligence "biologique" ... Elle doit aussi recompiler ses donnée - en gros dormir - ... faire le ménage dans ses stockages ... réapprendre ... etc. etc. Le reste ... la magie de l'automate éternellement fonctionnel ... c'est juste un fantasme. C'est juste que ce que tu appels erreur d'inattention ... en automatisme on appelle ça surcharge en entrée ... "Fatigue" ... on appelle fiabilité du hardware et du système logique ... "Stress" ... on trouve ça dans des excès ou des dépassement de certaines rétroaction ... 4 hours ago, Lame said: Elle peut servir de copilote de secours pour un pilote hors combat (blessure, perte de connaissance). Le pilote automatique des liners est il intelligent ... pas le moins du monde. Pourtant il est capable de faire un vol complet décollage et atterrissage compris ... et de résisté a certaine perturbation - normalement la majorité de ce rentrée par un liner y compris les défauts - de son environnement. On 8/24/2020 at 1:28 PM, stormshadow said: L'IA et l'humain avait les mêmes données dans cette simulation et vu que l'IA peut analyser les données bien plus vite que n'importe quel humain, elle sera toujours bien meilleur que n'importe que humain quelque soit la mission à quantité équivalente de données disponible. C'est archi faux ... l'informatique et l'humain - dans le cas du pilote de jet - n'ont pas les même donnée pour la simple raison qu'ils n'ont pas la même interface avec le réel. A la limite tu pourrais comparer un automate et un contrôleur aérien ... si le langage n'entrait pas en jeu ... et encore. 1 Lien vers le commentaire Partager sur d’autres sites More sharing options...
Shorr kan Posté(e) le 3 septembre 2020 Share Posté(e) le 3 septembre 2020 (modifié) Il ne faut pas forcément chercher à imiter l'aviation pilotée en lui substituant les IA pour exactement les mêmes usages. @Lame a raison : ça ouvre de nouvelles possibilités tactiques et des combinaisons nouvelles à explorer. Les IA mêmes en étant moins efficaces globalement qu'un humain, reste meilleurs dans quelques domaines pointus qui peuvent être utilisé comme tel ou en coordination avec d'autres IA spécialisées dans d'autres domaines et/ou des humains pour multiplier les effets. Ce serait comme aux échecs: les IA servirait de pions et autres pièces de faibles valeurs. Rappelez vous que les armes à feu était moins efficace qu'un carreau de flèche jusqu'au XIXème siècle, mais elles se sont généralisé quand même bien avant tant il était plus facile de former et armer un fusilier qu'un archer. C'est moins l'arme elle même qui compte, que son intégration dans un dispositif tactique et l'élaboration une doctrine qui en tire le meilleur parti. Modifié le 3 septembre 2020 par Shorr kan 2 Lien vers le commentaire Partager sur d’autres sites More sharing options...
Bruno Posté(e) le 10 septembre 2020 Share Posté(e) le 10 septembre 2020 Accord entre la DGA et le CNRS, pour travailler ensemble sur les logiciels d'IA et les technologies quantiques > Lien vers le commentaire Partager sur d’autres sites More sharing options...
Messages recommandés
Créer un compte ou se connecter pour commenter
Vous devez être membre afin de pouvoir déposer un commentaire
Créer un compte
Créez un compte sur notre communauté. C’est facile !
Créer un nouveau compteSe connecter
Vous avez déjà un compte ? Connectez-vous ici.
Connectez-vous maintenant