Daj Posté(e) le 28 mars 2016 Share Posté(e) le 28 mars 2016 (modifié) Soit dit en passant, peut être avez vous vus: http://www.slate.fr/story/115861/roman-prix-litteraire-japonais A termes, il est assez facilement envisageable de penser que des ordinateurs pourront effectivement réaliser un travail journalistique (La méthode utilisée pour écrire le bouquin est certes triviale, mais elle pourrait d'ores et déjà s'appliquer en journalisme - pour réaliser de cours flash d'informations, ou éventuellement accélérer la rédaction d'articles). Modifié le 28 mars 2016 par Daj Lien vers le commentaire Partager sur d’autres sites More sharing options...
zx Posté(e) le 28 mars 2016 Auteur Share Posté(e) le 28 mars 2016 plusieurs cas sont cités dans la vidéo, c'est déjà le cas pour les flash d'info ou financier Lien vers le commentaire Partager sur d’autres sites More sharing options...
Daj Posté(e) le 30 mars 2016 Share Posté(e) le 30 mars 2016 (modifié) Oh, pardon J'avais lu le mauvais lien... Modifié le 30 mars 2016 par Daj Lien vers le commentaire Partager sur d’autres sites More sharing options...
collectionneur Posté(e) le 15 avril 2016 Share Posté(e) le 15 avril 2016 Pour le moment, dans la restauration chinoise, c'est mal barré :) En Chine, des robots serveurs licenciés pour incompétence http://www.liberation.fr/futurs/2016/04/07/en-chine-des-robots-serveurs-licencies-pour-incompetence_1444585 A quand des syndicats robotiques pour lutter contre les licenciements abusifs ? 1 Lien vers le commentaire Partager sur d’autres sites More sharing options...
Kiriyama Posté(e) le 15 avril 2016 Share Posté(e) le 15 avril 2016 Ou des manifestations avec des robots casseurs... Il y a justement un article intéressant sur la robotisation dans Alternatives économiques. D'après ce qu'ils disent peu de professions seront totalement robotisée à brève ou moyenne échéance. Lien vers le commentaire Partager sur d’autres sites More sharing options...
g4lly Posté(e) le 15 avril 2016 Share Posté(e) le 15 avril 2016 1 minute ago, Kiriyama said: Ou des manifestations avec des robots casseurs... Il y a justement un article intéressant sur la robotisation dans Alternatives économiques. D'après ce qu'ils disent peu de professions seront totalement robotisée à brève ou moyenne échéance. Chauffeur ... Lien vers le commentaire Partager sur d’autres sites More sharing options...
Kiriyama Posté(e) le 15 avril 2016 Share Posté(e) le 15 avril 2016 Non plus, même ça je n'y crois pas. Notamment en raison de problème d'adaptation des robots. Comment réagira-t-il à un problème (problème mécanique du véhicule, infos dans le GPS erronées...) imprévu ? Lien vers le commentaire Partager sur d’autres sites More sharing options...
Shorr kan Posté(e) le 15 avril 2016 Share Posté(e) le 15 avril 2016 (modifié) Les IA lâchés sur internet aussi ne sont pas très au point. Microsoft avait mis en ligne la sienne, du nom de Tay . Elle devait interagir avec les internautes et apprendre d'eux. Au début tout ce passe bien et le programme fait tout son possible pour rester politiquement correct, mais au bout de quelques heures elle s'est mise à raconter des saloperies racistes et négationnistes. Le truc c'est que des internautes se sont coordonnés pour influencer son apprentissage dans le mauvais sens. Finalement le danger c'est pas les machines, c'est les Hommes qui sont complémentent cinglés.... http://www.lemonde.fr/pixels/article/2016/03/24/a-peine-lancee-une-intelligence-artificielle-de-microsoft-derape-sur-twitter_4889661_4408996.html http://www.lexpress.fr/actualite/sciences/intelligence-artificielle-microsoft-supprime-son-compte-devenu-fan-d-hitler_1776756.html Titre : "Intelligence" artificielle: Microsoft suspend son compte devenu fan d'Hitler Modifié le 15 avril 2016 par Shorr kan 3 Lien vers le commentaire Partager sur d’autres sites More sharing options...
Kiriyama Posté(e) le 15 avril 2016 Share Posté(e) le 15 avril 2016 Quel truc de malade ! Ça pourrait presque être le scénario d'une comédie. Lien vers le commentaire Partager sur d’autres sites More sharing options...
WizardOfLinn Posté(e) le 20 avril 2016 Share Posté(e) le 20 avril 2016 Il y a encore du boulot d'éducation avant que les IA soient nos amies :http://www.futura-sciences.com/magazines/high-tech/infos/actu/d/robotique-sophia-robot-veut-detruire-humanite-62142/ A l’issue de l’entretien avec CNBC, son concepteur demande à Sophia : « Est-ce que tu veux détruire les humains ? S’il te plaît, dis non », implore-t-il. Et Sophia de répondre avec le sourire « OK, je détruirai les humains ». Plutôt gênant pour une machine censée devenir une amie… « Notre mission est de créer un avenir meilleur pour l’humanité en insufflant de la gentillesse et de la compassion dans l’intelligence artificielle », peut-on lire sur le site Web de Hanson Robotics. Visiblement, Sophia n’a pas encore appris cet argumentaire. 1 Lien vers le commentaire Partager sur d’autres sites More sharing options...
Kiriyama Posté(e) le 26 avril 2016 Share Posté(e) le 26 avril 2016 Bah je crois qu'on rêve. Comment une machine pourrait être gentille si elle est censée se former dans notre société ? Lien vers le commentaire Partager sur d’autres sites More sharing options...
zx Posté(e) le 26 avril 2016 Auteur Share Posté(e) le 26 avril 2016 (modifié) Il va falloir intégrer les 3 lois de la Robotique, avant que ca évolue vers la version Cylon Citation un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu'un être humain soit exposé au danger ; un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la première loi ; un robot doit protéger son existence tant que cette protection n'entre pas en conflit avec la première ou la deuxième loi. Isaac Asimov Modifié le 26 avril 2016 par zx Lien vers le commentaire Partager sur d’autres sites More sharing options...
Ojs.Fisher Posté(e) le 26 avril 2016 Share Posté(e) le 26 avril 2016 (modifié) Qu'est-ce qu'il se passerait si un humain menace un autre humain devant le robot et que l'humain en danger ordonne a ce dernier de neutraliser l'agresseur ? :) Modifié le 26 avril 2016 par Ojs.Fisher Lien vers le commentaire Partager sur d’autres sites More sharing options...
Shorr kan Posté(e) le 26 avril 2016 Share Posté(e) le 26 avril 2016 Ben, le robot plante avec un gros Error numéro machin Lien vers le commentaire Partager sur d’autres sites More sharing options...
Alexis Posté(e) le 26 avril 2016 Share Posté(e) le 26 avril 2016 Le 15/4/2016 à 16:01, Shorr kan a dit : http://www.lexpress.fr/actualite/sciences/intelligence-artificielle-microsoft-supprime-son-compte-devenu-fan-d-hitler_1776756.html Titre : "Intelligence" artificielle: Microsoft suspend son compte devenu fan d'Hitler Comme ils le disent dans l'article, ce n'est pas demain que le test de Turing sera réussi ! il y a 49 minutes, Ojs.Fisher a dit : Qu'est-ce qu'il se passerait si un humain menace un autre humain devant le robot et que l'humain en danger ordonne a ce dernier de neutraliser l'agresseur ? :) Si le sujet t'intéresse, il faut que tu lises Les Robots, et autres recueils de nouvelles d'Isaac Asimov sur le sujet. Il y a exploré dans de nombreux courts récits les conséquences de ces Trois Lois. Bien des histoires se présentent comme des énigmes. Connaissant les trois lois, un robot n'aurait pas du pouvoir agir comme il l'a fait. L'histoire se présente comme un dévoilement progressif de la solution - c'est que les robots ne se contentent pas d'être soumis à ces trois lois, ce sont aussi de redoutables logiciens, capables d'en tirer des conséquences... inattendues. 4 Lien vers le commentaire Partager sur d’autres sites More sharing options...
Alexis Posté(e) le 26 avril 2016 Share Posté(e) le 26 avril 2016 il y a une heure, Shorr kan a dit : Ben, le robot plante avec un gros Error numéro machin Ah oui y a aussi la possibilité du Blue Screen of Death... 1 Lien vers le commentaire Partager sur d’autres sites More sharing options...
Ojs.Fisher Posté(e) le 27 avril 2016 Share Posté(e) le 27 avril 2016 10 hours ago, Alexis said: Comme ils le disent dans l'article, ce n'est pas demain que le test de Turing sera réussi ! Si le sujet t'intéresse, il faut que tu lises Les Robots, et autres recueils de nouvelles d'Isaac Asimov sur le sujet. Il y a exploré dans de nombreux courts récits les conséquences de ces Trois Lois. Bien des histoires se présentent comme des énigmes. Connaissant les trois lois, un robot n'aurait pas du pouvoir agir comme il l'a fait. L'histoire se présente comme un dévoilement progressif de la solution - c'est que les robots ne se contentent pas d'être soumis à ces trois lois, ce sont aussi de redoutables logiciens, capables d'en tirer des conséquences... inattendues. Merci, j'y jetterai un coup d’œil à l'occasion. Lien vers le commentaire Partager sur d’autres sites More sharing options...
Rochambeau Posté(e) le 28 avril 2016 Share Posté(e) le 28 avril 2016 Lien vers le commentaire Partager sur d’autres sites More sharing options...
Kineto Posté(e) le 3 mai 2016 Share Posté(e) le 3 mai 2016 Le 26/04/2016 à 23:54, Alexis a dit : Comme ils le disent dans l'article, ce n'est pas demain que le test de Turing sera réussi ! Là dessus, je serait pas si catégorique. Autant je pense qu'on a encore un bon bout de chemin pour voir arriver une "vraie" intelligence artificielle, autant pondre un truc qui émule correctement une conversation humaine, je pense qu'on en est pas si loin. Pour passer le test, une "vrai" intelligence n'est même pas forcément requise, il suffit d'un truc capable d'apprendre et de s'améliorer, et qui va bêtement apprendre par cœur toutes les réponses à toues les questions jusqu'à passer le test. Les chatbot, les truc façon siri / cortana, les serveur vocaux, watson, tout ces machins s'améliorent continuellement, on doit pas être si loin du moment où un utilisateur lambda non prévenu qu'il a peut être un bot face à lui se fera avoir régulièrement. Lien vers le commentaire Partager sur d’autres sites More sharing options...
Alexis Posté(e) le 3 mai 2016 Share Posté(e) le 3 mai 2016 il y a 3 minutes, Kineto a dit : Là dessus, je serait pas si catégorique. Autant je pense qu'on a encore un bon bout de chemin pour voir arriver une "vraie" intelligence artificielle, autant pondre un truc qui émule correctement une conversation humaine, je pense qu'on en est pas si loin. Pour passer le test, une "vrai" intelligence n'est même pas forcément requise, il suffit d'un truc capable d'apprendre et de s'améliorer, et qui va bêtement apprendre par cœur toutes les réponses à toues les questions jusqu'à passer le test. Les chatbot, les truc façon siri / cortana, les serveur vocaux, watson, tout ces machins s'améliorent continuellement, on doit pas être si loin du moment où un utilisateur lambda non prévenu qu'il a peut être un bot face à lui se fera avoir régulièrement. Pour ce qui est de reprendre des éléments conversationnels en les recombinant et avec une forme d'apprentissage, il me semble que c'est à peu près ce que faisait le chatbot de Microsoft devenu fan d'Hitler à cause des facéties de ses interlocuteurs humains. Le problème est celui du sens. Le chatbot n'y a pas accès, il ne peut que modéliser des relations entre les divers éléments conversationnels, mots, notions, phrases, sans les relier à une expérience ou une modélisation du monde... qu'il ne possède pas. A mon avis, si passer le test de Turing est seulement possible, cela n'arrivera qu'à partir du moment où on saura faire partager une expérience et une connaissance du monde. Un être artificiel qui posséderait un certain vécu, une certaine expérience, des réflexions et des interrogations sur son sort pourrait probablement passer le test de Turing - il lui suffirait de dissimuler que son espérance de vie, sa nutrition, ses sens, etc sont différents de ceux des êtres humains. Mais c'est cela qui n'est pas pour demain. Pour prendre une comparaison, les systèmes experts ne se font pas prendre en faute ni pousser à dire n'importe quoi sur leur domaine de connaissance. Et on sait donc déjà faire des logiciels qui "maîtrisent" vraiment un domaine... mais c'est un domaine très limité. Un logiciel qui passerait le test de Turing devrait être un système expert généraliste. C'est-à-dire qu'il pourrait très bien ne pas être si expert que ça - de même qu'aucun être humain n'est véritablement expert en tout - l'exigence "expert" pourrait être assez faible, mais en revanche l'exigence sur "généraliste" serait forte. Si l'un de nous raconte quelques bêtises sur un sujet particulier, on se dira simplement "il n'y connait pas grand chose". S'il commence à aligner les raisonnements à la mord-moi-le-nœud sur plusieurs sujets différents, on commencera à se dire "mais c'est un c..". Mais s'il dit n'importe quoi sur des choses que tout le monde sait, qui font partie de l'expérience humaine usuelle ou des présupposés culturels courants... alors on soupçonnera la vérité Bon, heureusement, je n'ai pas encore été découvert. Lien vers le commentaire Partager sur d’autres sites More sharing options...
Tancrède Posté(e) le 3 mai 2016 Share Posté(e) le 3 mai 2016 6 minutes ago, Alexis said: Pour ce qui est de reprendre des éléments conversationnels en les recombinant et avec une forme d'apprentissage, il me semble que c'est à peu près ce que faisait le chatbot de Microsoft devenu fan d'Hitler à cause des facéties de ses interlocuteurs humains. . Le chatbot n'y a pas accès, il ne peut que modéliser des relations entre les divers éléments conversationnels, mots, notions, phrases, sans les relier à une expérience ou une modélisation du monde... qu'il ne possède pas. A mon avis, si passer le test de Turing est seulement possible, cela n'arrivera qu'à partir du moment où on saura faire partager une expérience et une connaissance du monde. Un être artificiel qui posséderait un certain vécu, une certaine expérience, des réflexions et des interrogations sur son sort pourrait probablement passer le test de Turing - il lui suffirait de dissimuler que son espérance de vie, sa nutrition, ses sens, etc sont différents de ceux des êtres humains. Mais c'est cela qui n'est pas pour demain. Pour prendre une comparaison, les systèmes experts ne se font pas prendre en faute ni pousser à dire n'importe quoi sur leur domaine de connaissance. Et on sait donc déjà faire des logiciels qui "maîtrisent" vraiment un domaine... mais c'est un domaine très limité. Un logiciel qui passerait le test de Turing devrait être un système expert généraliste. C'est-à-dire qu'il pourrait très bien ne pas être si expert que ça - de même qu'aucun être humain n'est véritablement expert en tout - l'exigence "expert" pourrait être assez faible, mais en revanche l'exigence sur "généraliste" serait forte. Si l'un de nous raconte quelques bêtises sur un sujet particulier, on se dira simplement "il n'y connait pas grand chose". S'il commence à aligner les raisonnements à la mord-moi-le-nœud sur plusieurs sujets différents, on commencera à se dire "mais c'est un c..". Mais s'il dit n'importe quoi sur des choses que tout le monde sait, qui font partie de l'expérience humaine usuelle ou des présupposés culturels courants... alors on soupçonnera la vérité Bon, heureusement, je n'ai pas encore été découvert. Si, mais contrairement à ce qu'on pourrait penser, les gens sur ce forum sont polis et ne veulent pas te faire sentir seul et isolé dans ton statut de machine parlante . Toi qui pourtant a volé la place d'un forumeur en chair et en os: booouuuh, le machinisme! Quote Le problème est celui du sens Le sens? Plutôt la conscience de soi, non? Le fait principal dans l'histoire d'une intelligence artificielle est de, presque littéralement, "donner la vie", c'est-à-dire une conscience de soi autonome, et par là fixant ses propres priorités et choix à partir de l'expérience qu'elle acquiert (ce qui fout les jetons). Et la conscience de soi d'un être autonome commence avec une seule chose: la peur. Comment l'obtiendrais t-on d'un programme? Une machine peut-elle être effrayée pour sa propre survie? Oui, si ça arrivait, NOUS, on le serait.... Surtout parce que notre réaction initiale (avant que la dite machine n'apprenne à construire sa propre réponse à la chose) serait plutôt: U Quote n logiciel qui passerait le test de Turing devrait être un système expert généraliste. C'est-à-dire qu'il pourrait très bien ne pas être si expert que ça - de même qu'aucun être humain n'est véritablement expert en tout - l'exigence "expert" pourrait être assez faible, mais en revanche l'exigence sur "généraliste" serait forte. Ca encore, ça ne démontrerait qu'une puissance de calcul et une bonne capacité d'adaptation du logiciel, soit pas vraiment une "intelligence" autonome qui est le truc sur lequel on fantasme, on s'effraie.... Aussi complexe que ce soit, c'est de la "mécanique". Tout comme le chatbot de Microsoft, on ne parle là que d'une éponge qui recrache l'eau qu'on met dedans (OK, en étant méchant, on peut aussi dire ça de beaucoup d'humains), pas d'une conscience autonome qui développerait une expérience particulière en fonction de la façon dont elle vit (littéralement) son "apprentissage" du monde, vu depuis une perspective propre avec ses intérêts, ses priorités.... Bref, une "personnalité". L'ironie serait quand même que la première vraie intelligence artificielle autonome qu'on crée (de fait une nouvelle forme de vie) soit..... Un pur connard. 1 Lien vers le commentaire Partager sur d’autres sites More sharing options...
Kineto Posté(e) le 3 mai 2016 Share Posté(e) le 3 mai 2016 il y a 54 minutes, Alexis a dit : Pour ce qui est de reprendre des éléments conversationnels en les recombinant et avec une forme d'apprentissage, il me semble que c'est à peu près ce que faisait le chatbot de Microsoft devenu fan d'Hitler à cause des facéties de ses interlocuteurs humains. Pour le coup du chatbot microsoft, c'est une problématique d'apprentissage ; si tu prend un bébé humain, que tu le fait grandir dans un univers à la truman show où la moitié des gens qu'il rencontre lui disent des conneries pour se foutre de sa gueule, le résultat risque de pas être jojo non plus ;-) 1 Lien vers le commentaire Partager sur d’autres sites More sharing options...
Serge Posté(e) le 30 août 2016 Share Posté(e) le 30 août 2016 Le 26 avril 2016 à 22:50, Ojs.Fisher a dit : Qu'est-ce qu'il se passerait si un humain menace un autre humain devant le robot et que l'humain en danger ordonne a ce dernier de neutraliser l'agresseur ? :) Faire cesser une agression n'impose pas une grande violence. La simple interposition peut suffire. Lien vers le commentaire Partager sur d’autres sites More sharing options...
g4lly Posté(e) le 31 août 2016 Share Posté(e) le 31 août 2016 On 26/04/2016 at 10:50 PM, Ojs.Fisher said: Qu'est-ce qu'il se passerait si un humain menace un autre humain devant le robot et que l'humain en danger ordonne a ce dernier de neutraliser l'agresseur ? :) Le probleme se pose déjà avec les automates de conduite. L'automate de conduite détecte une collision "inéluctable". Il compulse les différents scénario sur lesquels il peut influer. rester sur la chausser et percuter, a 50kmh, le groupe d'enfant qui traverse. quitter la chaussée et percuter le mobilier urbain a 50kmh. Ensuite il doit arbitrer ... Sur quelles bases doit ils le faire. On lui aura probablement enseigner a minimiser les dommage avant tout. Comment évaluer les dommages. Quel "cout" attribuer au mobilier urbain, aux enfants, au conducteur... Lorsque que le choix devient critique - fort risque de décès de l'un ou de l'autre des intervenant - l'incertitude est elle suffisamment faible pour que le calcul de cout soit pertinent. Est ce a l'utilisateur, au constructeur, ou au pouvoir public de décider de l’algorithme d'arbitrage et de ces paramètres? Qui accepterai de monter dans une voiture capable de le sacrifier a un intérêt supérieure?! Pour le moment pour éviter de se poser trop ce genre de question on cantonne la conduite automatique a une enveloppe ou le probleme posé ici a une très faible occurrence. Des environnement très contrôlés, ou des allure très modestes. Autrement ce n'est pas de la conduite complétement automatique mais de la forte assistance a la conduite et un humain reste au commande, et donc ayant le choix. Lien vers le commentaire Partager sur d’autres sites More sharing options...
bibouz Posté(e) le 31 août 2016 Share Posté(e) le 31 août 2016 Effectivement. Pour l'instant il y a aussi le problème typique de la patate chaude: l'autonomie rend le contrôle à l'opérateur au pire moment, lorsque sa situation awareness est faible et la situation urgente ! Lien vers le commentaire Partager sur d’autres sites More sharing options...
Messages recommandés
Créer un compte ou se connecter pour commenter
Vous devez être membre afin de pouvoir déposer un commentaire
Créer un compte
Créez un compte sur notre communauté. C’est facile !
Créer un nouveau compteSe connecter
Vous avez déjà un compte ? Connectez-vous ici.
Connectez-vous maintenant