Wallaby Posté(e) le 21 avril 2023 Auteur Share Posté(e) le 21 avril 2023 13 avril 2023. Interview de Max Tegmark, professeur au MIT, à l'origine de la pétition exigeant un moratoire de six mois pour les systèmes plus puissants que GPT4. 41:36 Avez-vous lu les "méditations sur Moloch" de Scott Alexander ? C'est un bel essai sur ce poème de Ginsberg [1], où il l'interprète comme portant sur ce monstre de la théorie des jeux qui monte les gens contre les autres dans cette course vers le fond où finalement tout le monde est perdant. 53:44 Ce qu'un grand nombre de chercheurs en IA disent depuis de nombreuses années, c'est que la chose la plus dangereuse à faire avec une IA, c'est tout d'abord lui apprendre à écrire du code, parce que c'est le premier pas vers l'auto-amélioration récursive, qui peut la porter de l'AGI vers les niveaux bien supérieurs. Oops, nous l'avons fait [geste de cocher une case] ! Une deuxième chose à haut risque est de la connecter à l'internet, la laisser télécharger ce qu'elle veut et parler aux gens. Oops, nous l'avons déjà fait ! Eliezer Yudkowsky m'a bien fait rire avec son tweet : "les gens se moquaient de moi en disant : tu es trop stupide, Eliezer, de toute évidence, lorsque les développeurs créeront une intelligence artificielle vraiment forte, la première chose à laquelle ils veilleront c'est, bien sûr, de ne jamais la connecter à l'internet, et de la garder dans une boîte où vous pouvez l'étudier en toute sécurité". Donc il écrit cela sous forme de mème, AVANT puis MAINTENANT. Donc MAINTENANT : "LOL, fabriquons un chatbot" ! 54:54 La troisième chose, c'est Stuart Russell, vous savez ce formidable chercheur en IA, il plaide depuis pas mal de temps que nous ne devrions jamais donner la moindre information aux IA sur les humains. Avant toute chose, nous ne devrions rien leur dire à propos de la psychologie humaine, et de la manière de manipuler les humains. C'est le type de connaissance des plus dangereuses que vous puissiez leur donner. Vous pouvez leur enseigner le nécessaire sur la manière de guérir le cancer et des choses comme ça, mais ne la laissez pas lire le livre de Daniel Kahnemann sur les biais cognitifs et tout cela ! Et là : ooops, inventons les médias sociaux avec des algorithmes de recommandations qui font exactement ça ! 2:06:00 Un plus gros éléphant dans la pièce, c'est la façon dont cela va déstabiliser notre économie et peut-être supprimer un grand nombre des métiers les plus intéressants. 2:08:45 Vous n'avez qu'à vous demander comment nous, les humains, avons accompli l'extinction d'autres espèces. Nous étions plus intelligents qu'elles. Généralement nous ne l'avons même pas fait systématiquement, en les exterminant une par une, en les écrasant ou en tirant dessus. Nous avons défoncé leur habitat parce que nous en avions besoin pour autre chose. Dans certains cas nous l'avons fait en ajoutant du dioxyde de carbone dans l'atmosphère pour des raisons que ces animaux ne comprenaient même pas, et maintenant ils sont éteints. Donc si vous êtes une IA, et vous avez une idée, et vous décidez : vous voyez nous avons besoin de cet espace ici, pour construire plus de centres de calcul. Si c'est son seul but, nous ne serons pour elle que quelques animaux sauvages tués sur les routes accidentellement. Vous pouvez imaginer : peut-être que cet oxygène est gênant parce qu'il cause de la corrosion, donc débarrassons nous de l'oxygène ! Et bonne chance pour survivre après ça ! Je ne suis pas particulièrement inquiet qu'elles voudraient nous tuer parce que ce serait un but à part entière. Lorsque nous avons fait s'éteindre un certain nombre d'espèces d'éléphants, ce n'était pas parce que nous n'aimions pas les éléphants. [1] https://slatestarcodex.com/2014/07/30/meditations-on-moloch/ (1955) Moloch dont l'esprit est une pure machine ! Moloch dont le sang est de l'argent qui coule ! (...) Moloch dont l'amour est du pétrole et de la pierre à l'infini ! Moloch dont l'âme est électricité et banques ! (...) Moloch ! Moloch ! Appartements robots ! banlieues invisibles ! trésors squelettiques ! capitales aveugles ! industries démoniaques ! nations spectrales ! maisons de fous invincibles ! Allen Ginsberg 2 Lien vers le commentaire Partager sur d’autres sites More sharing options...
Wallaby Posté(e) le 24 avril 2023 Auteur Share Posté(e) le 24 avril 2023 https://www.technologyreview.com/2023/04/19/1071789/openais-hunger-for-data-is-coming-back-to-bite-it/ OpenAI dispose d'un peu plus d'une semaine pour se conformer aux lois européennes sur la protection des données, après une interdiction temporaire en Italie et une série d'enquêtes dans d'autres pays de l'UE. En cas d'échec, elle pourrait se voir infliger de lourdes amendes, être contrainte de supprimer des données, voire être interdite. Toutefois, des experts ont déclaré au MIT Technology Review qu'il serait pratiquement impossible pour OpenAI de se conformer aux règles. Cela s'explique par la manière dont les données utilisées pour former ses modèles d'IA ont été collectées : en aspirant du contenu sur l'internet. Dans le développement de l'IA, le paradigme dominant est que plus il y a de données d'entraînement, mieux c'est. Le modèle GPT-2 de l'OpenAI disposait d'un ensemble de données composé de 40 gigaoctets de texte. Le modèle GPT-3, sur lequel est basé ChatGPT, a été entraîné sur 570 Go de données. OpenAI n'a pas communiqué la taille de l'ensemble de données de son dernier modèle, GPT-4. Mais cette soif de modèles plus grands se retourne maintenant contre l'entreprise. Au cours des dernières semaines, plusieurs autorités occidentales chargées de la protection des données ont ouvert des enquêtes sur la manière dont OpenAI recueille et traite les données qui alimentent ChatGPT. Elles estiment que l'entreprise a récupéré des données personnelles, telles que des noms ou des adresses électroniques, et les a utilisées sans leur consentement. L'Italie a donné à OpenAI jusqu'au 30 avril pour se conformer à la loi. Cela signifie qu'OpenAI devra demander le consentement des personnes concernées pour que leurs données soient récupérées, ou prouver qu'elle a un "intérêt légitime" à les collecter. OpenAI devra également expliquer aux personnes concernées comment le ChatGPT utilise leurs données et leur donner la possibilité de corriger toute erreur que le chatbot pourrait commettre à leur sujet, de faire effacer leurs données s'ils le souhaitent et de s'opposer à ce que le programme informatique les utilise. Si OpenAI ne parvient pas à convaincre les autorités de la légalité de ses pratiques d'utilisation des données, elle pourrait être interdite dans certains pays, voire dans l'ensemble de l'Union européenne. Elle pourrait également se voir infliger de lourdes amendes, voire être contrainte de supprimer les modèles et les données utilisées pour les entraîner, explique Alexis Leautier, expert en IA à l'agence française de protection des données (CNIL). Les violations commises par OpenAI sont si flagrantes qu'il est probable que cette affaire finisse devant la Cour de justice de l'Union européenne, la plus haute juridiction de l'UE, déclare Lilian Edwards, professeur de droit de l'internet à l'université de Newcastle. Il pourrait s'écouler des années avant que nous obtenions une réponse aux questions posées par l'autorité italienne de régulation des données. Le règlement général sur la protection des données de l'UE est le régime de protection des données le plus strict au monde, et il a été largement copié dans le monde entier. Les régulateurs, du Brésil à la Californie, seront très attentifs à la suite des événements, et le résultat pourrait changer fondamentalement la façon dont les entreprises d'IA collectent les données. Il semble peu probable qu'OpenAI soit en mesure d'affirmer qu'elle a obtenu le consentement des personnes concernées lorsqu'elle a récupéré leurs données. Il lui reste donc l'argument de l'"intérêt légitime". Selon M. Edwards, l'entreprise devra probablement convaincre les autorités de réglementation du caractère essentiel de ChatGPT pour justifier la collecte de données sans consentement. "Ce qui est vraiment inquiétant, c'est la manière dont il utilise les données que vous lui fournissez dans le chat", explique M. Leautier. Les gens ont tendance à partager des informations intimes et privées avec le chatbot, en lui parlant de choses comme leur état mental, leur santé ou leurs opinions personnelles. Selon M. Leautier, le risque que le ChatGPT régurgite ces données sensibles à d'autres personnes est problématique. Il ajoute qu'en vertu de la législation européenne, les utilisateurs doivent pouvoir faire effacer les données de leur journal de chat. 1 2 Lien vers le commentaire Partager sur d’autres sites More sharing options...
Wallaby Posté(e) le 26 avril 2023 Auteur Share Posté(e) le 26 avril 2023 https://www.attali.com/societe/chatgpt-25/ (30 mars 2023) Très bientôt, les versions prochaines de ces logiciels pourront remplacer les humains dans un très grand nombres de taches. Les métiers les plus à risque seront des activités très qualifiées comme ceux de juristes, avocats, traducteurs, comptables, analystes financiers, journalistes. Selon des études récentes, un quart des emplois aux Etats-Unis et en Europe pourront très bientôt être remplacés par des systèmes d’intelligence artificielle générative. Et puis viendront les consultants de toute nature, les ingénieurs, les architectes, les concepteurs de jeux vidéo, les créateurs de logiciels. Une fois de plus, le progrès technique prolétarisera des activités exigeant une très haute qualification. Ces logiciels seront ensuite capables de prendre des initiatives. Pour commencer, ils pourront écrire des emails avec votre style, en utilisant votre boite mail, ou celle d’un dirigeant privé ou public, pour donner des ordres, révéler des secrets, ordonner des embargos. En se démultipliant, ils pourront créer des désordres indescriptibles. Et pire encore, des intelligences artificielles pourront se coaliser pour utiliser de telles applications contre des humains, ou contre l’humanité en général. Il faudrait mettre au plus vite en place une charte véritablement mondiale reconnaissant les espoirs que portent en elles ces intelligences artificielles, mais leur interdisant de nuire à leurs auteurs humains. Comme le proposait dès 1942 le très grand écrivain américain de science-fiction, Isaac Asimov. Naturellement, on ne le fera pas. Comme on ne l’a pas fait efficacement ni pour la fiscalité, ni pour l’arme nucléaire ni pour le génie génétique. Pour le nucléaire civil, on l'a fait assez largement avec l'AIEA. À part la Corée du Nord, tous les pays jouent le jeu. 1 1 Lien vers le commentaire Partager sur d’autres sites More sharing options...
g4lly Posté(e) le 26 avril 2023 Share Posté(e) le 26 avril 2023 En quelques sortes ce sera la victoire des prolos contre l'élite ... Le peuple formera une classe moyenne entièrement prolétarisé. Le point du virage c'est qu'à part les possédant qui auront encore quelques trucs à vendre/acheter... L'économie pourrait tourner assez court. Ou du moins en rond. 2 Lien vers le commentaire Partager sur d’autres sites More sharing options...
Wallaby Posté(e) le 26 avril 2023 Auteur Share Posté(e) le 26 avril 2023 Dans la foulée du slogan « on va vite et on casse tout » (move fast and break things), Facebook a enfilé les perles : https://www.theguardian.com/technology/2010/jan/11/facebook-privacy (11 janvier 2010) Lors de la remise des prix Crunchie à San Francisco ce week-end, le directeur général du réseau social le plus populaire au monde, âgé de 25 ans, a déclaré que la protection de la vie privée n'était plus une "norme sociale". 1 1 Lien vers le commentaire Partager sur d’autres sites More sharing options...
g4lly Posté(e) le 26 avril 2023 Share Posté(e) le 26 avril 2023 5 hours ago, Wallaby said: Dans la foulée du slogan « on va vite et on casse tout » (move fast and break things), Facebook a enfilé les perles : https://www.theguardian.com/technology/2010/jan/11/facebook-privacy (11 janvier 2010) Lors de la remise des prix Crunchie à San Francisco ce week-end, le directeur général du réseau social le plus populaire au monde, âgé de 25 ans, a déclaré que la protection de la vie privée n'était plus une "norme sociale". Le pire c'est qu'il n'a pas vraiment tord tant l'extimité est devenue la norme ... et pas seulement chez les "jeunes" ... ... les ieuv' qui veulent du contrôle de partout pour se sentir en sécurité y sont au moins pour autant. Lien vers le commentaire Partager sur d’autres sites More sharing options...
nikesfeld13 Posté(e) le 27 avril 2023 Share Posté(e) le 27 avril 2023 Le 04/04/2023 à 04:17, g4lly a dit : Internet n'a pas changé grand chose en vrai ... ça a juste accéléré des choses ... la société fonctionne grosso modo pareille avant et après la démocratisation d'internet ... les échanges dématérialisé vont juste plus vite. Oui et la connaissance/compétence ne vaut plus rien... culte de l'amateur comme on peut lire. Toute ses technologies dont l'IA sont des moyens de distanciations sociales. Notre société n'éduque plus au savoir Etre et on évite le contact en pensant par le tiers machine anonyme. l'IA cassera la chaine hiérarchique, l'automate intelligent sera la porte de communication du populo. Lien vers le commentaire Partager sur d’autres sites More sharing options...
Wallaby Posté(e) le 30 avril 2023 Auteur Share Posté(e) le 30 avril 2023 https://en.wikipedia.org/wiki/Justin_Rosenstein M. Rosenstein a figuré dans le documentaire The Social Dilemma, qui examine l'impact du temps passé sur les plateformes de réseaux sociaux et tire la sonnette d'alarme sur l'importance de s'attaquer à des problèmes tels que l'addiction, les "fake news" et le réchauffement climatique. Dans le documentaire, Rosenstein déclare : "Nous vivons dans un monde où un arbre vaut plus, financièrement, mort que vivant, dans un monde où une baleine vaut plus morte que vivante. Tant que notre économie fonctionnera de cette manière et que les entreprises ne seront pas réglementées, elles continueront à détruire les arbres, à tuer les baleines, à exploiter la terre et à extraire le pétrole du sol, même si nous savons que cela détruit la planète et que cela laissera un monde pire aux générations futures. Il s'agit d'un raisonnement à court terme fondé sur cette religion du profit à tout prix, comme si, d'une manière ou d'une autre, comme par magie, chaque entreprise agissant dans son intérêt égoïste allait produire le meilleur résultat. Cette situation affecte l'environnement depuis longtemps. Ce qui est effrayant, et ce qui, espérons-le, sera la goutte d'eau qui fera déborder le vase et nous fera prendre conscience, en tant que civilisation, du caractère erroné de cette théorie, c'est de voir que nous sommes maintenant l'arbre, nous sommes la baleine. Notre attention peut être exploitée. Nous sommes plus rentables pour une entreprise si nous passons du temps à regarder un écran, à regarder une publicité, que si nous passons ce temps à vivre notre vie d'une manière riche. Nous en voyons les résultats. Nous voyons des entreprises utiliser une intelligence artificielle puissante pour être plus malignes que nous et trouver comment attirer notre attention sur les choses qu'elles veulent que nous regardions, plutôt que sur les choses qui correspondent le mieux à nos objectifs, à nos valeurs et à notre vie" Lien vers le commentaire Partager sur d’autres sites More sharing options...
Wallaby Posté(e) le 2 mai 2023 Auteur Share Posté(e) le 2 mai 2023 (modifié) https://www.irishtimes.com/technology/big-tech/2023/05/02/godfather-of-ai-geoffrey-hinton-quits-google-and-warns-over-dangers-of-machine-learning/ [Geoffrey] Hinton (75 ans) [prix Turing 2018 pour ses travaux sur les réseaux neuronaux], démissionne [de Google] pour parler librement des dangers de l'IA Il a déclaré au New York Times que jusqu'à l'année dernière, il pensait que Google avait été un "bon gardien" de la technologie, mais que cela avait changé lorsque Microsoft a commencé à incorporer un chatbot dans son moteur de recherche Bing, et que l'entreprise a commencé à s'inquiéter du risque pour ses affaires de moteur de recherche. Certains des dangers liés à l'IA des chatbots sont "assez effrayants", a-t-il déclaré à la BBC, avertissant qu'ils pourraient devenir plus intelligents que les humains et être exploités par de "mauvais acteurs". "J'en suis arrivé à la conclusion que le type d'intelligence que nous développons est très différent de l'intelligence que nous avons". "C'est comme si vous aviez 10 000 personnes et qu'à chaque fois qu'une personne apprend quelque chose, tout le monde le sait automatiquement. C'est ainsi que ces chatbots peuvent en savoir beaucoup plus que n'importe quelle personne." Cette déclaration a été faite tandis que le directeur général d'IBM, Arvind Krishna, déclarait à Bloomberg que jusqu'à 30 % des fonctions de back-office de l'entreprise pourraient être remplacées par l'IA et l'automatisation dans les cinq ans à venir. M. Krishna a déclaré que l'embauche dans des domaines tels que les ressources humaines serait ralentie ou suspendue, ce qui pourrait entraîner le remplacement d'environ 7 800 postes. IBM emploie au total 260 000 personnes dans le monde. Le mois dernier, le Guardian a réussi à contourner un système d'authentification vocale utilisé par Services Australia [le service public australien] en utilisant un synthétiseur vocal IA en ligne, ce qui remet en question la viabilité de la biométrie vocale pour l'authentification. https://www.rfi.fr/fr/technologies/20230502-geoffrey-hinton-quitte-google-alerter-dangers-intelligence-artificielle-chatgpt-ia-new-york-times En quittant Google, Geoffrey Hinton va pouvoir parler des dangers de l'intelligence artificielle, une technologie à laquelle il a consacré de nombreuses années de recherche : « Une partie de lui regrette maintenant le travail de sa vie », dit l'article du New York Times. « Je me console avec l'excuse normale : si je ne l'avais pas fait, quelqu'un d'autre l'aurait fait », a-t-il nuancé. Le chercheur en informatique a plusieurs craintes. La première : qu'Internet soit inondé de fausses informations avec des photos, des vidéos et textes générés par IA, impossibles à différencier de la réalité. Il estime également que l'IA peut totalement bouleverser le marché du travail en faisant disparaître certains métiers comme les traducteurs par exemple. https://www.nytimes.com/2023/05/01/technology/ai-google-chatbot-engineer-quits-hinton.html "Il est difficile de voir comment on peut empêcher les mauvais acteurs de l'utiliser à des fins malveillantes", a déclaré le Dr Hinton. Selon lui, à mesure que les entreprises améliorent leurs systèmes d'I.A., ceux-ci deviennent de plus en plus dangereux. Regardez ce qu'il en était il y a cinq ans et ce qu'il en est aujourd'hui", a-t-il déclaré à propos de la technologie de l'I.A. "Prenez la différence et propagez-la vers l'avant". "L'idée que ce matériel puisse devenir plus intelligent que les hommes, quelques personnes l'ont crue", a-t-il déclaré. "Mais la plupart des gens pensaient que c'était une erreur. Et je pensais que c'était loin d'être le cas. Je pensais que c'était pour dans 30 à 50 ans, voire plus. Évidemment, je ne le pense plus aujourd'hui". Contrairement aux armes nucléaires, il n'y a aucun moyen de savoir si des entreprises ou des pays travaillent en secret sur cette technologie. Le meilleur espoir est que les plus grands scientifiques du monde collaborent pour trouver des moyens de contrôler la technologie. "Je ne pense pas qu'il faille développer davantage cette technologie tant que l'on n'a pas compris s'il est possible de la contrôler", a-t-il déclaré. Voir aussi : http://www.air-defense.net/forum/topic/23399-la-technologie-contre-la-démocratie/?do=findComment&comment=1620392 (interview sur CBC, 25 mars 2023) Modifié le 2 mai 2023 par Wallaby 1 2 1 Lien vers le commentaire Partager sur d’autres sites More sharing options...
Wallaby Posté(e) le 2 mai 2023 Auteur Share Posté(e) le 2 mai 2023 https://www.technologyreview.com/2023/05/02/1072528/geoffrey-hinton-google-why-scared-ai/ "J'ai soudain changé d'avis sur la question de savoir si ces choses seront plus intelligentes que nous". J'ai rencontré Geoffrey Hinton chez lui, dans une jolie rue du nord de Londres, quatre jours avant l'annonce fracassante de son départ de Google. Au début de notre conversation, j'ai pris place à la table de la cuisine et Hinton a commencé à faire les cent pas. Souffrant depuis des années de douleurs chroniques au dos, Hinton ne s'assoit presque jamais. Pendant l'heure qui a suivi, je l'ai regardé marcher d'un bout à l'autre de la pièce, ma tête pivotant au fur et à mesure qu'il parlait. Et il avait beaucoup de choses à dire. "Je veux parler des questions de sécurité de l'IA sans avoir à me préoccuper de la manière dont cela interagit avec les activités de Google", explique-t-il. "Tant que je suis payé par Google, je ne peux pas le faire. Cela ne veut pas dire que M. Hinton est mécontent de Google, loin de là. "Cela pourrait vous surprendre", dit-il. "J'ai beaucoup de bonnes choses à dire sur Google, et elles sont beaucoup plus crédibles si je ne suis plus chez Google. "Ces choses sont totalement différentes de nous", déclare-t-il. "Parfois, je me dis que c'est comme si des extraterrestres avaient débarqué et que les gens ne s'en étaient pas rendu compte parce qu'ils parlent très bien anglais". "Mon père était biologiste et je pensais donc en termes biologiques", explique M. Hinton. "Les corbeaux peuvent résoudre des énigmes, mais ils n'ont pas de langage. Ils ne le font pas en stockant des chaînes de symboles et en les manipulant. Ils le font en modifiant la force des connexions entre les neurones de leur cerveau. Il doit donc être possible d'apprendre des choses compliquées en modifiant la force des connexions dans un réseau neuronal artificiel. Pendant 40 ans, M. Hinton a considéré les réseaux neuronaux artificiels comme une piètre tentative d'imitation des réseaux biologiques. Aujourd'hui, il pense que les choses ont changé : en essayant d'imiter ce que font les cerveaux biologiques, nous sommes parvenus à quelque chose de mieux. "C'est effrayant de voir cela", dit-il. "C'est un revirement soudain. "Notre cerveau compte 100 000 milliards de connexions", explique M. Hinton. "Les grands modèles de langage n'en ont que 500 milliards, mille milliards tout au plus. Pourtant, GPT-4 en sait des centaines de fois plus que n'importe quelle personne. Il est donc possible qu'il dispose d'un algorithme d'apprentissage bien meilleur que le nôtre". Comparés aux cerveaux, les réseaux neuronaux sont généralement considérés comme peu aptes à l'apprentissage : il faut de grandes quantités de données et d'énergie pour les former. Les cerveaux, en revanche, assimilent rapidement de nouvelles idées et compétences, en utilisant une fraction de l'énergie consommée par les réseaux neuronaux. "Les humains semblaient avoir une sorte de magie", explique M. Hinton. "Cet argument tombe à l'eau dès que l'on prend l'un de ces grands modèles de langage et qu'on l'entraîne à faire quelque chose de nouveau. Il peut apprendre de nouvelles tâches extrêmement rapidement. M. Hinton parle d'"apprentissage en quelques coups", c'est-à-dire que les réseaux neuronaux préformés, tels que les grands modèles de langage, peuvent être formés à de nouvelles tâches à partir d'un petit nombre d'exemples. Par exemple, il note que certains de ces modèles de langage peuvent enchaîner une série d'énoncés logiques pour en faire un argument, même s'ils n'ont jamais été entraînés à le faire directement. Si l'on compare un grand modèle linguistique pré-entraîné à un humain dans la vitesse d'apprentissage d'une tâche de ce type, l'avantage de l'humain disparaît, explique-t-il. Qu'en est-il du fait que les grands modèles de langage inventent tant de choses ? Connues sous le nom d'"hallucinations" par les chercheurs en IA (bien que M. Hinton préfère le terme de "confabulations", qui est le terme correct en psychologie), ces erreurs sont souvent considérées comme une faille fatale de la technologie. La tendance à les générer rend les chatbots indignes de confiance et, selon beaucoup, montre que ces modèles ne comprennent pas vraiment ce qu'ils disent. M. Hinton a également une réponse à cette question : les baratins sont une caractéristique, pas un bogue. "Les gens confabulent toujours", affirme-t-il. Les demi-vérités et les détails mal mémorisés sont des caractéristiques de la conversation humaine : "La confabulation est une signature de la mémoire humaine. Ces modèles font quelque chose comme les humains". "J'ai soudain changé d'avis sur la question de savoir si ces choses seront plus intelligentes que nous. Je pense qu'elles en sont très proches aujourd'hui et qu'elles seront beaucoup plus intelligentes que nous à l'avenir", déclare-t-il. "Comment allons-nous survivre à cela ? M. Hinton estime que la prochaine étape pour les machines intelligentes est la capacité de créer leurs propres sous-objectifs, c'est-à-dire les étapes intermédiaires nécessaires à l'exécution d'une tâche. Que se passe-t-il, demande-t-il, lorsque cette capacité est appliquée à quelque chose d'intrinsèquement immoral ? "Ne pensez pas un instant que Poutine ne fabriquerait pas des robots hyperintelligents dans le but de tuer des Ukrainiens. "Il n'hésiterait pas. Et si vous voulez qu'ils soient bons dans ce domaine, vous ne voulez pas les micro-gérer - vous voulez qu'ils trouvent comment le faire". "Voici un sous-objectif qui est presque toujours utile en biologie : obtenir plus d'énergie. La première chose qui pourrait se produire, c'est que ces robots se disent : "Obtenons plus d'énergie, redirigeons toute l'électricité vers mes puces. Un autre objectif secondaire important serait de faire plus de copies de soi-même. Quelle impression cela vous donne-t-il ?" Il pense que l'interdiction internationale des armes chimiques pourrait être un modèle de la manière de freiner le développement et l'utilisation d'IA dangereuses. "Elle n'était pas infaillible, mais dans l'ensemble, les gens n'utilisent pas d'armes chimiques", dit-il. M. Hinton pense-t-il vraiment pouvoir convaincre suffisamment de personnes au pouvoir de partager ses préoccupations ? Il n'en sait rien. Il y a quelques semaines, il a regardé le film Don't Look Up, dans lequel un astéroïde fonce sur la Terre, personne ne parvient à se mettre d'accord sur ce qu'il faut faire, et tout le monde meurt - une allégorie de l'incapacité du monde à faire face au changement climatique. "Je pense que c'est la même chose avec l'IA", dit-il, et avec d'autres grands problèmes insolubles. "Les États-Unis n'arrivent même pas à se mettre d'accord pour empêcher que les fusils d'assaut ne tombent entre les mains d'adolescents. 2 1 Lien vers le commentaire Partager sur d’autres sites More sharing options...
herciv Posté(e) le 3 mai 2023 Share Posté(e) le 3 mai 2023 Des "machines à plagier" : Les scénaristes et les studios hollywoodiens s'affrontent sur l'avenir de l'IA Zonebourse Aujourd'hui à 04:03 Partager Depuis des décennies, les scénaristes d'Hollywood écrivent des scénarios de science-fiction dans lesquels des machines prennent le contrôle du monde. Aujourd'hui, ils se battent pour que les robots ne prennent pas leur travail. La Writers Guild of America cherche à limiter l'utilisation de l'intelligence artificielle dans l'écriture de scénarios pour le cinéma et la télévision. Les studios hollywoodiens, qui se battent pour rentabiliser les services de diffusion en continu et font face à une baisse des recettes publicitaires, ont rejeté cette idée, déclarant qu'ils seraient prêts à discuter des nouvelles technologies une fois par an, selon la guilde. Un porte-parole de l'Alliance of Motion Picture and Television Producers, qui négocie le contrat au nom des studios, n'a fait aucun commentaire. Le différend sur l'IA est l'un des nombreux problèmes qui ont conduit les scénaristes de cinéma et de télévision d'Hollywood à se mettre en grève lundi, marquant ainsi le premier arrêt de travail en 15 ans. Bien que cette question soit l'un des derniers points décrits dans un résumé des points de négociation de la WGA, dont beaucoup se concentrent sur l'amélioration de la rémunération à l'ère du streaming, le débat sur le rôle de l'IA dans le processus créatif déterminera l'avenir du divertissement pour les décennies à venir. Le scénariste John August, membre du comité de négociation de la WGA, a déclaré que les scénaristes avaient deux préoccupations concernant l'IA. "Nous ne voulons pas que notre matériel les nourrisse, et nous ne voulons pas non plus avoir à corriger leurs premières ébauches bâclées", a-t-il déclaré. Il s'agit d'une technologie à multiples facettes qui se développe rapidement et qui a envahi l'ensemble de l'industrie mondiale. À Hollywood, l'IA permet d'effacer les rides du visage d'un acteur vieillissant, de nettoyer un acteur qui utilise abondamment des bombes f et de dessiner des courts métrages d'animation à l'aide de Dall-E d'OpenAI, qui peut créer des images réalistes. Certains écrivains expérimentent la création de scénarios. LA "DERNIÈRE BASTON"... "Le problème semble être que nous pensions que la créativité en tant que telle était le dernier rempart, la ligne dans le sable, qui empêcherait les machines de remplacer le travail de quelqu'un", a déclaré Mike Seymour, cofondateur du Motus Lab à l'université de Sydney, qui a une expérience des effets visuels et de l'intelligence artificielle et qui a été consultant auprès de plusieurs studios. "Je dirais qu'il s'agit là d'une notion arbitraire qui a frappé l'imagination populaire. L'IA peut aider les scénaristes à briser "le phénomène de la feuille blanche", a déclaré M. Seymour, et elle est douée pour ce qu'il appelle la "pantomime", c'est-à-dire la production de dialogues directs et directs, même s'ils manquent de nuance. "Je ne prétends pas non plus que l'IA va devenir super intelligente et produire, vous savez, 'Citizen Kane', parce que ce n'est tout simplement pas possible", a déclaré M. Seymour. Les écrivains craignent d'être mis sur la touche, ou du moins d'être lésés. "Ce que (l'IA) pourrait faire, c'est produire un travail brouillon", a déclaré Warren Leight, scénariste qui a été showrunner et producteur exécutif de la série de NBC "Law & Order : SVU". "Au lieu de vous engager pour faire une première version, (les studios) vous engagent pour faire une deuxième version, ce qui rapporte moins. Vous voulez tuer cela dans l'œuf". Le syndicat a proposé que le matériel généré par un système d'IA tel que ChatGPT ne soit pas considéré comme du "matériel littéraire" ou du "matériel source", termes déjà définis dans leur contrat. En pratique, cela signifie que si un directeur de studio remettait à un scénariste un scénario généré par l'IA pour qu'il le révise, le scénariste ne pourrait pas bénéficier d'un taux de réécriture ou de polissage inférieur. Le syndicat soutient que les scénarios existants ne devraient pas être utilisés pour former l'intelligence artificielle, ce qui ouvrirait la porte au vol de la propriété intellectuelle. Nous appelons cela le "problème Nora Ephron", a déclaré M. August, en référence à l'auteur de comédies romantiques à succès telles que "Quand Harry rencontre Sally" et "Vous avez du courrier". "On peut imaginer qu'un studio forme une IA à tous les scénarios de Nora Ephron et lui demande d'écrire une comédie avec sa voix. Nos propositions empêcheraient cela". La négociatrice en chef de la WGA, Ellen Stutzman, a déclaré que certains membres avaient un autre terme pour désigner l'IA : "les machines à plagier". "Nous avons fait une proposition raisonnable selon laquelle la société devrait maintenir l'IA à l'écart de l'écriture de programmes télévisés et de films et ne pas essayer de remplacer les écrivains", a-t-elle déclaré. 2 Lien vers le commentaire Partager sur d’autres sites More sharing options...
Wallaby Posté(e) le 4 mai 2023 Auteur Share Posté(e) le 4 mai 2023 https://www.theguardian.com/technology/2023/may/04/bernie-sanders-elon-musk-and-white-house-seeking-my-help-says-godfather-of-ai "Le gouvernement américain est inévitablement très préoccupé par la sécurité nationale. Et j'ai tendance à ne pas être d'accord avec eux", a-t-il [Geoffrey Hinton] déclaré au Guardian. "Par exemple, je suis sûr que le ministère de la défense considère que le seul endroit sûr pour ce genre de choses est le ministère de la défense des États-Unis - le seul groupe de personnes à utiliser des armes nucléaires. "Je suis socialiste", a ajouté M. Hinton. Je pense que la propriété privée des médias et des "moyens de calcul" n'est pas une bonne chose. "Si l'on considère ce que fait Google dans le contexte d'un système capitaliste, il se comporte de la manière la plus responsable possible. Mais cela ne signifie pas qu'il essaie de maximiser l'utilité pour tout le monde : il est légalement obligé de maximiser l'utilité pour ses actionnaires, et c'est une chose très différente. "Je ne suis pas un spécialiste de la politique", déclare-t-il. "Je suis simplement quelqu'un qui a soudainement pris conscience que quelque chose de très grave risquait de se produire. J'aimerais avoir une bonne solution, du genre : 'Arrêtez de brûler du carbone et tout ira bien'. Mais je ne vois pas de solution simple comme celle-là". "La raison pour laquelle je ne suis pas si optimiste est que je ne connais aucun exemple d'objets plus intelligents contrôlés par des objets moins intelligents". "Il faut imaginer quelque chose qui soit plus intelligent que nous dans la même mesure que nous sommes plus intelligents qu'une grenouille. C'est bien beau de dire : 'Ne les connectez pas à l'internet', mais tant qu'ils nous parlent, ils peuvent nous faire faire des choses". Lien vers le commentaire Partager sur d’autres sites More sharing options...
Wallaby Posté(e) le 14 mai 2023 Auteur Share Posté(e) le 14 mai 2023 (modifié) https://www.radiofrance.fr/franceculture/podcasts/affaires-etrangeres/europe-chine-etats-unis-face-au-controle-de-l-intelligence-artificielle-4793533 (13 mai 2023) 41:12 Charles Thibout : On peut reprendre le cas du AI Act, c'est aujourd'hui changé de façon assez drastique par le parlement européen, mais dans la proposition initiale de la commission européenne, il y avait, en effet, de manière assez voilée, mais quand même la volonté de rendre possible une surveillance biométrique en temps réel des individus dans l'espace public, assez large. Et ça, c'est quand même un pas tout à fait considérable dans une société que nous ne connaissions pas jusqu'à présent, c'est à dire une société de surveillance assez massive. 50:50 Victor Storchan : Là, depuis le début de l'année, on a vu, et dans les annonces d'OpenAI, et dans les annonces de Google, une fermeture totale de leur propriété intellectuelle, donc on n'a plus du tout accès à des informations comme la taille des modèles, le type de paramètres qui sont utilisés, ce qui fait que cette fermeture rend extrêmement compliquées l'investigation et l'évaluation scientifiques de ces modèles. Donc ça ne participe pas du tout à éclairer la société sur les capacités très précises et ça entretient le flou technologique. 51:16 Asma Mhalla : Vous avez l'idéologie des idéologues : Elon Musk, Sam Altman qui ont une vison du monde très claire sur le futur : on n'en parle pas mais quand même, sur le futur du travail, sur le transhumanisme, le long-termisme, on pourrait évoquer ça longuement. Mais ça reste malgré tout des acteurs américains qui sont convoqués par la Maison Blanche parce que ça reste des outils de projection de puissance américaine, malgré tout. La fabrication des savoirs dans un ChatGPT ou une IA générative se fait aujourd'hui par des Américains en anglais, essentiellement. Si on remonte la chaîne de valeur, qui fabrique quoi, selon les intérêts de qui ? Ce qu'on appelle « l'alignement » des modèles, sur la vision de qui ? de quoi ? et dans quel intérêt ? Ce sont des questions fondamentales à ne jamais perdre de vue. (...) Le fond du sujet ce sont les IA militaires. La guerre d'Ukraine a été une sorte de terrain d'expérimentation. Modifié le 14 mai 2023 par Wallaby Lien vers le commentaire Partager sur d’autres sites More sharing options...
Wallaby Posté(e) le 21 mai 2023 Auteur Share Posté(e) le 21 mai 2023 https://www.huffpost.com/entry/artificial-intelligence_b_5174265 (19 avril 2014) Aucune loi physique n'empêche les particules d'être organisées de manière à effectuer des calculs encore plus avancés que les arrangements de particules dans les cerveaux humains. Une transition explosive est possible, bien qu'elle puisse se dérouler différemment que dans le film : comme Irving Good l'a réalisé en 1965 [1], les machines dotées d'une intelligence surhumaine pourraient améliorer leur conception de manière répétée, déclenchant ce que Vernor Vinge a appelé une "singularité" et que le personnage de Johnny Depp dans le film appelle la "transcendance". On peut imaginer qu'une telle technologie soit plus intelligente que les marchés financiers, qu'elle surpasse les chercheurs humains, qu'elle manipule les dirigeants humains et qu'elle mette au point des armes que nous ne pouvons même pas comprendre. Si l'impact à court terme de l'IA dépend de ceux qui la contrôlent, l'impact à long terme dépend de la possibilité de la contrôler. Alors, face à des avenirs possibles aux avantages et aux risques incalculables, les experts font certainement tout ce qui est en leur pouvoir pour garantir le meilleur résultat, n'est-ce pas ? C'est faux. Si une civilisation extraterrestre supérieure nous envoyait un message texte disant "Nous arriverons dans quelques décennies", répondrions-nous simplement "D'accord, appelez-nous quand vous arriverez, nous laisserons la lumière allumée" ? Probablement pas, mais c'est plus ou moins ce qui se passe avec l'IA. Bien que nous soyons confrontés à la meilleure ou à la pire chose qui puisse arriver à l'humanité, peu de recherches sérieuses sont consacrées à ces questions en dehors de petits instituts à but non lucratif tels que le Cambridge Center for Existential Risk, le Future of Humanity Institute, le Machine Intelligence Research Institute et le Future of Life Institute. Chacun d'entre nous - et pas seulement les scientifiques, les industriels et les généraux - devrait se demander ce qu'il peut faire maintenant pour améliorer les chances de récolter les bénéfices et d'éviter les risques. Stephen Hawking est directeur de recherche au Centre de physique théorique de Cambridge et lauréat du prix de physique fondamentale 2012 pour ses travaux sur la gravité quantique. Stuart Russell est professeur d'informatique à Berkeley et coauteur de "Artificial Intelligence : a Modern Approach". Max Tegmark est professeur de physique au M.I.T. et auteur de "Our Mathematical Universe". Frank Wilczek est professeur de physique au M.I.T. et lauréat du prix Nobel 2004 pour ses travaux sur la force nucléaire forte. https://fr.wikipedia.org/wiki/Irving_John_Good « Supposons qu’existe une machine surpassant en intelligence tout ce dont est capable un homme, aussi brillant soit-il. La conception de telles machines faisant partie des activités intellectuelles, cette machine pourrait à son tour créer des machines meilleures qu’elle-même; cela aurait sans nul doute pour effet une réaction en chaîne de développement de l’intelligence, pendant que l’intelligence humaine resterait presque sur place. Il en résulte que la machine ultra intelligente sera la dernière invention que l’homme aura besoin de faire, à condition que ladite machine soit assez docile pour constamment lui obéir » 1 Lien vers le commentaire Partager sur d’autres sites More sharing options...
g4lly Posté(e) le 24 mai 2023 Share Posté(e) le 24 mai 2023 Les assistants personnels basé sur des IA pourrait balayer les GAFA? https://www.lesechos.fr/tech-medias/hightech/ia-vous-nirez-plus-sur-amazon-predit-bill-gates-1945785 IA : « Vous n'irez plus sur Amazon », prédit Bill Gates Avec l'intelligence artificielle de demain, « vous n'irez plus jamais sur Amazon », « vous n'irez plus jamais sur un site de recherche ». Si elle se réalise, la prédiction de Bill Gates pourrait bel et bien chambouler tout le secteur technologique. Voire enterrer les puissants Gafa… Pour le cofondateur de Microsoft, qui s'exprimait lors de la conférence AI Forward 2023, à San Francisco en début de semaine, la course technologique à gagner est désormais le développement d'un assistant personnel doté d'intelligence artificielle (IA), capable d'effectuer certaines tâches à la place de tout un chacun. Quel que soit le vainqueur, il s'agira d'un enjeu majeur capable de chambouler l'écosystème des moteurs de recherche, les sites d'e-commerce… Cet assistant doté d'IA, qui n'a pas encore vu le jour, sera capable de comprendre les besoins et les habitudes d'une personne et l'aidera à « lire les choses que vous n'avez pas le temps de lire », a déclaré le milliardaire lors d'un événement organisé par Goldman Sachs et le fonds SV Angel sur le thème de l'intelligence artificielle, rapporte CNBC. Selon lui, il faudra toutefois un certain temps avant que ce puissant agent numérique du futur ne soit prêt à être utilisé par le grand public. D'ici là, les entreprises continueront à intégrer dans leurs propres produits des technologies d'IA dites génératives, à l'image de ChatGPT développé par OpenAI. Super-assistant personnel donnant accès aux différents sites « L'IA est une révolution dans la manière dont on accède aux différents sites. Toute la question est de savoir si chaque site va créer son propre outil de type ChatGPT - ou intégrer ChatGPT directement -, ou si l'on passera par un 'super assistant personnel' universel, qui donnera accès à tout le reste », décrypte Nicolas Gaudemet, partner Media et IA chez Onepoint. D'un côté, le spécialiste cite l'exemple d'Expedia : grâce à un plug-in dans ChatGPT, les utilisateurs peuvent créer et organiser dans l'outil d'OpenAI leur itinéraire de voyage (les trajets, les hébergements, les visites, etc.). « De fait, on reste dans l'écosystème ChatGPT, explique-t-il. L'un des scénarios futurs possibles sera que ChatGPT - ou un autre acteur qui va émerger - fonctionne comme une sorte d'App Store d'Apple permettant ensuite d'accéder à des applis. » Autrement dit, pour acheter une robe ou de la vaisselle, l'utilisateur ne passera plus par Amazon, mais par des requêtes simples sur ChatGPT pour l'aider à choisir son vêtement, qui le renverra ensuite sur Amazon pour commander. Conséquence, « une perte d'accès direct pour les sites qui sont derrière, et potentiellement une commission à verser à l'outil d'IA, comme le font les applis pour Apple », prévoit Nicolas Gaudemet. De l'autre côté, les sites et outils technologiques cherchent à garder leurs utilisateurs dans leur propre écosystème en mettant une dose d'IA. Nombre de sites, à l'image de Zalando (commerce en ligne), ont mis en place de nouvelles fonctionnalités utilisant l'intelligence artificielle. Dans le même esprit, Microsoft a annoncé qu'il allait intégrer ChatGPT dans ses outils de bureautique classiques comme Word ou Excel. Un assistant virtuel pourra ainsi répondre aux e-mails, générer une présentation PowerPoint, résumer une réunion… « Pour les logiciels ou les sites comportant un important service aux clients et de nombreuses fonctionnalités, on peut imaginer que les utilisateurs restent dans l'environnement de ce dernier… mais pour les autres ? » reprend le spécialiste de Onepoint. Inflection AI Quant à savoir qui prendra la tête de la course de l'IA demain, le jeu est ouvert. Bill Gates a ainsi indiqué qu'il serait déçu si Microsoft n'entrait pas dans le jeu. Pour lui, il y a 50 % de chances que le premier acteur à émerger soit une start-up, rapporte l'agence Reuters. Ce défenseur de l'IA, estimant que les nouveaux outils aussi sont aussi « révolutionnaires » que le téléphone mobile ou Internet, a indiqué que la société Inflection AI l'avait impressionné. Cette jeune entreprise américaine, qui a créé « Pi », a été lancée par des anciens de DeepMind (appartenant à Google) et l'un des fondateurs de LinkedIn, Reid Hoffman. 1 Lien vers le commentaire Partager sur d’autres sites More sharing options...
Wallaby Posté(e) le 24 mai 2023 Auteur Share Posté(e) le 24 mai 2023 5 avril 2023. Stuart Russell L'un des points abordés par Stuart Russell (professeur à Berkeley, auteur de l'un des manuels d'IA les plus utilisés) à partir de 23:12 dans cette vidéo, est que les IA qui d'ordinaire battent les champions du monde humains au jeu de go ont des failles qu'on peut analyser puis exploiter, si bien que l'IA perd la partie. On utilise pour cela un "programme informatique d'attaque de l'IA" : https://www.nextbigfuture.com/2023/04/the-best-ai-go-programs-have-large-flaws-exposed-which-means-more-testing-and-care-needed-for-ai.html (24 avril 2023) En 2023, un nouveau programme informatique a été utilisé pour rechercher les faiblesses des programmes d'IA des joueurs de go. Des faiblesses ont été trouvées et ces faiblesses étaient si simples à exploiter qu'elles ont été enseignées à un joueur amateur. Les joueurs amateurs n'auraient aucune chance contre les meilleurs joueurs de go humains. Les meilleurs joueurs de go humains ont été battus par les logiciels d'IA, mais sans avoir une connaissance approfondie des faiblesses des programmes d'IA. Le nouveau programme informatique d'attaque de l'IA a trouvé d'importantes failles exploitables à plusieurs reprises dans la façon dont l'IA de Go joue. https://arxiv.org/abs/2211.00241 Nous attaquons le système d'IA de jeu de go de pointe KataGo en entraînant des politiques adverses qui jouent contre des victimes gelées de KataGo. Notre attaque permet d'obtenir un taux de victoire supérieur à 99 % lorsque KataGo n'utilise pas de recherche arborescente et un taux de victoire supérieur à 97 % lorsque KataGo utilise suffisamment de recherche pour être surhumain. Nous entraînons nos adversaires avec une implémentation modifiée de KataGo, en utilisant moins de 14 % du calcul utilisé pour entraîner le KataGo original. Notamment, nos adversaires ne gagnent pas en apprenant à jouer au Go mieux que KataGo - en fait, nos adversaires sont facilement battus par des amateurs humains. Au contraire, nos adversaires gagnent en poussant KataGo à commettre de graves erreurs. Notre attaque peut être appliquée à d'autres IA surhumaines jouant au Go et est interprétable dans la mesure où des experts humains peuvent la mettre en œuvre avec succès, sans assistance algorithmique, afin de battre régulièrement des IA surhumaines. Nos résultats démontrent que même les systèmes d'IA surhumains peuvent présenter des modes d'échec surprenants. Des exemples de jeux sont disponibles à cette URL https://goattack.far.ai/ Lien vers le commentaire Partager sur d’autres sites More sharing options...
Wallaby Posté(e) le 26 mai 2023 Auteur Share Posté(e) le 26 mai 2023 https://thechinaproject.com/2023/05/26/vocal-deepfakes-of-famous-singers-excite-mandopop-listeners-but-raises-questions-about-ethics-and-legality/ La plus grande chanteuse émergente de 2023 en Chine est quelqu'un qui n'a pas sorti d'album depuis 2018. Ces dernières semaines, Stefanie Sun (孙燕姿 Sūn Yànzī), une auteure-compositrice-interprète singapourienne dont la carrière s'étend sur plus de deux décennies dans l'industrie du divertissement, a été couronnée "reine des reprises" par les fans de pop mandarine. Sur les réseaux sociaux chinois, des clips de Sun interprétant des chansons d'autres artistes sont apparus en masse depuis avril, certains atteignant des millions d'écoutes et conduisant à un regain d'intérêt improbable pour la chanteuse, qui a été largement absente des yeux du public ces dernières années. Mais il y a un hic : Sun n'a interprété aucune de ces reprises virales. Elles ont été créées à l'aide d'outils d'intelligence artificielle capables d'imiter la voix de Sun. En hommage à leurs chanteurs préférés décédés, certains créateurs ont utilisé la technologie pour redonner vie à leurs voix. En avril, un musicien anonyme a produit une chanson rap générée par l'IA, intitulée "Heart on My Sleeve", en reproduisant les voix des artistes Drake et The Weeknd. Elle est devenue un succès viral, inspirant des milliers de TikToks dérivés et accumulant des millions d'auditeurs sur diverses plateformes. Cependant, aussi rapidement que la chanson a décollé, elle a été retirée de pratiquement tous les services de streaming grand public après qu'Universal Music Group (UMG), le grand label qui tire généralement profit des chansons de Drake et de The Weeknd, a exprimé son mécontentement. La productrice et chanteuse pop canadienne Grimes, qui prône depuis longtemps l'expérimentation technologique dans la création musicale, a publiquement approuvé le clonage de voix par l'IA. Au début du mois, elle a lancé un nouveau logiciel qui permet aux utilisateurs de reproduire sa voix dans leurs chansons en échange de 50 % des droits d'auteur. Bien que le projet de lignes directrices chinoises sur les services d'IA générative, qui fait actuellement l'objet d'un examen final après consultation publique, comporte une section sur le droit d'auteur, une formulation ambiguë laisse de nombreuses questions sans réponse. Par exemple, les règles proposées n'expliquent pas "quelles utilisations du matériel d'entraînement par les outils d'IA sont considérées comme une infraction", selon China Law Translate, un projet de crowdsourcing qui traduit les lois chinoises. Pour l'instant, le clonage de la voix par l'IA n'a pas suscité d'opposition majeure dans l'industrie musicale chinoise. 1 Lien vers le commentaire Partager sur d’autres sites More sharing options...
Wallaby Posté(e) le 26 mai 2023 Auteur Share Posté(e) le 26 mai 2023 https://www.spiegel.de/panorama/bildung/hamburg-schueler-schummelten-im-abitur-wohl-mit-ki-a-39f61804-aa9f-49e5-aa2a-0e9b4474865e (26 mai 2023) Plusieurs élèves de Hambourg ont été pris en flagrant délit de triche aux examens du baccalauréat à l'aide d'un logiciel de chat doté d'une intelligence artificielle (IA). Dans au moins un cas, un enseignant a trouvé un smartphone sur lequel un programme comme ChatGPT était ouvert, rapporte la chaîne NDR 90,3. L'IA permet de produire de manière autonome des textes sur des questions quelconques. Les autorités scolaires de Hambourg ont confirmé à la NDR qu'il y avait en outre plusieurs autres cas suspects. Ainsi, des enseignants sont devenus méfiants lors de la correction, car certaines parties de l'examen étaient défectueuses, alors que d'autres ne comportaient aucune erreur, peut-on lire dans le rapport. Les écoles ont alors utilisé un logiciel qui vérifie avec quelle probabilité le texte a été créé par une intelligence artificielle. Résultat : il y a probablement eu tricherie - mais le service juridique de l'autorité scolaire ne peut pas le prouver avec certitude. Les auteurs présumés pourraient donc s'en tirer sans conséquences. "En fin de compte, il sera difficile de prouver sans l'ombre d'un doute qu'il y a eu plagiat si l'élève n'a pas été pris en flagrant délit", a déclaré un porte-parole des autorités scolaires. Le président de l'association des directeurs de lycées de Hambourg, Christian Gefert, part toutefois du principe qu'il n'y a pas eu de tricherie massive lors des examens du baccalauréat, mais seulement des cas isolés. Lien vers le commentaire Partager sur d’autres sites More sharing options...
g4lly Posté(e) le 26 mai 2023 Share Posté(e) le 26 mai 2023 9 minutes ago, Wallaby said: https://www.spiegel.de/panorama/bildung/hamburg-schueler-schummelten-im-abitur-wohl-mit-ki-a-39f61804-aa9f-49e5-aa2a-0e9b4474865e (26 mai 2023) Plusieurs élèves de Hambourg ont été pris en flagrant délit de triche aux examens du baccalauréat à l'aide d'un logiciel de chat doté d'une intelligence artificielle (IA). Dans au moins un cas, un enseignant a trouvé un smartphone sur lequel un programme comme ChatGPT était ouvert, rapporte la chaîne NDR 90,3. L'IA permet de produire de manière autonome des textes sur des questions quelconques. Les autorités scolaires de Hambourg ont confirmé à la NDR qu'il y avait en outre plusieurs autres cas suspects. Ainsi, des enseignants sont devenus méfiants lors de la correction, car certaines parties de l'examen étaient défectueuses, alors que d'autres ne comportaient aucune erreur, peut-on lire dans le rapport. Les écoles ont alors utilisé un logiciel qui vérifie avec quelle probabilité le texte a été créé par une intelligence artificielle. Résultat : il y a probablement eu tricherie - mais le service juridique de l'autorité scolaire ne peut pas le prouver avec certitude. Les auteurs présumés pourraient donc s'en tirer sans conséquences. "En fin de compte, il sera difficile de prouver sans l'ombre d'un doute qu'il y a eu plagiat si l'élève n'a pas été pris en flagrant délit", a déclaré un porte-parole des autorités scolaires. Le président de l'association des directeurs de lycées de Hambourg, Christian Gefert, part toutefois du principe qu'il n'y a pas eu de tricherie massive lors des examens du baccalauréat, mais seulement des cas isolés. A quand les brouilleur dans les salles d'examen ... 2 Lien vers le commentaire Partager sur d’autres sites More sharing options...
Wallaby Posté(e) le 30 mai 2023 Auteur Share Posté(e) le 30 mai 2023 Sujet connexe : les armes autonomes : http://www.air-defense.net/forum/topic/20687-armes-autonomes/?do=findComment&comment=1633992 Lien vers le commentaire Partager sur d’autres sites More sharing options...
Fanch Posté(e) le 30 mai 2023 Share Posté(e) le 30 mai 2023 Le 26/05/2023 à 13:58, g4lly a dit : A quand les brouilleur dans les salles d'examen ... Les mêmes que ceux qui étaient sur les VABs, sur lesquels il était bien préciser de ne pas mettre la tête dehors quand ils fonctionnaient Lien vers le commentaire Partager sur d’autres sites More sharing options...
Yankev Posté(e) le 2 juin 2023 Share Posté(e) le 2 juin 2023 (modifié) Un article d'opex360: Un drone contrôlé par une intelligence artificielle se serait retourné contre son opérateur lors d’une simulation par Laurent Lagneau · 2 juin 2023 https://www.opex360.com/2023/06/02/un-drone-controle-par-une-intelligence-artificielle-se-serait-retourne-contre-son-operateur-lors-dune-simulation/ EDIT: le protagoniste ayant rapporté l'histoire s’appelant Hamilton, j'en arrive à me demander si ce n'est pas un canular! Modifié le 2 juin 2023 par Yankev 1 Lien vers le commentaire Partager sur d’autres sites More sharing options...
Obelix38 Posté(e) le 2 juin 2023 Share Posté(e) le 2 juin 2023 Il y a 1 heure, Yankev a dit : EDIT: le protagoniste ayant rapporté l'histoire s’appelant Hamilton, j'en arrive à me demander si ce n'est pas un canular! S'il s'était appelé Robert Brewster, ça aurait rendu l'affaire encore plus suspicieuse 1 Lien vers le commentaire Partager sur d’autres sites More sharing options...
Wallaby Posté(e) le 9 juin 2023 Auteur Share Posté(e) le 9 juin 2023 (modifié) Connaissez vous les conférences Reith ? Ce sont des conférences diffusées par la BBC depuis 1948, et confiées généralement à un seul conférencier prestigieux chaque année. En 2015, c'était Stephen Hawking. En 2021, c'était Stuart Russell. Connaissez-vous Stuart Russell ? Vous le connaissez si vous avez écouté sa conférence du 24 avril à Berkeley mentionnée ici : http://www.air-defense.net/forum/topic/23399-la-technologie-contre-la-démocratie/page/10/#comment-1631919 Mais peut-être connaissez vous le court-métrage "Slaughterbots" posté en 2017 en ouverture du fil "armes autonomes" : http://www.air-defense.net/forum/topic/20687-armes-autonomes/ : Stuart Russell y intervient à la fin dans la partie non-fiction du film pour plaider l'interdiction des armes de destruction massives à base de micro-drones. Voici donc les 4 épisodes, d'une heure environ chacun, de la conférence Reith 2021 (il sera peut-être nécessaire d'ouvrir un compte gratuit sur le site de la BBC) : « Vivre avec l'Intelligence Artificielle » 1) https://www.bbc.co.uk/sounds/play/m001216j Le plus grand événement de l'histoire de l'humanité 2) https://www.bbc.co.uk/sounds/play/m00127t9 L'IA dans la guerre 3) https://www.bbc.co.uk/sounds/play/m0012fnc L'IA dans l'économie 4) https://www.bbc.co.uk/sounds/play/m0012q21 IA : un futur pour les humains Modifié le 9 juin 2023 par Wallaby 1 Lien vers le commentaire Partager sur d’autres sites More sharing options...
Wallaby Posté(e) le 12 juin 2023 Auteur Share Posté(e) le 12 juin 2023 https://edition.cnn.com/2023/05/30/media/artificial-intelligence-warning-reliable-sources/index.html (30 mai 2023) Mardi, des centaines d'éminents scientifiques, chercheurs et autres spécialistes de l'IA, dont Sam Altman, directeur général d'OpenAI, et Demis Hassabis, directeur général de Google DeepMind, ont de nouveau exprimé leur profonde inquiétude pour l'avenir de l'humanité en signant une lettre ouverte d'une phrase destinée au public et visant à exposer en termes clairs les risques liés à l'évolution rapide de la technologie. "L'atténuation du risque d'extinction lié à l'IA devrait être une priorité mondiale au même titre que d'autres risques sociétaux tels que les pandémies et les guerres nucléaires", indique la lettre, signée par de nombreuses personnalités parmi les plus respectées de l'industrie. https://edition.cnn.com/2023/06/09/tech/korea-altman-chatgpt-ai-regulation-intl-hnk/index.html (9 juin 2023) Sam Altman, PDG du fabricant de ChatGPT OpenAI, a profité d'un voyage très médiatisé en Corée du Sud vendredi pour appeler à une réglementation internationale coordonnée de l'intelligence artificielle générative, la technologie sur laquelle repose son célèbre chatbot. "À mesure que ces systèmes deviennent très, très puissants, ils doivent faire l'objet d'une attention particulière et ont un impact mondial. Cela nécessite donc une coopération mondiale", a déclaré M. Altman lors d'un événement à Séoul, avant sa rencontre avec le président sud-coréen Yoon Suk Yeol. L'étape de M. Altman à Séoul fait suite à une visite en Inde, où il a rencontré le Premier ministre Narendra Modi jeudi et discuté de "la manière dont le pays peut bénéficier" de l'IA, a tweeté l'exécutif. Lien vers le commentaire Partager sur d’autres sites More sharing options...
Messages recommandés
Créer un compte ou se connecter pour commenter
Vous devez être membre afin de pouvoir déposer un commentaire
Créer un compte
Créez un compte sur notre communauté. C’est facile !
Créer un nouveau compteSe connecter
Vous avez déjà un compte ? Connectez-vous ici.
Connectez-vous maintenant