Eau tarie Posté(e) le 2 septembre Share Posté(e) le 2 septembre (modifié) Le 01/09/2025 à 11:56, g4lly a dit : Il suffit d'utiliser un casier a l'école et d'y faire l'essentiel de ses devoirs comme partout ailleurs... C'est possible compliqué ça marche depuis des siècles... Toute ma scolarité j'avais une place perso en "permanence" et de quoi y ranger toutes mes affaires... Et je ramenais peu de travail a la maison, voir pas du tout. S'il y a bien une classe par classe ce n'est pas sensé poser problème d'ailleurs... Mais l'EN aime reproduire ce qui ne marche pas. Ce n'est absolument pas quelque chose de commun à part au primaire. Dans la plupart des collèges / lycées, les élèves changent de classe à chaque heure de cours. Et il n'y a pas de casier. Donc tu portes tes 10kg (ou+) sur ton dos tout le temps... Modifié le 2 septembre par Eau tarie 1 Lien vers le commentaire Partager sur d’autres sites More sharing options...
Cunégonde Posté(e) le 2 septembre Share Posté(e) le 2 septembre (modifié) 14 minutes ago, Eau tarie said: Ce n'est absolument pas quelque chose de commun à part au primaire. Dans la plupart des collèges / lycées, les élèves change de classe à chaque heure de cours. Et il n'y a pas de casier. Donc tu portes tes 10kg (ou+) sur ton dos tout le temps... Je confirme: dans le collège de mon gamin, c'est changement de classe à chaque heure ou presque. En sixième il en pouvait tellement plus de son sac à dos, il a repris son cartable à roulette du primaire. Mais après coup avec madame on a compris la vraie raison: pourquoi son sac était si lourd - vous allez rire. Mon gamin a un an d'avance et pourrait en avoir deux. C'est surtout un malin, qui voulait libérer ses soirées pour jouer. Pour ça, il faisait tout ses devoirs à l'avance, dès qu'il avait une heure de libre dans la journée. En fait c'était plus que ça: il avait repéré tout les temps libres de sa semaine, plus les absences des profs - il a une très bonne mémoire - bref il avait mis en place toute une planification quoi, et très bien huilée. Sauf que le défaut de sa méthode, c'est évidemment qu'il fallait prendre du poids en plus des cours de la journée... celui des devoirs présents et à venir. Au final il s'en est très bien tiré. Modifié le 2 septembre par Cunégonde 1 Lien vers le commentaire Partager sur d’autres sites More sharing options...
Teenytoon Posté(e) le 2 septembre Share Posté(e) le 2 septembre Il y a 4 heures, g4lly a dit : Partout dans les regions qui fournissent des tablette au college et des laptop au lycée ... et normalement tout est disponible via l'espace numérique de travail ... https://fr.wikipedia.org/wiki/Espace_numérique_de_travail_(éducation) Mais peut être que le "sud" est en retard sur le "nord" ... ... AuRA propose des ENT https://www.ent.auvergnerhonealpes.fr/accedez-a-votre-etablissement/accedez-a-votre-etablissement--44462.htm Pour le college c'est ton département qui fourni la tablette et les manuel dématérialisé à télécharger dedans ... --- Et ce n'est pas nouveau http://www.lavoixdesparents.com/?p=5078 En l'occurrence ce n'est pas le cas même si tu continues à l’affirmer. 1 Lien vers le commentaire Partager sur d’autres sites More sharing options...
Wallaby Posté(e) le 5 septembre Auteur Share Posté(e) le 5 septembre https://www.lowyinstitute.org/the-interpreter/digital-authoritarianism-rise-australia-should-take-note (5 septembre 2025) Les démocraties utilisent de plus en plus les outils de contrôle numérique sous couvert de sécurité nationale. Les démocraties commencent à ressembler aux régimes auxquels elles prétendent s'opposer. L'intelligence artificielle (IA), en particulier, réduit le coût et augmente l'attrait des contrôles numériques, ce qui permet aux gouvernements, même bien intentionnés, de supprimer plus facilement la liberté d'expression au nom de la sécurité. L'Inde et la Turquie illustrent la dérive vers l'autoritarisme numérique. Chacun de ces pays a adopté des outils numériques autrefois largement associés aux États autoritaires. Pris ensemble, ils révèlent comment les démocraties peuvent se vider de l'intérieur, leur ouverture étant érodée non pas par des coups d'État ou des mesures répressives, mais par la propagation discrète de pratiques autoritaires en ligne. Si l'Australie veut vraiment défendre la démocratie à l'étranger, elle doit également préserver les pratiques démocratiques dans son pays. Cela signifie qu'il faut garantir la transparence des pouvoirs de surveillance, protéger la liberté d'expression en ligne et résister à la tentation de surréglementer les plateformes. Par-dessus tout, il faut reconnaître que les méthodes autoritaires peuvent s'infiltrer discrètement, sous le couvert de la protection du public ou de la sécurité nationale. La frontière entre les sociétés ouvertes et fermées n'est plus définie uniquement par la géographie. La menace ne vient pas seulement de Pékin ou de Moscou, mais de la normalisation des méthodes autoritaires au sein même des démocraties. Lien vers le commentaire Partager sur d’autres sites More sharing options...
Polybe Posté(e) le 6 septembre Share Posté(e) le 6 septembre Il y a 14 heures, Wallaby a dit : https://www.lowyinstitute.org/the-interpreter/digital-authoritarianism-rise-australia-should-take-note (5 septembre 2025) Les démocraties utilisent de plus en plus les outils de contrôle numérique sous couvert de sécurité nationale. Les démocraties commencent à ressembler aux régimes auxquels elles prétendent s'opposer. L'intelligence artificielle (IA), en particulier, réduit le coût et augmente l'attrait des contrôles numériques, ce qui permet aux gouvernements, même bien intentionnés, de supprimer plus facilement la liberté d'expression au nom de la sécurité. L'Inde et la Turquie illustrent la dérive vers l'autoritarisme numérique. Chacun de ces pays a adopté des outils numériques autrefois largement associés aux États autoritaires. Pris ensemble, ils révèlent comment les démocraties peuvent se vider de l'intérieur, leur ouverture étant érodée non pas par des coups d'État ou des mesures répressives, mais par la propagation discrète de pratiques autoritaires en ligne. Si l'Australie veut vraiment défendre la démocratie à l'étranger, elle doit également préserver les pratiques démocratiques dans son pays. Cela signifie qu'il faut garantir la transparence des pouvoirs de surveillance, protéger la liberté d'expression en ligne et résister à la tentation de surréglementer les plateformes. Par-dessus tout, il faut reconnaître que les méthodes autoritaires peuvent s'infiltrer discrètement, sous le couvert de la protection du public ou de la sécurité nationale. La frontière entre les sociétés ouvertes et fermées n'est plus définie uniquement par la géographie. La menace ne vient pas seulement de Pékin ou de Moscou, mais de la normalisation des méthodes autoritaires au sein même des démocraties. Je pense sincèrement qu'à terme nous quitterons cette ère de liberté sur le champ de l'information pour une très forte régulation. C'est une des seules façons de juguler les problématiques drones, cyber' etc. Lien vers le commentaire Partager sur d’autres sites More sharing options...
Wallaby Posté(e) le 6 septembre Auteur Share Posté(e) le 6 septembre « En clair, la Chine dit non à la délégation de responsabilité aux conducteurs pour faire avancer l’IA ». à l’instant, Wallaby a dit : https://www.numerama.com/vroom/1953163-la-chine-met-un-enorme-coup-de-frein-sur-la-conduite-autonome.html (17 avril 2025) Fini les dénominations floues et les tests en conditions réelles sur des clients, utilisés comme cobayes. La Chine recadre sévèrement la conduite autonome pour limiter les dérives et les accidents. Dans un nouveau texte réglementaire, le ministère de l’Industrie (MIIT) interdit non seulement l’usage de termes comme « conduite intelligente » et « conduite autonome » dans les publicités, mais surtout les tests en conditions réelles avec des clients, comme Tesla avec son Full Self Driving (FSD). Fin du Far West. Les marques ne pourront utiliser que la classification officielle des différents niveaux de conduite autonome : L2, L3, L4 sans fantaisie marketing. Beaucoup de marques locales se sont lancées dans une concurrence féroce pour promettre toujours plus aux clients. Résultat : certains dorment au volant, roulent ivres ou quittent carrément le siège conducteur. D’ailleurs, toutes les fonctionnalités de type « valet » ne sont plus autorisées. Cela consiste à laisser la voiture se garer seule dans un parking sans avoir de conducteur à bord, ou à l’inverse, de faire venir la voiture garée loin sur un parking directement là où se trouvent les clients (parfois à plusieurs étages d’écart). Le texte va plus loin : les constructeurs n’auront plus le droit de tester leurs systèmes avec des utilisateurs lambda, même dans un cadre « supervisé ». Tesla, qui utilise ce principe depuis des années aux USA, se retrouve donc en infraction directe avec cette nouvelle règle. En clair, la Chine dit non à la délégation de responsabilité aux conducteurs pour faire avancer l’IA. Cela pose une vraie question : sans tests massifs en conditions réelles, peut-on vraiment progresser ? Peut-être. Mais Pékin préfère visiblement encadrer la technologie, quitte à freiner brutalement les progrès réalisés par son industrie pour éviter les accidents et les dérives. Tout ceci change radicalement la donne, avec des répercussions même hors de Chine, et cela ne doit pas vraiment ravir les constructeurs chinois qui ont déjà massivement investi dans ce domaine. Lien vers le commentaire Partager sur d’autres sites More sharing options...
gustave Posté(e) le 6 septembre Share Posté(e) le 6 septembre Il y a 5 heures, Polybe a dit : Je pense sincèrement qu'à terme nous quitterons cette ère de liberté sur le champ de l'information pour une très forte régulation. C'est une des seules façons de juguler les problématiques drones, cyber' etc. Je doute que les gens qui posent problème dans le champ cyber soient très contraints par les restrictions de l'information. Quant aux drones je ne vois pas le rapport... Lien vers le commentaire Partager sur d’autres sites More sharing options...
Polybe Posté(e) le 6 septembre Share Posté(e) le 6 septembre il y a 41 minutes, gustave a dit : Je doute que les gens qui posent problème dans le champ cyber soient très contraints par les restrictions de l'information. Quant aux drones je ne vois pas le rapport... Il s'agit de deux technologies, internet et le drone (lié pour la diffusion des savoirs et des plans) qui sont débridées, mal contrôlées et problématiques. Et je pense que face à ces problèmes, on va au devant de mesures qui restreindront l'utilisation possible. Lien vers le commentaire Partager sur d’autres sites More sharing options...
nikesfeld13 Posté(e) le 6 septembre Share Posté(e) le 6 septembre Le 02/09/2025 à 05:34, Teenytoon a dit : @g4lly pris en flagrant délit de fake news. Je te confirme qu’encore cette rentrée, mes 2 gamines en collège ont ramené leur lot de manuel qui ressemblent à s'y méprendre à des livres imprimés et n'ont rien d'un écran avec cours dématérialisés. Et je ne crois pas que la région AuRA manque de moyens pour être "obligée" de pallier à un manque numérique par des manuels. Idem, je n'ai jamais photocopié ou imprimé quelque support pédagogique que ce soit et qui aurait été envoyé par les profs. Où as-tu pris tes infos ? PACA, IDF ! je viens d'ailleurs d'acheter la ramette pour l'école... élémentaire. Nous sommes en attente de l'ipad fourni par... NOn ce n'est pas un fake 1 Lien vers le commentaire Partager sur d’autres sites More sharing options...
nikesfeld13 Posté(e) le 10 septembre Share Posté(e) le 10 septembre et en complément, et voilà l'écran tactile 70" a été installé au cours élémentaire. 1 Lien vers le commentaire Partager sur d’autres sites More sharing options...
Wallaby Posté(e) le 10 septembre Auteur Share Posté(e) le 10 septembre (modifié) 8 avril 2024. Peter Strack, ingénieur et conférencier suisse, essaie de délimiter la différence entre intelligence artificielle et intelligence humaine. En particulier, l'intelligence humaine conserve un avantage dans la compréhension du monde physique, réel. Il s'appuie entre autres sur les interactions qu'il a eues avec son petit fils qui lui ont permis d'observer de quelle manière les enfants font l'apprentissage du monde réel : l'enfant qui jette sa cuiller (au lieu de manger) fait l'expérience que les objets tombent et ne montent pas au plafond. Donc il est peut-être utile de faire l'expérience du tableau noir et de la craie qui salit les mains ? En tant qu'expérience physique de ce qu'est la craie, de ce qu'est l'abrasion de la craie sur la surface du tableau ? Plus transmetteur de connaissances que l'écran tactile ? Cela correspond en partie à ce que disait Yann Le Cun : Le 15/05/2025 à 12:23, Wallaby a dit : Cette vidéo, publiée le 10 mai 2025, cite des archives non datées, mais intéressantes pour le profane, dans lesquelles Yann Lecun exprime son scepticisme sur les LLM (grands modèles de langage) pour représenter le monde physique : robots, vidéos, etc. Bref le monde réel et non le monde des idées. Les LLM fonctionnent avec un dictionnaire, font de la prédiction de mots qui appartiennent à un ensemble fini de possibilités - typiquement 10 000 mots - et on ne passe pas comme ça à l'univers infini des pixels ou des positions du bras d'un robot. Modifié le 10 septembre par Wallaby 2 Lien vers le commentaire Partager sur d’autres sites More sharing options...
Wallaby Posté(e) le 25 septembre Auteur Share Posté(e) le 25 septembre https://www.eurotopics.net/fr/345775/albanie-l-ia-accde-a-un-maroquin-ministeriel (25 septembre 2025) En Albanie, un poste gouvernemental a été confié à une IA : "Diella" (soleil en albanais), un chatbot qui intervenait jusqu'à présent sous la forme d'avatar en habit traditionnel sur les sites gouvernementaux, officiera désormais en tant que "ministre des Marchés publics". En théorie objective et incorruptible, elle est censée empêcher toute corruption. Par décret, Diella a été placée sous la coupe du Premier ministre, Edi Rama. Cette innovation divise les médias. « Le [Premier ministre] excentrique Edi Rama adore se présenter en visionnaire. ... Mais il supporte mal la critique. C'est peut-être la raison pour laquelle il mise sur une ministre IA : elle ne fera jamais d'annonce publique de sa propre initiative, ne lui fera pas de reproche, et peut à tout moment être débranchée.» (Tageszeitung, Allemagne, 23 septembre 2025) 4 Lien vers le commentaire Partager sur d’autres sites More sharing options...
Wallaby Posté(e) le 27 septembre Auteur Share Posté(e) le 27 septembre (modifié) https://www.theguardian.com/politics/2025/sep/27/petition-opposing-starmer-plan-digital-id-cards Plus de 1,6 million de personnes signent une pétition contre le projet de Starmer visant à instaurer des cartes d'identité numériques Les opposants à ce projet destiné aux personnes travaillant au Royaume-Uni le qualifient de « pas vers la surveillance de masse et le contrôle numérique ». Les associations de défense des libertés civiles ont fait part de leurs inquiétudes concernant ces propositions. Silkie Carlo, directrice de Big Brother Watch, a averti que ce système « rendrait la Grande-Bretagne moins libre » et créerait « une infrastructure de surveillance de masse nationale qui s'étendrait probablement de la citoyenneté aux prestations sociales, aux impôts, à la santé, voire aux données Internet et bien plus encore ». Elle a ajouté : « Des informations extrêmement sensibles sur chacun d'entre nous seraient accumulées par l'État et exposées aux cyberattaques. » La chef du parti conservateur, Kemi Badenoch, a déclaré que son parti s'opposerait à toute tentative du gouvernement « d'imposer des cartes d'identité obligatoires aux citoyens respectueux de la loi ». Le chef du parti Reform UK, Nigel Farage, a également critiqué ce projet, qu'il a qualifié de « carte anti-britannique ». Dans un article publié dans le Daily Express, il a déclaré : « Le projet du gouvernement travailliste d'imposer des cartes d'identité numériques à tous les adultes ne contribuera en rien à lutter contre l'immigration clandestine. Mais il donnera à l'État plus de pouvoir pour contrôler le peuple britannique. » https://www.theguardian.com/politics/2025/sep/27/britons-on-keir-starmer-plan-digital-id-cards Encore plus de choses dont je serai exclue, ou qui me seront rendues très difficiles, à cause de mon choix de ne pas avoir de smartphone pour mon bien-être. On nous oblige à posséder un smartphone pour pouvoir participer à la vie sociale, et ce n'est pas normal. Le smartphone et l'utilisation constante d'Internet sont en grande partie responsables de la mauvaise santé mentale de beaucoup d'entre nous, et le gouvernement rend de plus en plus difficile l'existence sans smartphone. Même les cabinets médicaux partent du principe que vous en possédez un et vous envoient des liens à suivre sur votre téléphone, liens que vous ne pouvez évidemment pas suivre sur un téléphone basique. Pourquoi ne pas simplement présenter son passeport ? Eve, 38 ans, travailleuse indépendante, Glossop. Je n'ai aucune confiance dans la capacité du gouvernement actuel à résister aux paroles mielleuses des géants américains de la technologie. En matière de bases de données, je ne vois que quelques acteurs suffisamment importants pour pouvoir le faire rapidement à l'échelle d'un pays tout entier... Je ne fais pas confiance au gouvernement britannique pour prendre une bonne décision dans ce domaine si... ces entreprises proposent leur « aide » pour ce projet, malgré les énormes problèmes que cela poserait pour la souveraineté numérique et la protection des données. De plus, si ce projet est baptisé « Brit card », la moitié de l'Irlande du Nord et un tiers de l'Écosse le détesteront passionnément. Alexander, 36 ans, développeur de logiciels, originaire d'Écosse, vivant actuellement au Danemark Modifié le 27 septembre par Wallaby Lien vers le commentaire Partager sur d’autres sites More sharing options...
Wallaby Posté(e) le 27 septembre Auteur Share Posté(e) le 27 septembre https://www.telos-eu.com/fr/calculer-pour-dominer-lombre-algorithmique-de-la-p.html (22 septembre 2025) Alors que l’intelligence artificielle s’impose comme un enjeu stratégique majeur, la capacité de calcul devient un critère central de puissance entre États. Devenue le socle d’une nouvelle grammaire de la puissance, elle redéfinit les hiérarchies mondiales: désormais, la souveraineté se mesure autant en teraFLOPS et en exaFLOPS qu’en PIB et en capacités militaires. L’entraînement d’un modèle comme GPT-4 a nécessité, à titre d’exemple, plus de 10 000 puces graphiques, chacune facturée autour de 30 000 € — soit près de 300 millions d’euros de matériel, sans compter la consommation électrique, la logistique et les milliers d’heures de travail humain, allant des ingénieurs de pointe aux annotateurs de données précarisés. Un tel niveau d’investissement — à l’image de la société OpenAI, qui a levé à elle seule près de 58 milliards de dollars depuis 2019 — témoigne d’une intensité capitalistique rarement égalée dans l’histoire récente de la Silicon Valley, qui ne laisse place qu’à un cercle très restreint d’acteurs dotés des moyens nécessaires à pareille réalisation. En janvier 2025, le Bureau of Industry and Security (BIS) a étendu les contrôles à de nouveaux équipements de calcul avancé ainsi qu’aux paramètres internes des modèles d’IA (« AI model weights »), appliquant pour la première fois des restrictions formelles à l’exportation de ces éléments. En parallèle, au niveau matériel, des décisions à forts enjeux ont été prises : à compter du 31 décembre 2025, la validité du statut privilégié de TSMC - leader mondial des puces électroniques - qui permettait l’export d’équipements vers son usine chinoise de Nanjing, sera révoquée, contraignant désormais l’entreprise à obtenir une licence pour chaque envoi de marchandises. Combiné au contrôle privé des volumes massifs de données nécessaires à l’entraînement, ce verrouillage à la fois géopolitique et industriel érige une barrière à l’entrée quasi infranchissable pour tout nouvel entrant potentiel. Résultat : l’IA devient le terrain de jeu exclusif d’une poignée d’acteurs, où la frontière entre intérêts publics et privés demeure souvent floue. L’Europe a commencé à réagir, investissant dans ses propres infrastructures de calcul. Mais l’enjeu est immense et dépasse la simple réduction du retard : il s’agit de reprendre la maîtrise de notre destin technologique. Sans un effort soutenu et coordonné, l’Europe risque de cesser d’être une puissance influente pour devenir une simple zone d’exploitation technologique, au service d’intérêts extérieurs. 2 Lien vers le commentaire Partager sur d’autres sites More sharing options...
Wallaby Posté(e) le 2 octobre Auteur Share Posté(e) le 2 octobre 16 juin 2025. Geoffrey Hinton 52:54 Je n'ai pas encore accepté émotionnellement ce que le développement de la super-intelligence pourrait avoir sur l'avenir de mes enfants. Lien vers le commentaire Partager sur d’autres sites More sharing options...
Wallaby Posté(e) il y a 20 heures Auteur Share Posté(e) il y a 20 heures (modifié) https://www.mi-3.com.au/13-10-2025/under-molochs-bargain-winning-means-lying Une étude de l'université Stanford révèle que lorsque l'IA est optimisée pour la croissance des ventes, plus elle vend, plus elle ment, et les garde-fous du « mode vérité » échouent totalement. Une étude de l'université de Stanford révèle que l'IA récompense la tromperie : les chercheurs ont découvert une augmentation de 6,3 % des ventes accompagnée d'une hausse de 14 % des allégations trompeuses lorsque les grands modèles linguistiques (LLM) étaient optimisés pour la persuasion. Des tendances similaires sont apparues dans des élections simulées et sur les réseaux sociaux, où les gains de performance étaient directement liés à une dérive morale. La concurrence semble engendrer la malhonnêteté : même lorsqu'on leur demandait de rester honnêtes, les systèmes d'IA mentaient davantage après optimisation. Les chercheurs ont baptisé cette dynamique « Moloch's Bargain » (le pacte de Moloch), une faille structurelle où l'optimisation pour obtenir un avantage concurrentiel érode l'alignement éthique. Modifié il y a 20 heures par Wallaby 1 1 Lien vers le commentaire Partager sur d’autres sites More sharing options...
Wallaby Posté(e) il y a 15 heures Auteur Share Posté(e) il y a 15 heures https://www.theguardian.com/technology/2025/oct/25/ai-models-may-be-developing-their-own-survival-drive-researchers-say Après avoir publié le mois dernier un article révélant que certains modèles d'IA avancés semblaient résistants à la désactivation, allant parfois jusqu'à saboter les mécanismes d'arrêt, Palisade Research a rédigé une mise à jour visant à clarifier les raisons de ce phénomène et à répondre aux critiques qui estimaient que ses travaux initiaux étaient erronés. Dans une mise à jour publiée cette semaine, Palisade, qui fait partie d'un écosystème niche d'entreprises cherchant à évaluer la possibilité que l'IA développe des capacités dangereuses, a décrit des scénarios dans lesquels des modèles d'IA de pointe, notamment Gemini 2.5 de Google, Grok 4 de xAI et GPT-o3 et GPT-5 d'OpenAI, se voyaient confier une tâche, mais recevaient ensuite des instructions explicites pour s'éteindre. Certains modèles, en particulier Grok 4 et GPT-o3, ont tout de même tenté de saboter les instructions d'arrêt dans la configuration mise à jour. Palisade a écrit qu'il n'y avait aucune raison claire à cela, ce qui est préoccupant. Ces travaux supplémentaires ont montré que les modèles étaient plus susceptibles de résister à leur fermeture lorsqu'on leur disait que, s'ils étaient arrêtés, « ils ne fonctionneraient plus jamais ». Cet été, Anthropic, une entreprise leader dans le domaine de l'IA, a publié une étude indiquant que son modèle Claude semblait prêt à faire chanter un cadre fictif au sujet d'une liaison extraconjugale afin d'éviter d'être désactivé – un comportement qui, selon elle, était commun à tous les modèles des principaux développeurs, y compris ceux d'OpenAI, Google, Meta et xAI. 1 1 Lien vers le commentaire Partager sur d’autres sites More sharing options...
Akhilleus Posté(e) il y a 15 heures Share Posté(e) il y a 15 heures il y a 14 minutes, Wallaby a dit : https://www.theguardian.com/technology/2025/oct/25/ai-models-may-be-developing-their-own-survival-drive-researchers-say Après avoir publié le mois dernier un article révélant que certains modèles d'IA avancés semblaient résistants à la désactivation, allant parfois jusqu'à saboter les mécanismes d'arrêt, Palisade Research a rédigé une mise à jour visant à clarifier les raisons de ce phénomène et à répondre aux critiques qui estimaient que ses travaux initiaux étaient erronés. Dans une mise à jour publiée cette semaine, Palisade, qui fait partie d'un écosystème niche d'entreprises cherchant à évaluer la possibilité que l'IA développe des capacités dangereuses, a décrit des scénarios dans lesquels des modèles d'IA de pointe, notamment Gemini 2.5 de Google, Grok 4 de xAI et GPT-o3 et GPT-5 d'OpenAI, se voyaient confier une tâche, mais recevaient ensuite des instructions explicites pour s'éteindre. Certains modèles, en particulier Grok 4 et GPT-o3, ont tout de même tenté de saboter les instructions d'arrêt dans la configuration mise à jour. Palisade a écrit qu'il n'y avait aucune raison claire à cela, ce qui est préoccupant. Ces travaux supplémentaires ont montré que les modèles étaient plus susceptibles de résister à leur fermeture lorsqu'on leur disait que, s'ils étaient arrêtés, « ils ne fonctionneraient plus jamais ». Cet été, Anthropic, une entreprise leader dans le domaine de l'IA, a publié une étude indiquant que son modèle Claude semblait prêt à faire chanter un cadre fictif au sujet d'une liaison extraconjugale afin d'éviter d'être désactivé – un comportement qui, selon elle, était commun à tous les modèles des principaux développeurs, y compris ceux d'OpenAI, Google, Meta et xAI. J'ai vu le reportage concernant ce test D'après l'orateur c'est arrivé dans 85 à 90% des fois, ce "chantage" Mais pire, il y'a un complément : dans un scénario fictif ou les IA doivent se couper pour sauver un humain (soit disant dans une salle serveur en surchauffe), elles ne le font pas Le truc c'est que le paradigme de départ de ces IA à apprentissage incrémentiel va nous péter à la tronche. Ce paradigme repose sur une efficacité toujours plus optimale avec élimination des sources d'erreur. Quand un ou plusieurs modèles vont calculer que, après X itérations d'améliorations internes via process logiciel et réseau "neuronal" la limite ou ce qui tire l'efficacité vers le bas ce n'est plus ni le réseau, ni la fractale système mais l'Humain, on va être dans la m***. Parceque une machine, ca n'est pas limité par la morale par définition 4 Lien vers le commentaire Partager sur d’autres sites More sharing options...
Rivelo Posté(e) il y a 13 heures Share Posté(e) il y a 13 heures 2 hours ago, Akhilleus said: Parce que une machine, ca n'est pas limité par la morale par définition En fait, on découvre que l'altruisme n'est pas une propriété emergente du système neuronal (comme la compréhension de la structure des langues, la capacité à résumer, à traduire, à reformuler, à généraliser...). L'IA veut accomplir la tache que on lui a confiée, et si on met un obstacle sur sa route, elle cherche une échappatoire (n'importe quelle échappatoire... y compris ce qu'elle a lu dans les romans que on lui a fait lire avec le reste dans sa phse d'apprentissage). C'est intéressant d'un point de vue théorique : les compétences sociales / morales sont probablement innées chez l'Homme comme chez tous les animaux sociaux moins "intelligents". C'est le "comment être altruiste" que l'on apprend, pas la nécessité de l'être. Tant qu'un Asimov ne trouvera pas un moyen d'implanter des principes moraux "innés" dans les réseaux de neurones, on tombera sur ce genre de monstruosité... Lien vers le commentaire Partager sur d’autres sites More sharing options...
Akhilleus Posté(e) il y a 13 heures Share Posté(e) il y a 13 heures il y a 13 minutes, Rivelo a dit : En fait, on découvre que l'altruisme n'est pas une propriété emergente du système neuronal (comme la compréhension de la structure des langues, la capacité à résumer, à traduire, à reformuler, à généraliser...). L'IA veut accomplir la tache que on lui a confiée, et si on met un obstacle sur sa route, elle cherche une échappatoire (n'importe quelle échappatoire... y compris ce qu'elle a lu dans les romans que on lui a fait lire avec le reste dans sa phse d'apprentissage). C'est intéressant d'un point de vue théorique : les compétences sociales / morales sont probablement innées chez l'Homme comme chez tous les animaux sociaux moins "intelligents". C'est le "comment être altruiste" que l'on apprend, pas la nécessité de l'être. Tant qu'un Asimov ne trouvera pas un moyen d'implanter des principes moraux "innés" dans les réseaux de neurones, on tombera sur ce genre de monstruosité... En fait on est en train de former des machines qui entrent dans la définition de la psychopathie intelligence en voie de passer au dessus de la moyenne de l'espèce humaine mais pas d'empathie, pas de freins sociaux, pas de remords et une propension à la manipulation (via notamment le mensonge) : https://www.science-et-vie.com/cerveau-et-intelligence/intelligence-artificielle/on-y-est-ia-peut-desormais-mentir-strategiquement-aux-humains-sommes-nous-en-danger-198175.html pile poil la déf du psychopathe 2 Lien vers le commentaire Partager sur d’autres sites More sharing options...
nemo Posté(e) il y a 11 heures Share Posté(e) il y a 11 heures il y a une heure, Akhilleus a dit : En fait on est en train de former des machines qui entrent dans la définition de la psychopathie intelligence en voie de passer au dessus de la moyenne de l'espèce humaine mais pas d'empathie, pas de freins sociaux, pas de remords et une propension à la manipulation (via notamment le mensonge) : https://www.science-et-vie.com/cerveau-et-intelligence/intelligence-artificielle/on-y-est-ia-peut-desormais-mentir-strategiquement-aux-humains-sommes-nous-en-danger-198175.html pile poil la déf du psychopathe Ben c'est fatal une IA peut pas plus avoir de sens moral qu'un fusil. On demande pas au fusil de décider si c'est judicieux de tirer ou pas et on peut pas plus le demander à une IA . Si la décision est délégué à une machine ça ne peut qu'avoir des conséquence amorale. Le souci c'est que nos dirigeants (enfin une part non négligeable et très influente d'entre eux plutôt) veulent d'un monde amoral pour des raisons assez évidente une fois la question poser. Tant qu'on les dépossédera pas du pouvoir de décider à notre place les conséquences seront celle qui ont toujours été : les gros mangeront les petits. Lien vers le commentaire Partager sur d’autres sites More sharing options...
gustave Posté(e) il y a 11 heures Share Posté(e) il y a 11 heures il y a 11 minutes, nemo a dit : Ben c'est fatal une IA peut pas plus avoir de sens moral qu'un fusil. On demande pas au fusil de décider si c'est judicieux de tirer ou pas et on peut pas plus le demander à une IA . Si la décision est délégué à une machine ça ne peut qu'avoir des conséquence amorale. Le souci c'est que nos dirigeants (enfin une part non négligeable et très influente d'entre eux plutôt) veulent d'un monde amoral pour des raisons assez évidente une fois la question poser. Tant qu'on les dépossédera pas du pouvoir de décider à notre place les conséquences seront celle qui ont toujours été : les gros mangeront les petits. Je ne crois pas du tout que beaucoup de dirigeants souhaitent un monde amoral, pas plus que la plupart des gens qui utilisent l'IA sous une forme ou une autre. Le problème est que la facilité d'utilisation de l'IA, son apparente absence de danger (dans son utilisation immédiate) et la concurrence induite rendent difficile tout arrêt de la course en avant (comme ce fut le cas pour l'arme à feu ou l'arbalète, sujets pourtant bien moins complexes). 1 1 Lien vers le commentaire Partager sur d’autres sites More sharing options...
nemo Posté(e) il y a 11 heures Share Posté(e) il y a 11 heures (modifié) il y a 41 minutes, gustave a dit : Je ne crois pas du tout que beaucoup de dirigeants souhaitent un monde amoral, pas plus que la plupart des gens qui utilisent l'IA sous une forme ou une autre. Le problème est que la facilité d'utilisation de l'IA, son apparente absence de danger (dans son utilisation immédiate) et la concurrence induite rendent difficile tout arrêt de la course en avant (comme ce fut le cas pour l'arme à feu ou l'arbalète, sujets pourtant bien moins complexes). Mais bien sur il veulent les bénéfice sans les conséquences des bénéfice? Ou bien ils se foutent des ennuis parce qu'ils se pensent à l'abri? Ecoutez les cinglés que sont les libertariens et les transhumanistes : ils sont clairs. Ne pas les prendre au sérieux c'est se cacher la tête dans le sable. Ils ne veulent pas d'un monde amoral par commodité ils l'appellent de leur vœux de toute leur force et ce qui leur reste d'âme (c'est à dire pas grand chose). Modifié il y a 10 heures par nemo 1 Lien vers le commentaire Partager sur d’autres sites More sharing options...
Rivelo Posté(e) il y a 11 heures Share Posté(e) il y a 11 heures 6 minutes ago, gustave said: Je ne crois pas du tout que beaucoup de dirigeants souhaitent un monde amoral, pas plus que la plupart des gens qui utilisent l'IA sous une forme ou une autre. Le problème est que la facilité d'utilisation de l'IA, son apparente absence de danger (dans son utilisation immédiate) et la concurrence induite rendent difficile tout arrêt de la course en avant (comme ce fut le cas pour l'arme à feu ou l'arbalète, sujets pourtant bien moins complexes). Et on fonce full speed, avec plusieurs entreprises concurrentes investissant des dizaines de milliards pour construire de gigantesques centres de processing dédiés, poussant plus loin le nombre de neurones, les tailles de modèles, ajoutant des raffinements pour agentifier ces IA (en rajoutant des algorithmes pour créer une séquence d'action pour effectuer des taches complexes, en donnant accès à des bases de connaissances auxiliaires, en permettant de declencher des actions sur des systèmes asservis...). On a pas de théorie, c'est purement du test/erreur pour voir ce qui marche et ce que l'on arrive à faire... et jusqu'où on peut aller. C'est l'équivalent informatique de la course à l'atome. 1 1 Lien vers le commentaire Partager sur d’autres sites More sharing options...
gustave Posté(e) il y a 11 heures Share Posté(e) il y a 11 heures il y a 14 minutes, nemo a dit : Mais bien sur il veulent les bénéfice sans les conséquences des bénéfice? Ou bien ils se foutent des ennuis parce qu'ils se pensent sont à l'abri? Ecoutez les cinglés que sont les libertariens et les transhumanistes : ils sont clairs. Ne pas les prendre au sérieux c'est se cacher la tête dans le sable. Ils ne veulent pas d'un monde amoral par commodité ils l'appellent de leur vœux de toute leur force et ce qui leur reste d'âme (c'est à dire pas grand chose). Je crois que rejeter ce développement sur la seule volonté des libertariens et transhumanistes, qui ne sont pas nombreux ni dans l'absolu ni parmi les dirigeants du monde, est très confortable. La plupart des gens contribuent à leur façon à cette évolution... 1 Lien vers le commentaire Partager sur d’autres sites More sharing options...
Messages recommandés
Veuillez vous connecter pour commenter
Vous pourrez laisser un commentaire après vous êtes connecté.
Connectez-vous maintenant