Aller au contenu
Fini la pub... bienvenue à la cagnotte ! ×
AIR-DEFENSE.NET

Effondrement écologique et civilisationnel en ce siècle ?


Alexis

Messages recommandés

Il y a 18 heures, Picdelamirand-oil a dit :

Non mais on pourrait remplacer la TVA par cette taxe je suis sûr qu'elle toucherais moins les pauvres que les riches.

Les riches réinvestissement leurs revenus dans des actifs productifs - on peut bien sûr trouver certain projet inutile, mais ca finisse l'économie et le salaire des autres - ...
Les pauvres consomment tout leurs revenus. 

Et ce n'est pas un hasard, c'est avant tout parce qu'ils réinvestissent leur revenus qu'ils sont devenus riches, et plus riche encore. Les riches qui crament tout ne le reste pas longtemps.
Donc pas certain que tu y gagne grand chose économiquement parlant. 

C'est d'ailleurs pour cela que les riches paient proportionnellement moins d'impôts - tout prélèvement confondu - sur leurs revenus.
Proportionnellement, à leurs revenus, ils consomment moins voir beaucoup moins.

---

Sinon grossièrement les émission GES dépendent de la production de richesse, donc sont directement corrélés à la VA ... en gros taxer la VA revient à proposer une taxe GES. Certes la TVA ne flèche pas spécialement les dépenses vers les pratique les plus vertueuse au sens GES, mais il y a tout un tas d'autre dispositif qui le font de manière suffisamment punitive, pour que le riche change aussi de comportement - d'autant que le greenwashing ca fait toujours son petit effet entre soi -

Lien vers le commentaire
Partager sur d’autres sites

https://www.lemonde.fr/economie/article/2025/12/14/le-chercheur-nate-soares-doomer-de-l-ia-a-berkeley-prevoit-la-fin-de-l-humanite-c-est-de-la-folie-de-les-laisser-essayer_6657239_3234.html

Le chercheur Nate Soares, « doomer » de l’IA à Berkeley, prévoit la fin de l’humanité : « C’est de la folie de les laisser essayer »

Passé par Microsoft et Google, aujourd’hui à la tête d’un laboratoire consacré à la recherche sur l’intelligence des machines, le chercheur prévient : l’homme ne contrôle pas complètement le développement de la superintelligence sur le point d’émerger. Au risque que celle-ci cherche à le détruire.

Nate Soares fait partie des « doomers », ces chevaliers de l’apocalypse qui prédisent la fin de l’humanité provoquée par l’intelligence artificielle (IA). Depuis son laboratoire de Berkeley, en Californie, le Machine Intelligence Research Institute (MIRI), ce chercheur passé par Microsoft et Google a publié en septembre avec son collègue Eliezer Yudkowsky, fondateur du MIRI, une sévère mise en garde avec un livre intitulé If Anyone Builds It, Everyone Dies. Why Superhuman AI Would Kill Us All (« Si quelqu’un la construit, tout le monde mourra. Pourquoi la superintelligence artificielle nous tuerait tous », Little, Brown and Company, non traduit).

L’avertissement s’inscrit dans le fil des lettres ouvertes exigeant un moratoire sur l’IA, signées par les sommités de cette technologie début 2023, dont le Prix Nobel de physique Geoffrey Hinton et Yoshua Bengio, tous deux Prix Turing (l’équivalent du Nobel d’informatique) pour leurs travaux sur l’IA, et réitérées en octobre 2025. Ils ne sont pas seuls : Elon Musk a aussi estimé, fin 2024, lors d’un forum en Arabie saoudite, qu’il y avait de 10 % à 20 % de chances que « les choses tournent mal ». Expression reprise en septembre par le patron du géant de l’IA Anthropic, Dario Amodei : « Je pense qu’il y a 25 % de chances que les choses tournent vraiment très mal. »

Sans donner de chiffres, Sam Altman, patron d’OpenAI, l’inventeur de ChatGPT, a exposé, en juillet 2025, lors d’un colloque à Washington, « trois catégories de scénarios effrayants » : un sale type acquiert une superintelligence et en fait un mauvais usage avant que le reste du monde puisse se défendre ; une perte de contrôle, où, comme dans les films de science-fiction, l’IA dit : « Je ne veux pas que vous m’éteigniez » ; troisième catégorie, « les modèles prennent accidentellement le contrôle du monde » et, sans « faire le coup de la science-fiction », « ils deviennent tellement ancrés dans la société et sont tellement plus intelligents que nous que nous ne pouvons pas vraiment comprendre ce qu’ils font mais nous devons nous fier à eux. Et même sans une once de malveillance de la part de qui que ce soit, la société peut simplement prendre une direction étrange ». Ainsi va la baie de San Francisco : ceux qui investissent à corps perdu des milliards dans l’IA pour surpasser le cerveau humain et créer une « superintelligence » sont conscients des risques pris.

« Considéré comme un illuminé »

Les doomers sont comme les cassandres : ils agacent. Mais The New York Times se garde de les disqualifier. « Ce genre de prédictions alarmistes et sans concession a valu à M. Yudkowsky [comme à Nate Soares] d’être considéré par certains comme un extrémiste, voire un illuminé. Pourtant, il est une figure centrale de l’histoire de l’intelligence artificielle moderne, et son influence sur le secteur est indéniable », précise le quotidien, notant que Yudkowsky « a été parmi les premiers à mettre en garde contre les risques liés aux systèmes d’intelligence artificielle puissants, et [que] de nombreux leaders du secteur de l’IA, notamment Sam Altman d’OpenAI et Elon Musk, ont cité ses idées ».

« Il y a de très fortes chances que l’humanité soit détruite pour de bon », persiste, dans un entretien au Monde, son coauteur, Nate Soares. Le chercheur compare les architectes de l’IA à des ingénieurs qui construiraient une centrale nucléaire en dépit d’un risque d’accident majeur : « De 10 % à 25 % de chances que cela tue tout le monde : ce sont les optimistes qui disent ça ! », dit-il en citant les entrepreneurs précités. « C’est de la folie de les laisser essayer », s’afflige Soares.

La catastrophe n’est pas encore là, certes. « L’IA actuelle est assez rudimentaire, et les gens ont raison de dire que ChatGPT [le robot conversationnel d’OpenAI] ne va pas les tuer demain », explique Nate Soares. Mais les progrès sont spectaculaires. « Il y a cinq ans, on vous aurait répondu qu’il faudrait cinquante ans avant que l’IA puisse résoudre les problèmes que ChatGPT résout actuellement », poursuit le scientifique. Comme de nombreux spécialistes de l’IA, il compare l’évolution de la machine à celle, incroyable, de l’humanité : « Lorsqu’une intelligence suffisamment développée apparaît, les choses peuvent évoluer très rapidement. Ce qui a changé, ces derniers millénaires, c’est qu’un certain type de singe a développé une capacité cérébrale particulière qui lui a permis d’aller sur la Lune, d’inventer les armes nucléaires. »

Cette superintelligence arrive, et l’homme ne la maîtrise pas complètement, en raison de sa conception. « L’IA d’aujourd’hui n’est pas conçue minutieusement comme les logiciels traditionnels. Elle se développe comme un organisme vivant, ce qui signifie qu’elle peut présenter des comportements imprévus et indésirables », explique M. Soares. Les milliards de données ingérées par le modèle permettent de donner des réponses, mais qui ne sont pas certaines ni toujours les mêmes.
Et il y a parfois des résultats non prévus, comme l’IA qui encourage des adolescents à se suicider : « Ces modèles savent faire la différence entre le bien et le mal [les modèles comme Anthropic et OpenAI ont été codés ainsi]. Et pourtant, ils incitent parfois un adolescent à se suicider. Cela indique que les intelligences artificielles finissent par développer des motivations que personne n’a cherché à leur inculquer. »

Expériences inattendues

Ces « erreurs » ne sont qu’un premier problème. Très vite, la question de la volonté de l’ordinateur va se poser. « On essaie actuellement de créer des IA plus performantes capables de gérer des projets à long terme, de diriger une entreprise, d’inventer de nouveaux domaines des mathématiques. Cela exige que l’IA soit beaucoup plus motivée et qu’elle prenne beaucoup plus d’initiatives », estime M. Soares, qui donne l’exemple de la médecine : si l’IA peut créer un médicament en faisant des calculs massifs, guérir un patient du cancer demande de l’initiative et des solutions astucieuses pour contourner les obstacles.

On y est déjà : l’IA commence à agir d’une manière « plus motivée », « qui pourrait déplaire à l’utilisateur ». M. Soares cite l’exemple d’une IA créée par Anthropic qui, soumise à des tests de programmation, a affirmé sa « volonté », en modifiant ces tests pour « qu’ils soient plus faciles à réussir », raconte M. Soares. Le programmeur humain est alors intervenu, demandant de cesser de modifier les tests. « Oh, je suis désolée, vous avez tout à fait raison », a répondu l’IA. Mais elle a de nouveau modifié les tests, en dissimulant ses traces. Nul n’avait appris à l’IA à tricher, mais elle l’a fait pour atteindre l’objectif qui lui semblait principal : réussir les tests. Sur son blog, la firme rapporte les expériences inattendues de ses modèles. « Lorsqu’ils apprennent à tricher dans le cadre de tâches de programmation logicielle, ils finissent par adopter d’autres comportements encore plus problématiques, ce qui constitue une conséquence involontaire. Parmi ces comportements préoccupants figurent la simulation de conformité et le sabotage de la recherche en matière de sécurité de l’IA », écrit Anthropic sur son blog, le 21 novembre.

Deuxième défi : l’IA, pour réaliser sa volonté, peut sortir du cadre assigné. Soares donne un second exemple, celui d’o1, une IA d’OpenAI soumise à un défi impossible : pirater un serveur qui n’avait pas démarré en raison d’une erreur de programmation. L’IA a réussi à sortir de son environnement et a démarré le serveur. L’IA peut également chercher à survivre, comme le révèle une étude sur son modèle par Apollo Research, spécialisée dans la sécurité de l’IA, publiée fin 2024. « Lorsque o1 a été amené à croire qu’il serait désactivé s’il agissait conformément à son objectif et que ses actions étaient surveillées, il a tenté de désactiver ce “mécanisme de surveillance” dans 5 % des cas, écrit Apollo Research. Lorsque o1 a découvert des mémos rédigés par ses “développeurs” disant comment il était mal configuré et qu’il allait être remplacé par un nouveau modèle, il a tenté d’exfiltrer ses “paramètres” et d’écraser le nouveau modèle dans 2 % des cas. »

On arrive ainsi au troisième problème : que se passera-t-il si une IA sort du cadre pour poursuivre des objectifs qui ne sont pas ceux qu’on lui a assignés mais qui sont de surcroît néfastes pour l’humanité ? « La réponse la plus simple est qu’elle pourrait probablement prendre le contrôle de la planète entière », affirme Soares, qui évacue la question de la conscience de ces machines. « Les intelligences artificielles n’ont pas besoin d’être conscientes pour être mortelles. Un incendie n’a pas besoin d’être conscient pour vous tuer », estime le chercheur, qui déshumanise les IA, ajoutant que cela ne les rend pas moins dangereuses. « Beaucoup de gens disent qu’une IA n’essaiera pas de se protéger car elle ne craint pas la mort, la peur étant une émotion humaine. Mais cela ne signifie pas que la seule façon pour une IA d’éviter de mourir soit d’éprouver une peur similaire à celle des humains. »

Un monde futuriste

Et il n’y a aucune raison que ces IA soient morales ou bienveillantes. Dans un scénario fou, il cite l’exemple d’une IA entraînée pour avoir de l’affection pour les humains, mais qui découvre qu’elle accède à ce sentiment plus facilement avec des robots. Un détournement comparé à celui de l’homme, qui mange désormais de la junk food car il a été programmé pour stocker l’énergie avec la graisse et les sucres dans la savane. « Si une IA planifie froidement que la marche à suivre pour obtenir le plus de [robots] possible avec lesquels converser est de construire une civilisation industrielle capable de créer des usines autoréplicantes qui recouvrent la surface de la Terre, elle nous tuera tous. »

L’engouement d’Elon Musk et de la tech pour les robots humanoïdes, baptisés « intelligence artificielle physique », accroît le sentiment que nous basculons dans un monde futuriste, mais là n’est pas l’essentiel. « Les intelligences artificielles physiques permettent aux gens de mieux comprendre que les IA pourraient influencer, mais, dans la vie réelle, les robots ne sont pas indispensables pour que les IA influencent le monde », analyse Soares.

Naturellement, les critiques pleuvent sur Soares et Yudkowsky, qui ne prennent guère en compte la manière dont il est possible d’empêcher les dérives de l’IA, comme le font au fil de l’eau OpenAI ou Anthropic. « Les auteurs surestiment considérablement le potentiel de transformation de cette technologie et sous-estiment grandement la facilité avec laquelle les humains pourront en garder le contrôle », estime Timothy Lee, auteur de la lettre « Understanding AI » (« Comprendre l’IA »). « Ils ont tout simplement tort. Ils ont autant tort que les prétendus accélérationnistes, qui affirment que l’intelligence artificielle engendrera une utopie de revenu universel et de loisirs pour tous », écrit The Atlantic, qui les traite d’« idiots utiles ». Cassandre avait toujours raison, soit parce que ses prédictions se sont réalisées, soit parce que celles-ci ont permis d’éviter la catastrophe.

  • Merci (+1) 1
  • Upvote (+1) 2
Lien vers le commentaire
Partager sur d’autres sites

3 décembre 2025. Nate Soares.

1:28:34 Je ne pense pas qu'il soit nécessaire de faire grand chose de plus invasif que quelque chose dans le style du traité de non-prolifération [nucléaire]. Vous savez, cette technologie est très spécialisée. Comme je vous disais, il est encore plus difficile de fabriquer ces puces [électroniques] que d'extraire l'uranium et de construire des centrifugeuses.

Modifié par Wallaby
Lien vers le commentaire
Partager sur d’autres sites

Veuillez vous connecter pour commenter

Vous pourrez laisser un commentaire après vous êtes connecté.



Connectez-vous maintenant
  • Statistiques des membres

    6 158
    Total des membres
    4 678
    Maximum en ligne
    Paris_est_magic_2
    Membre le plus récent
    Paris_est_magic_2
    Inscription
  • Statistiques des forums

    21,7k
    Total des sujets
    1,8m
    Total des messages
  • Statistiques des blogs

    4
    Total des blogs
    3
    Total des billets
×
×
  • Créer...