g4lly Posté(e) le 8 juin Share Posté(e) le 8 juin Pourquoi notre utilisation de l’IA est un gouffre énergétique Décryptage|De la conception d’un modèle à son utilisation, l’intelligence artificielle générative s’avère extrêmement énergivore. « Le Monde » détaille les raisons de cette voracité, alors que les usages sont en pleine expansion. « Nos serveurs fondent. (…) Nous allons devoir introduire certaines limites. » Deux jours après avoir intégré une nouvelle option de génération d’images à ChatGPT, le 25 mars, le patron d’OpenAI, Sam Altman, ne cachait pas être dépassé. En cause, l’engouement suscité par la possibilité de transformer, grâce à l’intelligence artificielle (IA), des photos dans des styles différents, et particulièrement dans le style du Studio Ghibli, du producteur de films d’animation japonais Hayao Miyazaki. Annonçant 1 million d’inscriptions supplémentaires en une heure le 31 mars, Sam Altman reconnaît le lendemain faire face à des risques de ralentissement de ChatGPT, voire des pannes. Cet épisode met en lumière le gouffre énergétique que représente l’IA générative. Son développement effréné devrait plus que doubler la demande d’électricité des centres de données dans le monde d’ici à 2030. Selon un rapport publié en avril par l’Agence internationale de l’énergie (AIE), elle devrait atteindre environ 945 térawattheures, soit plus de la consommation totale d’électricité du Japon. A cette échéance, les centres de données consommeront un peu moins de 3 % de l’électricité mondiale, note l’agence. « Aux Etats-Unis, les centres de données représentent près de la moitié de la croissance attendue de la demande d’électricité d’ici à 2030 », prédit l’AIE. De l’entraînement à la requête Mais alors pourquoi l’IA générative est-elle davantage énergivore que les technologies grand public que nous utilisions jusqu’alors ? Pour y répondre, il faut d’abord comprendre les deux phases du fonctionnement de ces robots : l’entraînement du modèle, puis l’inférence, c’est-à-dire son utilisation au quotidien. La phase d’entaînement nécessite de rassembler des volumes massifs de données. L’IA générative apprend en ingurgitant : un modèle de texte (comme GPT) est nourri de livres, d’articles, de sites web ; un modèle d’image, comme DALL-E, doit avaler des millions d’images légendées. Une fois cette base de données constituée et nettoyée, on crée un réseau de neurones, inspiré du cerveau humain : un cerveau artificiel encore vide, sans souvenirs, qui ne sait rien au départ. Il va alors apprendre par essais, en faisant des erreurs. On lui soumet des phrases ou images partiellement masquées, et on lui demande de prédire ce qui manque. A chaque erreur, l’IA ajuste automatiquement ses calculs grâce à un mécanisme appelé rétropropagation, qui lui permet de corriger ses connexions internes et de progresser. Ce processus est particulièrement long et coûteux : selon les estimations, l’entraînement du GPT-4 d’OpenAI a coûté plus de 100 millions de dollars et consommé 50 gigawattheures d’énergie, soit suffisamment pour alimenter Paris pendant près de deux jours. Depuis la démocratisation de l’accès à l’IA générative, avec le lancement de ChatGPT en 2022, son entraînement semble désormais moins problématique que son utilisation massive. « Avant cela, de grands modèles existaient déjà mais leurs usages restaient restreints aux seuls domaines de la recherche et de l’ingénierie », explique Valentin Goujon, spécialiste de l’intelligence artificielle et doctorant en sociologie au Medialab de Sciences Po. De 100 millions d’utilisateurs hebdomadaires fin 2023, ChatGPT aurait atteint les 400 millions en février 2025 pour doubler de taille en quelques mois, avec 800 millions d’utilisateurs actifs par semaine en avril, selon son fondateur. Un article présenté en 2023 par les scientifiques Sasha Luccioni, Emma Strubell et Yacine Jernite s’est pour la première fois penché de manière sérieuse sur le coût de l’utilisation de ces IA, montrant que les milliards de requêtes (aussi appelées « prompt » en anglais) envoyées chaque jour pouvaient in fine rattraper le coût énergétique et carbone de l’entraînement d’un grand modèle de langage. 0 Nombre d’utilisateurs Inférence Entraînement du modèle Coût énergétique Toutes les requêtes n’impliquent pas le même niveau de complexité, ni la même dépense énergétique. Un facteur déterminant réside dans la taille des modèles, c’est-à-dire le nombre de paramètres qu’il contient : plus ceux-ci sont nombreux, plus le modèle gagne en performance, au prix d’une consommation énergétique accrue. Classer, générer un texte, le résumer… Les besoins en calcul varient également selon la nature des tâches réalisées. Certains modèles, dits spécialisés, se concentrent sur des fonctions précises, comme la classification d’avis en ligne. A l’inverse, les modèles dits généralistes, les plus prisés du grand public, sont censés pouvoir répondre à toutes sortes de requêtes. Ils doivent « pouvoir produire des pixels tout comme du texte en anglais ou en français », décrypte Sasha Luccioni, responsable de l’IA et du climat pour la start-up Hugging Face. Or, « le problème c’est que ces modèles consomment 20 à 30 fois plus d’énergie qu’un petit modèle n’ayant qu’une seule tâche ». Mais comment peut-on calculer précisément le coût énergétique d’une requête ? Chaque interaction avec une IA générative mobilise un ensemble de matériels et d’infrastructures : •une série de composants informatiques comme la carte graphique (GPU), le processeur (CPU), la mémoire vive (RAM), le stockage, le réseau ; •un centre de données dont le bâtiment regroupe des milliers de serveurs ; •les « frais généraux » qui englobent la climatisation, le refroidissement des serveurs, l’alimentation de secours en cas de panne d’électricité. Le nœud du problème est qu’il est encore difficile de connaître parfaitement la consommation énergétique d’une requête. « Aucune compagnie de la Big Tech n’a voulu évaluer leur modèle parce que ce n’est éventuellement pas de la très bonne presse pour eux », déplore Sasha Luccioni. Les plus grosses entreprises du secteur cultivent l’opacité en la matière. Consommation des modèles d'IA par type de tâches Classification d'imagesSimilarité de phrasesDétection d'objetsClassification de textesRésuméReconnaissance de paroleRéponse à une questionSous-titrageGénération de textesGénération d'images0,01 Wh1 Wh100 Wh10 000 Wh Ce manque de transparence des grands acteurs de la tech ne date pas d’hier. Il est aujourd’hui quasiment impossible d’obtenir des informations sur le coût énergétique d’une recherche Google. Seule miette laissée par l’entreprise, une estimation de 0,3 Wh par recherche en ligne donnée en 2009 dans une note de blog des dirigeants. Des chiffres totalement invérifiables, et probablement périmés, qui ne permettent pas aujourd’hui de comparer une recherche IA à une recherche classique sur le Web. Derrière le gouffre énergétique de l’IA, un fort impact écologique Avec son projet Ecologits, l’association GenAI Impact veut pousser les entreprises de l’IA à être plus transparentes sur leur empreinte écologique. « On propose aux utilisateurs de tester l’impact environnemental de chaque prompt selon le modèle utilisé, et même si c’est une estimation ça permet d’avoir un ordre de grandeur », justifie Samuel Rincé, cofondateur de l’association. Ecrire un tweet ou un rapport de cinq pages avec le modèle 4o de Chatgpt n’aura pas le même coût pour la planète que de le faire avec le dernier modèle de Mistral ou de Meta. Le développement et l’utilisation massive de modèles plus importants, dont beaucoup sont alloués à la génération d’images ou de vidéos, vont de pair avec la multiplication des centres de données, loin d’être alimentés par des « énergies propres ». L’exigence de disponibilité permanente rend particulièrement complexe le recours exclusif à des énergies renouvelables comme l’éolien ou le solaire, dont la production reste intermittente et dépendante des conditions météorologiques. « Les services de Google ne s’éteignent pas quand il n’y a pas de soleil en Californie », illustre Anne-Laure Ligozat, professeure en informatique au Laboratoire interdisciplinaire des sciences du numérique (LISN). Une récente étude menée par des chercheurs d’Harvard et de UCLA, disponible en preprint, non encore relue par leurs pairs, montre que 95 % des data centers américains sont construits dans des zones où les sources d’électricité sont plus polluantes que la moyenne américaine. L’intensité carbone des centres de données (quantité de CO₂ émise par unité d’électricité consommée) dépassait de 48 % la moyenne américaine. De nombreux centres de données ayant assez de cartes graphiques pour faire fonctionner des modèles comme GPT ou LLaMA (Meta), sont situés dans des régions productrices de charbon comme la Virginie, qui ne concentre pas moins de 300 data centers, selon les chercheurs. Dans les régions concentrant le plus de data centers aux Etats-Unis, plus de 56 % de l’électricité provient des énergies fossiles (essentiellement gaz et charbon), 21 % viennent du nucléaire et 22 % d’énergie renouvelable. « La concentration des centres de données dans les mêmes régions pose des problèmes importants aux réseaux locaux en raison de leur consommation d’énergie considérable », alerte l’Agence internationale de l’énergie. Cette pression s’ajoute à d’autres conséquences environnementales, liées notamment à l’extraction des ressources minérales pour fabriquer les serveurs, à la consommation d’eau pour refroidir les data centers, et à l’occupation des sols. Autant de facteurs qui suscitent déjà des tensions. « Des conflits locaux sont déjà apparus, sur l’électricité comme sur l’eau, et cela pourrait bien s’amplifier », prévient Anne-Laure Ligozat. Méthodologie Pour évaluer l’empreinte environnementale de nos deux premiers cas d’usage, nous avons utilisé Ecologits, un outil développé par l’association GenAI Impact, qui propose un intervalle de consommation énergétique en KwH (seuil bas et haut) pour une requête spécifique. Son fonctionnement repose sur une méthodologie d’analyse du cycle de vie (ACV) conforme à la norme ISO 14044, appliquée aux tâches d’inférence des modèles d’IA générative et qui n'inclut donc pas l’entraînement, dont le coût environnemental tend à baisser à mesure que le nombre d’utilisateurs augmente. L’approche adoptée est dite ascendante, permettant une estimation des impacts liés à chaque composant du service. Ecologits prend en compte plusieurs dimensions environnementales dont le potentiel de réchauffement climatique, l’épuisement des ressources abiotiques, la consommation d’énergie primaire. L’outil intègre également des hypothèses sur le mix énergétique mondial et considère partiellement les conséquences liées au recyclage. Toutefois, il semble important de mentionner que l’ensemble des résultats repose sur des estimations, en raison du manque de données ouvertes et de la nature propriétaire des modèles évalués, comme GPT-4o-mini utilisé ici, équivalent à celui proposé gratuitement par OpenAI. Pour le troisième cas d’usage, l’outil Ecologits n’embarquant par la génération d’image, nous nous sommes basés sur le leaderboard AI Energy Score, initiative développée dans le cadre du sommet de l'IA à Paris en février 2025. Il est le fruit d’une collaboration entre Hugging Face, Salesforce, Méta, Cohere et l’Université Carnegie Mellon (Pennsylvanie). L’outil établit une approche standardisée pour évaluer l'efficacité énergétique de différentes tâches sur des modèles d'IA, dont la génération d’images. https://www.lemonde.fr/les-decodeurs/article/2025/06/08/pourquoi-notre-utilisation-de-l-ia-est-un-gouffre-energetique_6611132_4355770.html 2 Lien vers le commentaire Partager sur d’autres sites More sharing options...
Titus K Posté(e) le 11 juin Auteur Share Posté(e) le 11 juin (modifié) Le 05/03/2025 à 18:11, Titus K a dit : Mais pour le patron de Bpifrance, l'entreprise doit gagner de l'argent. « Le sujet » pour MistralAI, lancée en 2023, notamment avec un apport de Bpifrance, « ce n'est pas la levée de fonds : ils claquent des doigts et demain, ils ont 2-3 milliards d'euros », a-t-il estimé, alors que la banque publique d'investissement française a annoncé la semaine dernière vouloir investir 10 milliards d'euros dans l'IA d'ici 2029. « Le sujet, ce sont les revenus. Il faut que Mistral fasse 500 millions de chiffre d'affaires en 2025 », a-t-il poursuivi. Ca avance dans le bon sens même si on est pas encore aux 500 millions € Mistral, fleuron européen de l’IA, profite de la recherche d’alternatives aux géants du secteur https://www.ft.com/content/65f79839-d637-48a7-a0f2-3fab8952b315 La start-up européenne d’intelligence artificielle la plus en vue, Mistral AI, a décroché de nouveaux contrats d’une valeur de plusieurs centaines de millions de dollars, ce qui alimente une forte dynamique commerciale susceptible de soutenir une levée de fonds potentielle d’un milliard de dollars cette année. Basée à Paris, Mistral fait face à une concurrence intense des États-Unis et de la Chine, mais commence à bénéficier de la volonté européenne de faire émerger des champions régionaux. Selon des sources proches de ses finances, les revenus de la start-up ont été multipliés depuis sa dernière levée de fonds il y a un an, et pourraient dépasser les 100 millions de dollars annuels pour la première fois si la dynamique commerciale se poursuit. Une poignée de gros clients contribue à la majeure partie de cette croissance. Mistral a conclu ou était sur le point de conclure plusieurs contrats commerciaux, chacun d’une valeur minimale de 100 millions de dollars sur trois à cinq ans, selon les mêmes sources. Les entreprises, institutions publiques et clients de la défense en dehors des États-Unis sont de plus en plus nombreux à rechercher des alternatives aux entreprises technologiques américaines depuis le retour de Donald Trump à la Maison-Blanche. « Beaucoup d’entreprises européennes souhaitent réduire leur dépendance vis-à-vis des fournisseurs américains… La demande pour plus d’autonomie stratégique est en forte hausse », a déclaré Arthur Mensch, PDG de Mistral, le mois dernier. Cette évolution a conduit Mistral — valorisée près de 6 milliards d’euros lors de sa dernière levée de fonds — à lancer un ambitieux programme d’expansion de son infrastructure IA, en commençant par un grand centre de données en région parisienne, ainsi que par des partenariats avec les groupes technologiques et d’investissement G42 et MGX, basés à Abou Dhabi. Pour financer cet effort, l’entreprise — qui a déjà levé plus d’un milliard de dollars depuis sa création il y a deux ans — envisageait de lever jusqu’à 1 milliard de dollars supplémentaires, d’après des sources proches du dossier. Elle aurait commencé à sonder des investisseurs potentiels, même si un processus formel ne devrait débuter que plus tard dans l’année, ont-elles ajouté. Mistral a refusé de commenter ses résultats financiers ou ses projets de financement. Soutenue par Nvidia, la société a été cofondée par trois anciens chercheurs de Meta et Google DeepMind, mais elle reste loin derrière ses rivales américaines comme OpenAI et Anthropic en matière de levées de fonds et de commercialisation. Les modèles d’IA dits « open » de Mistral, que les clients peuvent examiner et adapter à leurs propres usages, font également face à la concurrence du chinois DeepSeek et du Llama de Meta. Mais les tensions entre l’administration Trump et l’Europe — ainsi que la volonté croissante des pays de maîtriser leurs propres infrastructures d’IA — pourraient jouer en faveur de Mistral, qui n’a généré que quelques dizaines de millions de dollars de revenus l’année dernière, selon des sources proches de l’entreprise. Les derniers contrats s’inspirent de celui conclu pour 100 millions d’euros avec CMA CGM, le groupe français de transport maritime et logistique. Lors de l’annonce de ce contrat en avril, le PDG Rodolphe Saadé avait déclaré que les deux entreprises collaboreraient sur des systèmes d’IA sur mesure. Mistral, qui emploie environ 250 personnes, a considérablement renforcé son équipe commerciale ces derniers mois. Elle a adopté un modèle de vente similaire à celui du spécialiste américain de l’analyse de données Palantir, en recrutant des équipes d’« architectes de solutions » qui agissent comme des consultants auprès de chaque client pour optimiser l’intégration de l’IA dans leur activité. Cela implique un processus de vente plus long que celui des logiciels d’entreprise classiques, mais avec un potentiel de revenus bien plus élevé. BNP Paribas, AXA, Stellantis et Veolia comptent parmi les clients actuels de Mistral. L’entreprise a également noué un partenariat avec la start-up européenne de défense technologique Helsing. « La souveraineté n’est pas notre cœur de métier, nous sommes une entreprise globale », déclarait Mensch en mai. « Mais les 100 derniers jours ont triplé notre activité, en particulier en Europe et hors des États-Unis. » Modifié le 11 juin par Titus K 1 Lien vers le commentaire Partager sur d’autres sites More sharing options...
Titus K Posté(e) le 12 juin Auteur Share Posté(e) le 12 juin (modifié) Partenariat entre Mistral AI et Nvidia : "Ce sont des centaines de postes qui seront créés", assure le patron de l'IA à la française --> https://www.radiofrance.fr/franceinfo/podcasts/le-grand-temoin/partenariat-entre-mistral-ai-et-nvidia-ce-sont-des-centaines-de-postes-qui-seront-crees-assure-le-patron-de-l-ia-a-la-francaise-1514028 L’entreprise française de l’intelligence artificielle vient de dévoiler Mistral Compute, une offre cloud avec l'américain Nvidia. Mistral AI qui emploie 250 salariés, prévoit de dépasser les 400 collaborateurs d’ici la fin de l’année 2025. Devenue en deux ans la championne française de l’intelligence artificielle, Mistral AI vient de dévoiler Mistral Compute, une nouvelle offre cloud avec Nvidia qui séduit déjà de grands groupes français."Ce sont des centaines de postes qui seront créés", annonce, jeudi 12 juin, sur franceinfo Arthur Mensch, cofondateur et président de Mistral AI. "On construit aujourd'hui, je pense, le cluster le plus performant en France", assure-t-il. Actuellement forte de 250 salariés, Mistral AI prévoit de dépasser les 400 collaborateurs d’ici la fin de l’année 2025. "D'abord sur le premier site en Essonne, mais aussi sur les nouveaux sites qu'on va construire, ce sont des centaines de postes" indirects qui "seront créés", ajoute-t-il. Plusieurs sites sont prévus en France, mais"également en Europe, parce que c'est un projet qu'on veut européen". Le premier site, situé en Essonne à 30 kilomètres de Paris, s’étend sur 1 000 mêtres carrés. "Aujourd'hui, on est en train d'installer les racks, ce sont des serveurs qu'on installe les uns par-dessus les autres", explique Arthur Mensch. L’infrastructure comptera "des dizaines de milliers" de processeurs, capables de réaliser "énormément de calculs en même temps, pour entraîner des modèles d’IA performants et servir de nombreux clients". L'enjeu stratégique face aux fournisseurs américains Mistral Compute vise à fournir ses clients historiques, parmi lesquels Veolia, Thalès, la SNCF ou Schneider. Mais l’enjeu est aussi stratégique. "Ce qui est important quand on met à disposition de l'intelligence artificielle, c'est d'avoir les clés du camion. C'est-à-dire d'être capable d'allumer et d'éteindre le service, souligne Arthur Mensch. "Malheureusement en Europe, beaucoup d'entreprises utilisent encore des services pour lesquels ils n'ont pas les clés parce que ce sont des fournisseurs américains." Il regrette que "le virage du cloud dans les 15 dernières années ait été assez mal pris" en France, et voit dans le développement de centres de calcul nationaux une étape clé pour renforcer l’indépendance technologique des entreprises françaises et européennes. Mistral AI, qui a déjà levé un milliard de dollars en deux ans, pourrait d’ailleurs prochainement boucler une nouvelle levée de fonds pour accompagner cette expansion. Modifié le 12 juin par Titus K 1 1 Lien vers le commentaire Partager sur d’autres sites More sharing options...
Titus K Posté(e) jeudi à 13:52 Auteur Share Posté(e) jeudi à 13:52 (modifié) D'après Bloomberg, Apple songe sérieusement à acheter Mistral pour rattraper son retard dans l'IA. Mistral est valorisée à 6 Md€ et emploie 200 personnes en France Modifié jeudi à 14:02 par Titus K 1 1 2 Lien vers le commentaire Partager sur d’autres sites More sharing options...
Messages recommandés
Veuillez vous connecter pour commenter
Vous pourrez laisser un commentaire après vous êtes connecté.
Connectez-vous maintenant