zx Posté(e) le 1 mai 2017 Auteur Share Posté(e) le 1 mai 2017 (modifié) Thales se renforce dans le domaine du Big Data http://www.opex360.com/2017/05/01/thales-se-renforce-dans-le-domaine-du-big-data/ Pour les armées, le Big Data, vu par certains comme étant le « nouveau pétrole », peut avoir des applications concrètes, comme par exemple en matière de cybersécurité, de maintenance, avec l’analyse des données produites par des capteurs, l’idée étant de prédire en quelque sorte l’avenir par rapport au passé, d’aide à la décision ou encore de logistique, dans la mesure où il sera possible d’optimiser les flux. Mais l’application sans doute la plus évidente reste celle liée au renseignemement. L’analyse d’un volume important de données peut permettre de détecter ce que l’on appelle les « signaux faibles« . Mais pas seulement. En février 2015, le SIA LAB (Système d’Information des Armées), devenu récemment DGA LAB, avait ainsi présenté trois entreprises qui, spécialisées dans le Big Data, présentèrent des solutions visant à acéquérir, traiter et exploiter des données de tout type et de tout format collectées par plusieurs capteurs. L’État-major des armées explique ainsi que la « collecte, la capitalisation et l’exploitation des données constituant le centre névralgique du cycle du renseignement, la DRM [Direction du renseignement militaire] recueille des volumes massifs de données issues de capteurs multiples et a constamment besoin d’optimiser ses systèmes d’information » étant donné que « leur réactivité conditionne directement la pertinence du renseignement militaire fourni aux forces en opérations et aux décideurs politiques et militaires. » Modifié le 1 mai 2017 par zx Lien vers le commentaire Partager sur d’autres sites More sharing options...
Conan le Barbare Posté(e) le 1 mai 2017 Share Posté(e) le 1 mai 2017 En gros on nous promet une NSA à la française... bravo ont va allé loin... Lien vers le commentaire Partager sur d’autres sites More sharing options...
zx Posté(e) le 2 mai 2017 Auteur Share Posté(e) le 2 mai 2017 (modifié) Je suppose que le NSA français existe depuis longtemps, l'évolution de la technologie leur permet d'améliorer le traitement sur une masse d'information de plus en plus importante. surtout de nos jours. ca peut servir à beaucoup de chose, pour le mieux ou pour le pire, exemple les avions qui sont bourrés d'électronique et de capteur, un système big data peut collecter énormément de données provenant de source hétérogène pour représenter et analyser une situation tactique, un suivi de maintenance, de gerer le traffic aérien, traiter l'environnement electromagnétique, suivre la répartition électrique d'un bâtiment. Ca reste un outil de la continuité des base de données. Reste à savoir quel usage on en fait. On peut très bien suivre l'activité d'une personne ou d'un groupe, son portable, ses activités internet (pages, requêtes, réseaux sociaux,etc..), ses paiements, ses déplacements (hotels,restaurant,aeroport,boutiques,gare,peage), son téléphone, bientôt les objets connectés, les fichiers associés, etc.. en complément des rapports de terrain. Quand au modèle prédictifs tout dépend ce qu'on souhaite obtenir, il ne faut pas oublier quels sont les besoins au départ, puis le statisticien ou le spécialiste qu'on met derrière pour définir les modèles, reste la mise en oeuvre de l'outil. Modifié le 2 mai 2017 par zx Lien vers le commentaire Partager sur d’autres sites More sharing options...
kotai Posté(e) le 2 mai 2017 Share Posté(e) le 2 mai 2017 Juste une question de moyen mais la France par le biais de ses lois à mis en place en toute discrétion des moyens d'écoute....Le big data n'est qu'un outil de plus pour sortir une probabilité ou une tendance.... Lien vers le commentaire Partager sur d’autres sites More sharing options...
Lame Posté(e) le 2 mai 2017 Share Posté(e) le 2 mai 2017 Le 16/04/2015 à 21:30, Pierre_F a dit : Le big data : c'est un stockage mutualisé gigantesque et on peut mutualiser les données et ou faire des sous ensembles de données spécialisées. Pour accéder et enregistrer ces données, les méthodes de requêtes sont différentes (non sql) et on peut mettre des données structurées (nom, prénom, date etc) ou non structurée (pdf, scan, video, sons etc). Un big Data c'est donc un pot commun de données de tout type virtualisé ce qui ne veut pas dire dans un lieu de stockage unique. Pierre_F, sur base de ce que tu sais sur cette technnologie, qu'est-ce qu'il faudrait inventer pour pouvoir faire du Big Data avec uniquement des tablettes et des smartphones à partir de 2045? Lien vers le commentaire Partager sur d’autres sites More sharing options...
kotai Posté(e) le 2 mai 2017 Share Posté(e) le 2 mai 2017 Pouvoir mettre des xéons en architecture neuronal dans une tablette? Lien vers le commentaire Partager sur d’autres sites More sharing options...
Lame Posté(e) le 10 mai 2017 Share Posté(e) le 10 mai 2017 Le 2/05/2017 à 17:23, kotai a dit : Pouvoir mettre des xéons en architecture neuronal dans une tablette? Désolé mais je n'ai rien compris. Le 2/05/2017 à 22:43, Pierre_F a dit : Je dirais du spark en grid avec des vitesses optiques. ... (peut être hein ! parce qu'en 2045, on a 30 ans de devant nous et que l'adoption des smartphones n'a pris que 7 ans ...) . Sinon l'accès à des assistants intelligents qui iront chercher dans un big data, c'est pour maintenant. Dans 30 ans, on aura peut être des ordinateurs quantiques dans la poche ... ce qui serait une énorme performance vu la dimension des bêtes aujourd'hui. "Apache Spark est une infrastructure de traitement parallèle open source qui permet d'exécuter des applications analytiques d’envergure, en utilisant des machines en clusters." Source Si j'ai bien compris, il faut des tours remplies d'armoires remplies d'ordinateurs connectés aux smartphones (ou ce qui le remplacera: montre à hologramme tactique, neuromat avec cyberconsole, organelles borg, etc...) par LiFi. Pardon, si je rame mais je suis un molledu, pas un netrunner. Lien vers le commentaire Partager sur d’autres sites More sharing options...
cracou Posté(e) le 10 mai 2017 Share Posté(e) le 10 mai 2017 Je répète encore une fois ici vu que le big data c'est un peu mon domaine: 99% des gens ne savent même pas de quoi ils parlent en évoquant le big data! Big data c'est un mot fourre tout comme dire "il est dans la médecine". Médecin? Cardiologue? Infirmier? Pharmacien? Chercheur? Bref c'est un immense bordel. Big data c'est soit - la collecte de montagnes d'informations - la mise en cohérence de ces montagnes d'information. C'est pour cela que les séries TV qui montrent comment trier les données et isoler les suspects font pleurer de rire les spécialistes: on passe 95% de note temps à traiter les données (formats, cohérences, erreurs,...) et ça prend un temps fou. - analyser les données en 1) créant des modèles (et c'est un métier TRES compliqué) classiques de type économétrie, PCA 2) utilisant les modèles usuels conçus pour des bases réduites 3) faire de l'analyse massive genre Hadoop Mais un scoop pour vous: ça ne marche PAS (entout cas pas encore). Je veux dire par là que les méthodes d'analyse actuelles ont été conçus pendant 60 ans sur des données assez limités et les process de calculs sont optimisés pour. En pratique faire un clustering tout simple par une classification hiérarchique selon ma méthode de Ward en distance euclidienne (un truc vraiment basique), c'est super simple avec quelques centaines de personnes mais l'ordinateur va vomir sur tes pompes si tu tentes de le faire avec 3 millions de personnes. Les méthodes d'analyse massives sont très astucieuses conceptuellement mais d'une simplicité théorique à faire peur. Regardez un peu le code: https://books.google.fr/books?id=wBwRCwAAQBAJ&pg=PA275&lpg=PA275&dq=hadoop+méthode+type+analyse&source=bl&ots=NRL59WrCKV&sig=4-8PQiMueVL18DuEhGWRho__cNg&hl=fr&sa=X&ved=0ahUKEwjGvInJmuXTAhVEHxoKHQjIBcgQ6AEIbzAH#v=onepage&q=hadoop méthode type analyse&f=false C'est par exemple utilisé par spotify pour générer des playlists conjioncturelles en fonction des goûts des individus mais ca va pas chercher super loin en terme théorique. En fait il n'existe pas encore d'outils vraiment imaginés pour de la donnée massive et utilisables. C'est un domaine qui bouge beaucoup. 1 2 Lien vers le commentaire Partager sur d’autres sites More sharing options...
cracou Posté(e) le 11 mai 2017 Share Posté(e) le 11 mai 2017 Ma question: qu'est ce qui marche bien? Trier ça marche. Faire tourner un modèle existant et l'appliquer sur les données ça marche. Par contre créer un modèle en temps réel avec les données (toutes), là on rame un peu. J'ai une question vraiment vraiment sérieuse: le coeur du truc c'est l'étape de l'analyse. Tout le reste c'est de la manip de données et de la mise en parallèle (ça marche bien comme tu dis) Quels sont les outils que tu utilises? Vraiment. C'est quoi la méthode? Tu fais de la classification? segmentation? arbres? forêt aléatoire? association? supervisée ou non? réseau neuronal? bayes? Je suis très curieux de voir car c'est là que se situe la plus value. Lien vers le commentaire Partager sur d’autres sites More sharing options...
Omar1985 Posté(e) le 11 mai 2017 Share Posté(e) le 11 mai 2017 Il y a 11 heures, cracou a dit : Ma question: qu'est ce qui marche bien? Trier ça marche. Faire tourner un modèle existant et l'appliquer sur les données ça marche. Par contre créer un modèle en temps réel avec les données (toutes), là on rame un peu. J'ai une question vraiment vraiment sérieuse: le coeur du truc c'est l'étape de l'analyse. Tout le reste c'est de la manip de données et de la mise en parallèle (ça marche bien comme tu dis) Quels sont les outils que tu utilises? Vraiment. C'est quoi la méthode? Tu fais de la classification? segmentation? arbres? forêt aléatoire? association? supervisée ou non? réseau neuronal? bayes? Je suis très curieux de voir car c'est là que se situe la plus value. Hello, Je me permet de répondre car je fais du Big Data depuis 6 ans (dès le début) avec des implémentations importantes pour des opérateurs/banques aux US, Europe et je suis fondateur/CEO d'une startup qui fait du réal time analytics, on fait du real time fraud detection et du real time cyber attack detection en utilisant l'intelligence artificielle et des données temps réel depuis toute l'infrastructure (juste pour décrire le contexte) 1) Créer un modèle en temps réel est impossible, on crée un modèle qu'on applique sur des données en temps réel pour avoir de la prédiction/classification, 2) Pour la mise en parallèle et la création du modèle, tu peux utiliser du python en distribué ou du Spark. ça marche sur du Peta de données mais ça prend du temps. Les modèles générés peuvent alors être utilisé sur un flux de données temps réel pour analyser et détecter les problèmes/anomalies. Python a plusieurs options qui permettent de réutiliser le modèle et de l'améliorer tous les jours avec de nouvelles données sans refaire toute l'analyse. 3) On fait plusieurs combinaison avec du machine learning (Random forest)/du boosting/ du non supervisé afin de détecter les "outiler" et faire du "behavioral analytics" et ça donne de très très bon résultats en temps réel sur les données avec une précision très très haute (plus de 98%) 4 Lien vers le commentaire Partager sur d’autres sites More sharing options...
cracou Posté(e) le 12 mai 2017 Share Posté(e) le 12 mai 2017 Citation 1) Créer un modèle en temps réel est impossible, on crée un modèle qu'on applique sur des données en temps réel pour avoir de la prédiction/classification, Bien d'accord. Pou le moment c'est de l'utopie. Citation 2) Pour la mise en parallèle et la création du modèle, tu peux utiliser du python en distribué ou du Spark. ça marche sur du Peta de données mais ça prend du temps. Les modèles générés peuvent alors être utilisé sur un flux de données temps réel pour analyser et détecter les problèmes/anomalies. Python a plusieurs options qui permettent de réutiliser le modèle et de l'améliorer tous les jours avec de nouvelles données sans refaire toute l'analyse. Oui. Je suis un vieux donc je faisais du R mais maintenant on bascule en python. En fonction des modèles on utilise une mise à jour progressive mais des fois c'est pas possible :( Tu parles de bayésien? Citation 3) On fait plusieurs combinaison avec du machine learning (Random forest)/du boosting/ du non supervisé afin de détecter les "outiler" et faire du "behavioral analytics" et ça donne de très très bon résultats en temps réel sur les données avec une précision très très haute (plus de 98%) Random forest, c'est logique (et finalement très simple dans le principe). Pour le boosting, tu ne fais pas de bagging? Sinon quand ut parles de précision... tu parles de quelle prévision (vrai positif, vrai négatif, rappel, alpha, beta...). Rien que pour te titille, 98% c'est vraiment pas très élevé (hihihiiiiii, donne un peu les faux négatifs et faux positifs). Lien vers le commentaire Partager sur d’autres sites More sharing options...
Omar1985 Posté(e) le 12 mai 2017 Share Posté(e) le 12 mai 2017 Il y a 7 heures, cracou a dit : Oui. Je suis un vieux donc je faisais du R mais maintenant on bascule en python. En fonction des modèles on utilise une mise à jour progressive mais des fois c'est pas possible :( Tu parles de bayésien? Je parles de Random forest et boosting. Tout le monde migre de R/SAS vers Python ou Spark, c'est le futur Il y a 7 heures, cracou a dit : Random forest, c'est logique (et finalement très simple dans le principe). Pour le boosting, tu ne fais pas de bagging? Sinon quand ut parles de précision... tu parles de quelle prévision (vrai positif, vrai négatif, rappel, alpha, beta...). Rien que pour te titille, 98% c'est vraiment pas très élevé (hihihiiiiii, donne un peu les faux négatifs et faux positifs). Je parle de Gradient Boosting approach: http://machinelearningmastery.com/gentle-introduction-gradient-boosting-algorithm-machine-learning/ Je parle de vrai positif seulement (sinon ça n'aurait pas de sens). Pour la réduction de faux positifs, on parle de plus de 70% de moins par rapport à un système classique d'une banque/telecom. Sinon, il y'a ça: http://www.latribune.fr/entreprises-finance/industrie/aeronautique-defense/thales-avale-une-start-up-californienne-et-confirme-vouloir-devenir-un-leader-du-big-data-699406.html Lien vers le commentaire Partager sur d’autres sites More sharing options...
cracou Posté(e) le 12 mai 2017 Share Posté(e) le 12 mai 2017 Tu vas rire l'idée de fonction de perte je l'ai rencontré il y a très très longtemps avec l'approche de la qualité par Tagushi. Il avait de bonnes idées celui là. Il doit y avoir pas mal de boulot de paramétrage car tu dois overfitter comme un malade au début. Lien vers le commentaire Partager sur d’autres sites More sharing options...
cracou Posté(e) le 12 mai 2017 Share Posté(e) le 12 mai 2017 je sais bien, mais utiliser spss pour du big data c'est pas franchement l'idée du siècle, c'est pas fait pour (mais tu peux l'interfacer sur autre chose). 1 Lien vers le commentaire Partager sur d’autres sites More sharing options...
zx Posté(e) le 29 mars 2018 Auteur Share Posté(e) le 29 mars 2018 (modifié) je doute que les vieux machins disposent des objets connectés pour remonter de l'info. ca ne peut marcher qu'avec l'arrivé de nouveau matos. tout dépend du volume d'info à traiter. Avec DOMINNO, le ministère des Armées lance un projet de maintenance prédictive basé sur le big data http://www.opex360.com/2018/03/26/dominno-ministere-armees-lance-projet-de-maintenance-predictive-base-big-data/ Modifié le 29 mars 2018 par zx Lien vers le commentaire Partager sur d’autres sites More sharing options...
Lame Posté(e) le 10 avril 2018 Share Posté(e) le 10 avril 2018 (modifié) Je fais un bref encart sur un sujet moins technique: Citation L'automatisation au coeur de la stratégie cloud d'Oracle Pour rester compétitif face aux géants et vieux rivaux du cloud que sont Amazon Web Services et Microsoft, Oracle mise de plus en plus sur un différentiateur clé : l'automatisation. Si nous nous sommes longtemps interrogés sur la cohérence de la stratégie cloud d‘Oracle, l’éditeur a fini par comprendre qu’il ne pouvait plus faire l’impasse sur cette technologie embrassée par ses concurrents directs. Et pour se distinguer et rattraper son retard, big red mise aujourd’hui sur l’automatisation. En 2017, lors de l’Oracle OpenWorld, l’éditeur avait déjà lancé une « base de données autonome ». À l’époque, le fondateur et CTO Larry Ellison avait affirmé que cette base de données pourrait fonctionner automatiquement sans administrateur de base de données, et qu’elle comprendrait des fonctions d'auto-configuration, d'auto-provisionnement et d'auto-correction. Pour arriver à cela, Oracle a doté sa base de données - commercialisée sous le nom d'Oracle 18c - de techniques d'apprentissage machine capables d’anticiper et d’automatiser n’importe quel scénario. « La base de données autonome d’Oracle est maintenant globalement disponible dans le cloud d’Oracle, et d'autres services cloud autonomes seront prochainement ajoutés », a déclaré cette fois M. Ellison lors d'une conférence téléphonique sur les résultats du troisième trimestre 2018. « Aucun autre fournisseur de cloud ne dispose d'une base de données entièrement automatisée, d’un système qui traite automatiquement et immédiatement de la sécurité des actifs sans temps d'arrêt programmé. Les fonctions autonomes de la base de données d'Oracle sont absolument uniques ». Une offre PaaS automatisée Mais ce n’est pas tout. Au mois de février, le fournisseur a réaffirmé ces promesses en annonçant qu'il allait étendre le niveau d'automatisation bien au-delà de la base de données, puisque celui-ci concernerait tous les autres éléments de sa plate-forme cloud. Autrement dit, toutes ses offres PaaS seront auto-contrôlées, auto-sécurisées et autoréparables. « Avant la fin de cette année, nous fournirons des services d'analyse autonomes, des services de mobilité autonomes, des services de développement et d'intégration autonomes. La nouvelle suite de services PaaS autonomes d'Oracle apporte un niveau d'automatisation et de réduction des coûts sans précédent à nos clients », a encore déclaré M. Ellison pendant cette conférence téléphonique. « Notre suite de services PaaS autonome et hautement automatisée permet de baisser les coûts en réduisant la main-d'œuvre humaine et améliore la fiabilité et la sécurité en réduisant les erreurs humaines. Aucun autre fournisseur de cloud ne propose quelque chose de ce genre ». Le but ultime est d'utiliser l'apprentissage machine pour automatiser certaines fonctions IT clés de l'entreprise, comme le tuning, les sauvegardes et les mises à niveau, tout en offrant des performances et une disponibilité élevées. Cette automatisation devrait permettre aux clients de réduire les coûts et les risques et de prendre des décisions plus intelligentes. « L’environnement IT de l'entreprise de demain reposera sur une automatisation complète de bout en bout, et avec les offres d’Oracle, cela devient une réalité », a déclaré pour sa part Amit Zavery, vice-président directeur du développement des produits chez Oracle Cloud après l'annonce. En fait, Oracle estime que d'ici 2020, 80 % des opérations d'application et d'infrastructure seront réalisées de manière autonome. Afin de rendre ces prédictions plus concrètes, Oracle pense que l'ajout d'opérations autonomes simplifiera la gestion et augmentera la productivité. Selon Ray Wang, analyste principal chez Constellation Research, « cette volonté d'Oracle d'autonomiser complètement les opérations IT à travers sa « Pile rouge » est une option intéressante pour les clients. Au fur et à mesure qu'Oracle rattrape son retard dans le cloud, l'automatisation et la différenciation de l'intelligence artificielle pourraient devenir un atout pour l’éditeur en concurrence avec des fournisseurs présents avant lui sur ce marché, mais avec des architectures plus anciennes ». Oracle peut-il battre la concurrence ? L’éditeur a été accusé pendant longtemps d'être en retard sur le cloud, et il reste toujours à la traîne derrière les géants du cloud que sont AWS et Microsoft sur le marché lucratif de l'infrastructure en tant que service (IaaS). Selon Gartner, en 2016, Oracle ne se classait même pas parmi les dix premiers de l’industrie dans ce domaine. Cela n'a pas empêché Oracle de faire valoir haut et fort ses compétences en matière de cloud, autant lors de l’OpenWorld qu’à l’occasion de la communication de ses résultats trimestriels. Ainsi, lors de la communication des résultats du troisième trimestre 2018, Mark Hurd, le CEO d'Oracle, a déclaré : « Le fait est que nous prenons des parts de marché et l’ajout d’une base de données autonome à notre pipeline devrait encore renforcer la croissance de notre écosystème technologique ». Oracle peut dire que sa stratégie est payante et que ses derniers résultats financiers montrent que le chiffre d'affaires total du cloud a augmenté de 32 % au troisième trimestre 2018. Cependant, comme le fait remarquer Angela Eager de TechMarketView, « le taux de croissance du cloud a ralenti chaque trimestre », en recul à 44 % au deuxième trimestre et à 51 % au premier trimestre. Course à l'automatisation Oracle n'est certainement pas le seul à penser à l’automatisation des ressources cloud. En 2017, le CEO de Microsoft, Satya Nadella, grand évangélisateur du cloud, a transformé le mantra « cloud first, mobile first » d’Azure en mantra « intelligent cloud, intelligent edge ». Depuis, l'entreprise investit massivement dans l'intelligence artificielle et l'apprentissage machine pour offrir aux utilisateurs une plate-forme cloud plus intelligente. La différence avec la stratégie d'automatisation d'Oracle est subtile, mais les deux concurrents avancent toujours dans le même sens. Il faut aussi compter avec l’éditeur allemand SAP, qui teste des usages de l'automatisation avec des clients spécifiques en s’appuyant sur sa plate-forme Leonardo. Brenton O'Callaghan, responsable mondial de SAP Leonardo et Bluefin, a déclaré à nos confrères de Computerworld UK : « L’objectif de SAP en matière d'automatisation et d'entreprise intelligente est différent des autres : il se concentre sur les utilisateurs et les processus métiers plutôt que sur la technologie ». Dans le cas particulier de Leonardo, l’objectif est de fournir des solutions spécifiques aux clients « en donnant la priorité à leurs besoins et à leurs motivations ». « Ces solutions sont ensuite mises en œuvre grâce aux dernières technologies d'automatisation et d'intelligence artificielle utilisant la plate-forme cloud de SAP », a-t-il ajouté. Même si Oracle avait une longueur d’avance sur ce marché en terme d'innovation, il n’est certainement pas le seul à anticiper l'impact de l'automatisation sur l'industrie. Source: Le Monde de l'informatique Sujet connexe: L'emploi de 3 millions de salariés menacé par les robots d'ici 2025 Cela pour dire que la récolte et l'exploitation continue des données, quel que soit la définition retenue, est un des conditions du processus d'automatisation croissante des économies des pays développés. Plus précisément, les données acquises grâce aux technologies de l'hypersurveillance seraient exploitées économiquement par un nuée de logiciels de smart contract réagissant à certains types de données, lequels pourraient déclencher la réponse appropriée de logiciels de fintech, de legaltech ou de drone. Si cela rappelle quelque chose aux plus militaires d'entre vous, ne cherchez pas: c'est la doctrine américaine des Effect-Based Operations appliquée au domaine civil. Modifié le 10 avril 2018 par Lame orthographe Lien vers le commentaire Partager sur d’autres sites More sharing options...
Lame Posté(e) le 10 avril 2018 Share Posté(e) le 10 avril 2018 (modifié) Est-ce que la "révolution civile des affaires" en cours en Occident s'avérera plus utile que la RMA dont elle semble inspirée? Est-ce que la "transformation civile" censée y aboutir réussira là où la "transformation" des armées a si souvent trébuché? Le Gouvernement japonais en semble convaincu: Citation « Society 5.0 » ? La grande mutation sociétale japonaise en marche ! En 2016, le gouvernement japonais a présenté sa vision de la Société 5.0 (1) Dans le cadre de son cinquième plan « Sciences et technologies » (courant de 2016 à 2020) annoncé en avril 2016, le gouvernement japonais vise à réaliser ce qu’il appelle la « Society 5.0 » ou « Super Smart Society ». L’objectif est de fournir une infrastructure sociétale commune pour une nouvelle forme de prospérité, basée sur une plate-forme de services avancée. A noter que pour partager cette vision avec l’Europe, le gouvernement japonais a su profiter du dernier CEBIT en Allemagne, berceau de l’industrie 4.0, en permettant au Japon d’en être le pays partenaire 2017 (2) ! Le Japon a ses propres défis et, tout comme le concept d’Industrie 4.0 correspond à une nouvelle façon d’organiser les moyens de production (« usines intelligentes » ou « smart factories » (3)) la Société 5.0 vise à relever plusieurs défis, en allant bien au-delà de la simple numérisation de l’économie. La numérisation vise en effet tous les niveaux de la société japonaise et la transformation (numérique) de la société elle-même. Cela ne va pas sans d’importantes conséquences. Lors du dernier CeBIT 2017, pendant la plénière « Society 5.0 – Another Perspective », la présentation de cette route vers cette société super-intelligente a souligné le rôle particulièrement central des technologies telles que l’IoT (Internet of Things),l’IA (Artificial Intelligence), les systèmes cyber-physiques, le Big Data, la réalité virtuelle ou augmentée (VR/AR)… Pourtant, il serait faux de ne retenir qu’il s’agit uniquement de technologies. Une société numérique pour une population vieillissante L’un des défis particuliers du Japon est le vieillissement de la population. Même si le vieillissement n’est pas un problème en soi, il crée de nombreux défis, à différents niveaux, dont certains ne pourront être gérés que par des approches intelligentes : opérationnelles par la technologie certes, mais façonnées en amont par des personnes clairvoyantes… Le Japon a de loin la population «la plus âgée», 26,3% des japonais ayant plus de 65 ans. Dans les pays européens les plus âgés, il y a déjà plus de 25% de personnes âgées mais de 60 ans et plus, pas 65… Pour mettre ce nombre en perspective, il faut réaliser qu’on s’attend à ce que, dans le monde entier, plus de 20% de la population soit âgée de plus de 60 ans vers 2050. Cela signifie que ce que va faire le Japon -contraint par sa propre structure démographique- devrait être suivi par l’ensemble des pays développés : comment cette Société 5.0 va-t-elle fonctionner en réalité ? Cela devrait apporter beaucoup de leçons à tirer quant à ces perspectives de vieillissement de la population. La Santé y est d’ores et déjà le secteur le plus transformé numériquement. Dans les soins de santé, c’est non seulement la nécessité de traiter plus de maladies chroniques, qui surviennent avec un âge plus avancé ; mais surtout réorganiser dès maintenant les soins de santé en fonction de la réalité de cette population vieillissante (moins de jeunes pour les services à la personne par exemple) : les efforts de transformation numérique couplés à la transformation des protocoles de soins (y compris en y intégrant de nouvelles approches technologiques, par exemple des robots d’assistance) sont en cours. Vers la Société 5.0 au Japon : à condition d’abattre cinq murs Alors que la santé et d’autres aspects de la société sont influencés directement par le vieillissement de la population (pensez à la mobilité, les façons de vivre au quotidien, le logement, etc.), cette vision de la Société 5.0 pour le Japon ne concerne pas seulement cet aspect. Il s’agit de défis tout aussi importants et caractéristiques du pays : plus que beaucoup d’autres nations, le Japon doit régulièrement faire face à des catastrophes naturelles et à la pollution. Pour relever ces défis, la Société 5.0 doit ouvrir la voie… Tout comme l’industrie 4.0 est présentée comme la quatrième révolution industrielle, dans le document de position de Keidanren publié, la « Society 5.0 » est également représentée comme une évolution de cinq étapes sociétales : la société de chasse, la société agraire, la société industrielle, la société de l’information, la société super-intelligente « Society 5.0 ». Pour y parvenir, Keidanren (4) a publié un document de vision stratégique (5) en avril 2016 dans lequel il est clairement décrit que s’attaquer aux défis identifiés nécessitera la rupture de cinq murs de la société japonaise-même. Ce que le Japon veut faire, c’est porter cette dimension de la numérisation et de la transformation (qui se passe aujourd’hui principalement au niveau des organisations individuelles ou de parties actives de la société économique)au niveau d’une stratégie nationale de transformation complète, d’essence politique voire quasi-philosophique. Les 5 murs à franchir pour la Société 5.0 Le mur des Ministères et des Agences. Le plus immédiatement perceptible en citant le document de position de Keidanren : une « formulation de stratégies nationales et intégration du système de promotion porté par le gouvernement». Cela inclue l’architecture d’un « système IoT » opérationnel et l’instauration de Think Tanks de référence. Le mur du système juridique. En conséquence, les lois doivent être développées pour prendre en compte la mise en œuvre des techniques avancées. Dans la pratique, cela impliquera également des réformes réglementaires et une poussée de la numérisation administrative. Le mur des technologies. Le socle d’une formation adaptée pour tous, pour atteindre les « compétences de base » est un prérequis. Il est clair qu’ensuite les collectes de données utilisables joueront un rôle fondamental ici, couplées aux technologies / domaines à développer et à exploiter (de la cyber-sécurité à la robotique, à la nano, à la bio et autres technologies informatiques). Le document mentionne la nécessité d’un fort engagement et renforcement de la R&D à différents niveaux. Le mur des ressources humaines. Réforme de l’éducation, forte exposition l’éducation aux technologies de l’information, augmentation des ressources disponibles avec des spécialisations dans les compétences numériques avancées, ne sont que quelques briques. Il est intéressant de noter que, si le document devient réalité, le Japon devra non seulement ouvrir ses portes à des professionnels hautement qualifiés dans des domaines tels que la cyber-sécurité et la science des données, mais également veiller à « la promotion de la participation des femmes pour découvrir des talents potentiels ». Le mur social. Ce cinquième est de loin le plus audacieux et étendu: « le mur de l’acceptation sociale». C’est un aspect fondamental pour une nouvelle société « de tous ». Le plan stratégique de Keidanren ne fait que souligner la nécessité d’un consensus social, mais c’est bien entendu une analyse approfondie des implications sociales et même éthiques qui seront nécessaires (relation homme-machine, définition du bonheur individuel, voire même questionnement sur le transhumanisme …. Évidemment, dans la pratique, les étapes « industrie 4.0 » et la numérisation des organisations dans leur ensemble restent les composantes majeures du passage vers la « Société 5.0 ». Mais ce serait une erreur de croire que c’est l’industrie seule qui est concernée : il s’agit bien d’y associer toutes les parties prenantes, y compris les citoyens, les gouvernements, les universités, etc. Si un tel changement sociétal à cette échelle fonctionne et que le mur de l’acceptation sociale est abattu, alors le futur répondra à cette attente. En attendant, il ne suffit pas de faire des prédictions sur la réussite du Japon, mais plutôt d’imaginer comment utiliser ce modèle dans d’autres parties du monde, voire en France. Source: Sécurité & Défense Comme je l'ai dit plus haut, le big data est un moteur de l'automatisation. Là, on aura un modèle de société fondé sur le big data dans laquelle le big data favorise le développement de l'automatisation (des services essentiellements) avec le concours du dernier cri de l'automatisation (robotique) pour la collecte des données et leur exploitation dans le monde physique. Modifié le 10 avril 2018 par Lame Orthographe Lien vers le commentaire Partager sur d’autres sites More sharing options...
zx Posté(e) le 23 juillet 2018 Auteur Share Posté(e) le 23 juillet 2018 22-07-2018 La Direction générale de l’armement veut mettre l’intelligence artificielle et le Big Data au service des états-majors http://www.opex360.com/2018/07/22/direction-generale-de-larmement-veut-mettre-lintelligence-artificielle-big-data-service-etats-majors/ Lien vers le commentaire Partager sur d’autres sites More sharing options...
Messages recommandés
Créer un compte ou se connecter pour commenter
Vous devez être membre afin de pouvoir déposer un commentaire
Créer un compte
Créez un compte sur notre communauté. C’est facile !
Créer un nouveau compteSe connecter
Vous avez déjà un compte ? Connectez-vous ici.
Connectez-vous maintenant