Aller au contenu
Fini la pub... bienvenue à la cagnotte ! ×
AIR-DEFENSE.NET

«Big data» : le plan de la France pour concurrencer les géants américains


zx

Messages recommandés

 

Thales se renforce dans le domaine du Big Data

http://www.opex360.com/2017/05/01/thales-se-renforce-dans-le-domaine-du-big-data/

Pour les armées, le Big Data, vu par certains comme étant le « nouveau pétrole », peut avoir des applications concrètes, comme par exemple en matière de cybersécurité, de maintenance, avec l’analyse des données produites par des capteurs, l’idée étant de prédire en quelque sorte l’avenir par rapport au passé, d’aide à la décision ou encore de logistique, dans la mesure où il sera possible d’optimiser les flux.

Mais l’application sans doute la plus évidente reste celle liée au renseignemement. L’analyse d’un volume important de données peut permettre de détecter ce que l’on appelle les « signaux faibles« . Mais pas seulement. En février 2015, le SIA LAB (Système d’Information des Armées), devenu récemment DGA LAB, avait ainsi présenté trois entreprises qui, spécialisées dans le Big Data, présentèrent des solutions visant à acéquérir, traiter et exploiter des données de tout type et de tout format collectées par plusieurs capteurs.

L’État-major des armées explique ainsi que la « collecte, la capitalisation et l’exploitation des données constituant le centre névralgique du cycle du renseignement, la DRM [Direction du renseignement militaire] recueille des volumes massifs de données issues de capteurs multiples et a constamment besoin d’optimiser ses systèmes d’information » étant donné que « leur réactivité conditionne directement la pertinence du renseignement militaire fourni aux forces en opérations et aux décideurs politiques et militaires. »

Modifié par zx
Lien vers le commentaire
Partager sur d’autres sites

Je suppose que le NSA français existe depuis longtemps, l'évolution de la technologie leur permet d'améliorer le traitement sur une masse d'information de plus en plus importante. surtout de nos jours.

ca peut servir à beaucoup de chose, pour le mieux ou pour le pire, exemple les avions qui sont bourrés d'électronique et de capteur, un système big data peut collecter énormément de données provenant de source hétérogène

pour représenter et analyser une situation tactique, un suivi de maintenance, de gerer le traffic aérien, traiter l'environnement electromagnétique, suivre la répartition électrique d'un bâtiment.

Ca reste un outil de la continuité des base de données. Reste à savoir quel usage on en fait.

On peut très bien suivre l'activité d'une personne ou d'un groupe, son portable, ses activités internet (pages, requêtes, réseaux sociaux,etc..), ses paiements, ses déplacements (hotels,restaurant,aeroport,boutiques,gare,peage), son téléphone, bientôt les objets connectés, les fichiers associés, etc.. en complément des rapports de terrain.

Quand  au modèle prédictifs tout dépend ce qu'on souhaite obtenir, il ne faut pas oublier quels sont les besoins au départ, puis le statisticien ou le spécialiste qu'on met derrière pour définir les modèles, reste la mise en oeuvre de l'outil.

 

Modifié par zx
Lien vers le commentaire
Partager sur d’autres sites

Juste une question de moyen mais la France par le biais de ses lois à mis en place en toute discrétion des moyens d'écoute....Le big data n'est qu'un outil de plus pour sortir une probabilité ou une tendance....

Lien vers le commentaire
Partager sur d’autres sites

Le ‎16‎/‎04‎/‎2015 à 21:30, Pierre_F a dit :

Le big data : c'est un stockage mutualisé gigantesque et on peut mutualiser les données et ou faire des sous ensembles de données spécialisées. Pour accéder et enregistrer ces données, les méthodes de requêtes sont différentes  (non sql) et on peut mettre des données structurées (nom, prénom, date etc) ou non structurée (pdf, scan, video, sons etc). Un big Data c'est donc un pot commun de données de tout type virtualisé ce qui ne veut pas dire dans un lieu de stockage unique.

Pierre_F, sur base de ce que tu sais sur cette technnologie, qu'est-ce qu'il faudrait inventer pour pouvoir faire du Big Data avec uniquement des tablettes et des smartphones à partir de 2045?

 

Lien vers le commentaire
Partager sur d’autres sites

Le ‎2‎/‎05‎/‎2017 à 17:23, kotai a dit :

Pouvoir mettre des xéons en architecture neuronal dans une tablette?

Désolé mais je n'ai rien compris.

Le ‎2‎/‎05‎/‎2017 à 22:43, Pierre_F a dit :

Je dirais du spark en grid avec des vitesses optiques. ...  (peut être hein ! parce qu'en 2045, on a 30 ans de devant nous et que l'adoption des smartphones n'a pris que 7 ans ...) . Sinon l'accès à des assistants intelligents qui iront chercher dans un big data, c'est pour maintenant. 

Dans 30 ans, on aura peut être des ordinateurs quantiques dans la poche ... ce qui serait une énorme performance vu la dimension des bêtes aujourd'hui.

"Apache Spark est une infrastructure de traitement parallèle open source qui permet d'exécuter des applications analytiques d’envergure, en utilisant des machines en clusters." Source

Si j'ai bien compris, il faut des tours remplies d'armoires remplies d'ordinateurs connectés aux smartphones (ou ce qui le remplacera: montre à hologramme tactique, neuromat avec cyberconsole, organelles borg, etc...) par LiFi.

Pardon, si je rame mais je suis un molledu, pas un netrunner.

Lien vers le commentaire
Partager sur d’autres sites

Je répète encore une fois ici vu que le big data c'est un peu mon domaine: 99% des gens ne savent même pas de quoi ils parlent en évoquant le big data!

Big data c'est un mot fourre tout comme dire "il est dans la médecine". Médecin? Cardiologue? Infirmier? Pharmacien? Chercheur? Bref c'est un immense bordel.

Big data c'est soit

- la collecte de montagnes d'informations

- la mise en cohérence de ces montagnes d'information. C'est pour cela que les séries TV qui montrent comment trier les données et isoler les suspects font pleurer de rire les spécialistes: on passe 95% de note temps à traiter les données (formats, cohérences, erreurs,...) et ça prend un temps fou.

- analyser les données en

1) créant des modèles (et c'est un métier TRES compliqué) classiques de type économétrie, PCA

2) utilisant les modèles usuels conçus pour des bases réduites

3) faire de l'analyse massive genre Hadoop

Mais un scoop pour vous: ça ne marche PAS (entout cas pas encore). Je veux dire par là que les méthodes d'analyse actuelles ont été conçus pendant 60 ans sur des données assez limités et les process de calculs sont optimisés pour. En pratique faire un clustering tout simple par une classification hiérarchique selon ma méthode de Ward en distance euclidienne (un truc vraiment basique), c'est super simple avec quelques centaines de personnes mais l'ordinateur va vomir sur tes pompes si tu tentes de le faire avec 3 millions de personnes. Les méthodes d'analyse massives sont très astucieuses conceptuellement mais d'une simplicité théorique à faire peur.

Regardez un peu le code: https://books.google.fr/books?id=wBwRCwAAQBAJ&pg=PA275&lpg=PA275&dq=hadoop+méthode+type+analyse&source=bl&ots=NRL59WrCKV&sig=4-8PQiMueVL18DuEhGWRho__cNg&hl=fr&sa=X&ved=0ahUKEwjGvInJmuXTAhVEHxoKHQjIBcgQ6AEIbzAH#v=onepage&q=hadoop méthode type analyse&f=false

C'est par exemple utilisé par spotify pour générer des playlists conjioncturelles en fonction des goûts des individus mais ca va pas chercher super loin en terme théorique.

En fait il n'existe pas encore d'outils vraiment imaginés pour de la donnée massive et utilisables. C'est un domaine qui bouge beaucoup.

 

 

  • Merci (+1) 1
  • Upvote (+1) 2
Lien vers le commentaire
Partager sur d’autres sites

Ma question: qu'est ce qui marche bien? Trier ça marche. Faire tourner un modèle existant et l'appliquer sur les données ça marche. Par contre créer un modèle en temps réel avec les données (toutes), là on rame un peu.

J'ai une question vraiment vraiment sérieuse: le coeur du truc c'est l'étape de l'analyse. Tout le reste c'est de la manip de données et de la mise en parallèle (ça marche bien comme tu dis) Quels sont les outils que tu utilises? Vraiment. C'est quoi la méthode?

Tu fais de la classification? segmentation? arbres? forêt aléatoire? association? supervisée ou non? réseau neuronal? bayes? Je suis très curieux de voir car c'est là que se situe la plus value.

 

Lien vers le commentaire
Partager sur d’autres sites

Il y a 11 heures, cracou a dit :

Ma question: qu'est ce qui marche bien? Trier ça marche. Faire tourner un modèle existant et l'appliquer sur les données ça marche. Par contre créer un modèle en temps réel avec les données (toutes), là on rame un peu.

J'ai une question vraiment vraiment sérieuse: le coeur du truc c'est l'étape de l'analyse. Tout le reste c'est de la manip de données et de la mise en parallèle (ça marche bien comme tu dis) Quels sont les outils que tu utilises? Vraiment. C'est quoi la méthode?

Tu fais de la classification? segmentation? arbres? forêt aléatoire? association? supervisée ou non? réseau neuronal? bayes? Je suis très curieux de voir car c'est là que se situe la plus value.

 

Hello, Je me permet de répondre car je fais du Big Data depuis 6 ans (dès le début) avec des implémentations importantes pour des opérateurs/banques aux US, Europe et je suis fondateur/CEO d'une startup qui fait du réal time analytics, on fait du real time fraud detection et du real time cyber attack detection en utilisant l'intelligence artificielle et des données temps réel depuis toute l'infrastructure (juste pour décrire le contexte)

1) Créer un modèle en temps réel est impossible, on crée un modèle qu'on applique sur des données en temps réel pour avoir de la prédiction/classification,

2) Pour la mise en parallèle et la création du modèle, tu peux utiliser du python en distribué ou du Spark. ça marche sur du Peta de données mais ça prend du temps. Les modèles générés peuvent alors être utilisé sur un flux de données temps réel pour analyser et détecter les problèmes/anomalies. Python a plusieurs options qui permettent de réutiliser le modèle et de l'améliorer tous les jours avec de nouvelles données sans refaire toute l'analyse.

3) On fait plusieurs combinaison avec du machine learning (Random forest)/du boosting/ du non supervisé afin de détecter les "outiler" et faire du "behavioral analytics" et ça donne de très très bon résultats en temps réel sur les données avec une précision très très haute (plus de 98%)

  • Upvote (+1) 4
Lien vers le commentaire
Partager sur d’autres sites

Citation


1) Créer un modèle en temps réel est impossible, on crée un modèle qu'on applique sur des données en temps réel pour avoir de la prédiction/classification,

Bien d'accord. Pou le moment c'est de l'utopie.

Citation

2) Pour la mise en parallèle et la création du modèle, tu peux utiliser du python en distribué ou du Spark. ça marche sur du Peta de données mais ça prend du temps. Les modèles générés peuvent alors être utilisé sur un flux de données temps réel pour analyser et détecter les problèmes/anomalies. Python a plusieurs options qui permettent de réutiliser le modèle et de l'améliorer tous les jours avec de nouvelles données sans refaire toute l'analyse.

Oui. Je suis un vieux donc je faisais du R mais maintenant on bascule en python. En fonction des modèles on utilise une mise à jour progressive mais des fois c'est pas possible :(   Tu parles de bayésien?
 

Citation


3) On fait plusieurs combinaison avec du machine learning (Random forest)/du boosting/ du non supervisé afin de détecter les "outiler" et faire du "behavioral analytics" et ça donne de très très bon résultats en temps réel sur les données avec une précision très très haute (plus de 98%)

 

Random forest, c'est logique (et finalement très simple dans le principe). Pour le boosting, tu ne fais pas de bagging? Sinon quand ut parles de précision... tu parles de quelle prévision (vrai positif, vrai négatif, rappel, alpha, beta...). Rien que pour te titille, 98% c'est vraiment pas très élevé (hihihiiiiii, donne un peu les faux négatifs et faux positifs).

 

 

 

Lien vers le commentaire
Partager sur d’autres sites

Il y a 7 heures, cracou a dit :

Oui. Je suis un vieux donc je faisais du R mais maintenant on bascule en python. En fonction des modèles on utilise une mise à jour progressive mais des fois c'est pas possible :(   Tu parles de bayésien?

Je parles de Random forest et boosting.

Tout le monde migre de R/SAS vers Python ou Spark, c'est le futur 

Il y a 7 heures, cracou a dit :

Random forest, c'est logique (et finalement très simple dans le principe). Pour le boosting, tu ne fais pas de bagging? Sinon quand ut parles de précision... tu parles de quelle prévision (vrai positif, vrai négatif, rappel, alpha, beta...). Rien que pour te titille, 98% c'est vraiment pas très élevé (hihihiiiiii, donne un peu les faux négatifs et faux positifs).

Je parle de Gradient Boosting approach: http://machinelearningmastery.com/gentle-introduction-gradient-boosting-algorithm-machine-learning/

Je parle de vrai positif seulement (sinon ça n'aurait pas de sens). Pour la réduction de faux positifs, on parle de plus de 70% de moins par rapport à un système classique d'une banque/telecom. 

Sinon, il y'a ça:

http://www.latribune.fr/entreprises-finance/industrie/aeronautique-defense/thales-avale-une-start-up-californienne-et-confirme-vouloir-devenir-un-leader-du-big-data-699406.html

Lien vers le commentaire
Partager sur d’autres sites

Tu vas rire l'idée de fonction de perte je l'ai rencontré il y a très très longtemps avec l'approche de la qualité par Tagushi. Il avait de bonnes idées celui là. Il doit y avoir pas mal de boulot de paramétrage car tu dois overfitter comme un malade au début.

Lien vers le commentaire
Partager sur d’autres sites

  • 10 months later...

je doute que les vieux machins disposent des objets connectés pour remonter de l'info. ca ne peut marcher qu'avec l'arrivé de nouveau

matos. tout dépend du volume d'info à traiter.

Avec DOMINNO, le ministère des Armées lance un projet de maintenance prédictive basé sur le big data

http://www.opex360.com/2018/03/26/dominno-ministere-armees-lance-projet-de-maintenance-predictive-base-big-data/

Modifié par zx
Lien vers le commentaire
Partager sur d’autres sites

  • 2 weeks later...

Je fais un bref encart sur un sujet moins technique:
 

Citation

 

L'automatisation au coeur de la stratégie cloud d'Oracle

Pour rester compétitif face aux géants et vieux rivaux du cloud que sont Amazon Web Services et Microsoft, Oracle mise de plus en plus sur un différentiateur clé : l'automatisation.

Si nous nous sommes longtemps interrogés sur la cohérence de la stratégie cloud d‘Oracle, l’éditeur a fini par comprendre qu’il ne pouvait plus faire l’impasse sur cette technologie embrassée par ses concurrents directs. Et pour se distinguer et rattraper son retard, big red mise aujourd’hui sur l’automatisation. En 2017, lors de l’Oracle OpenWorld, l’éditeur avait déjà lancé une « base de données autonome ». À l’époque, le fondateur et CTO Larry Ellison avait affirmé que cette base de données pourrait fonctionner automatiquement sans administrateur de base de données, et qu’elle comprendrait des fonctions d'auto-configuration, d'auto-provisionnement et d'auto-correction.

Pour arriver à cela, Oracle a doté sa base de données - commercialisée sous le nom d'Oracle 18c - de techniques d'apprentissage machine capables d’anticiper et d’automatiser n’importe quel scénario. « La base de données autonome d’Oracle est maintenant globalement disponible dans le cloud d’Oracle, et d'autres services cloud autonomes seront prochainement ajoutés », a déclaré cette fois M. Ellison lors d'une conférence téléphonique sur les résultats du troisième trimestre 2018. « Aucun autre fournisseur de cloud ne dispose d'une base de données entièrement automatisée, d’un système qui traite automatiquement et immédiatement de la sécurité des actifs sans temps d'arrêt programmé. Les fonctions autonomes de la base de données d'Oracle sont absolument uniques ».

Une offre PaaS automatisée 

Mais ce n’est pas tout. Au mois de février, le fournisseur a réaffirmé ces promesses en annonçant qu'il allait étendre le niveau d'automatisation bien au-delà de la base de données, puisque celui-ci concernerait tous les autres éléments de sa plate-forme cloud. Autrement dit, toutes ses offres PaaS seront auto-contrôlées, auto-sécurisées et autoréparables. « Avant la fin de cette année, nous fournirons des services d'analyse autonomes, des services de mobilité autonomes, des services de développement et d'intégration autonomes. La nouvelle suite de services PaaS autonomes d'Oracle apporte un niveau d'automatisation et de réduction des coûts sans précédent à nos clients », a encore déclaré M. Ellison pendant cette conférence téléphonique. « Notre suite de services PaaS autonome et hautement automatisée permet de baisser les coûts en réduisant la main-d'œuvre humaine et améliore la fiabilité et la sécurité en réduisant les erreurs humaines. Aucun autre fournisseur de cloud ne propose quelque chose de ce genre ».

Le but ultime est d'utiliser l'apprentissage machine pour automatiser certaines fonctions IT clés de l'entreprise, comme le tuning, les sauvegardes et les mises à niveau, tout en offrant des performances et une disponibilité élevées. Cette automatisation devrait permettre aux clients de réduire les coûts et les risques et de prendre des décisions plus intelligentes. « L’environnement IT de l'entreprise de demain reposera sur une automatisation complète de bout en bout, et avec les offres d’Oracle, cela devient une réalité », a déclaré pour sa part Amit Zavery, vice-président directeur du développement des produits chez Oracle Cloud après l'annonce. En fait, Oracle estime que d'ici 2020, 80 % des opérations d'application et d'infrastructure seront réalisées de manière autonome. Afin de rendre ces prédictions plus concrètes, Oracle pense que l'ajout d'opérations autonomes simplifiera la gestion et augmentera la productivité. Selon Ray Wang, analyste principal chez Constellation Research, « cette volonté d'Oracle d'autonomiser complètement les opérations IT à travers sa « Pile rouge » est une option intéressante pour les clients. Au fur et à mesure qu'Oracle rattrape son retard dans le cloud, l'automatisation et la différenciation de l'intelligence artificielle pourraient devenir un atout pour l’éditeur en concurrence avec des fournisseurs présents avant lui sur ce marché, mais avec des architectures plus anciennes ».

Oracle peut-il battre la concurrence ?

L’éditeur a été accusé pendant longtemps d'être en retard sur le cloud, et il reste toujours à la traîne derrière les géants du cloud que sont AWS et Microsoft sur le marché lucratif de l'infrastructure en tant que service (IaaS). Selon Gartner, en 2016, Oracle ne se classait même pas parmi les dix premiers de l’industrie dans ce domaine. Cela n'a pas empêché Oracle de faire valoir haut et fort ses compétences en matière de cloud, autant lors de l’OpenWorld qu’à l’occasion de la communication de ses résultats trimestriels. Ainsi, lors de la communication des résultats du troisième trimestre 2018, Mark Hurd, le CEO d'Oracle, a déclaré : « Le fait est que nous prenons des parts de marché et l’ajout d’une base de données autonome à notre pipeline devrait encore renforcer la croissance de notre écosystème technologique ». Oracle peut dire que sa stratégie est payante et que ses derniers résultats financiers montrent que le chiffre d'affaires total du cloud a augmenté de 32 % au troisième trimestre 2018. Cependant, comme le fait remarquer Angela Eager de TechMarketView, « le taux de croissance du cloud a ralenti chaque trimestre », en recul à 44 % au deuxième trimestre et à 51 % au premier trimestre.

Course à l'automatisation

Oracle n'est certainement pas le seul à penser à l’automatisation des ressources cloud. En 2017, le CEO de Microsoft, Satya Nadella, grand évangélisateur du cloud, a transformé le mantra « cloud first, mobile first » d’Azure en mantra « intelligent cloud, intelligent edge ». Depuis, l'entreprise investit massivement dans l'intelligence artificielle et l'apprentissage machine pour offrir aux utilisateurs une plate-forme cloud plus intelligente. La différence avec la stratégie d'automatisation d'Oracle est subtile, mais les deux concurrents avancent toujours dans le même sens. Il faut aussi compter avec l’éditeur allemand SAP, qui teste des usages de l'automatisation avec des clients spécifiques en s’appuyant sur sa plate-forme Leonardo. Brenton O'Callaghan, responsable mondial de SAP Leonardo et Bluefin, a déclaré à nos confrères de Computerworld UK : « L’objectif de SAP en matière d'automatisation et d'entreprise intelligente est différent des autres : il se concentre sur les utilisateurs et les processus métiers plutôt que sur la technologie ». Dans le cas particulier de Leonardo, l’objectif est de fournir des solutions spécifiques aux clients « en donnant la priorité à leurs besoins et à leurs motivations ». « Ces solutions sont ensuite mises en œuvre grâce aux dernières technologies d'automatisation et d'intelligence artificielle utilisant la plate-forme cloud de SAP », a-t-il ajouté. Même si Oracle avait une longueur d’avance sur ce marché en terme d'innovation, il n’est certainement pas le seul à anticiper l'impact de l'automatisation sur l'industrie.

 

Source: Le Monde de l'informatique Sujet connexe: L'emploi de 3 millions de salariés menacé par les robots d'ici 2025

 

Cela pour dire que la récolte et l'exploitation continue des données, quel que soit la définition retenue, est un des conditions du processus d'automatisation croissante des économies des pays développés. Plus précisément, les données acquises grâce aux technologies de l'hypersurveillance seraient exploitées économiquement par un nuée de logiciels de smart contract réagissant à certains types de données, lequels pourraient déclencher la réponse appropriée de logiciels de fintech, de legaltech ou de drone.

Si cela rappelle quelque chose aux plus militaires d'entre vous, ne cherchez pas: c'est la doctrine américaine des Effect-Based Operations appliquée au domaine civil.

Modifié par Lame
orthographe
Lien vers le commentaire
Partager sur d’autres sites

 

Est-ce que la "révolution civile des affaires" en cours en Occident s'avérera plus utile que la RMA dont elle semble inspirée? Est-ce que la "transformation civile" censée y aboutir réussira là où la "transformation" des armées a si souvent trébuché? Le Gouvernement japonais en semble convaincu:

Citation

 

« Society 5.0 » ? La grande mutation sociétale japonaise en marche !

En 2016, le gouvernement japonais a présenté sa vision de la Société 5.0 (1)

Dans le cadre de son cinquième plan « Sciences et technologies » (courant de 2016 à 2020) annoncé en avril 2016, le gouvernement japonais vise à réaliser ce qu’il appelle la « Society 5.0 » ou « Super Smart Society ». L’objectif est de fournir une infrastructure sociétale commune pour une nouvelle forme de prospérité, basée sur une plate-forme de services  avancée. A noter que pour partager cette vision avec l’Europe, le gouvernement japonais a su profiter du dernier CEBIT en Allemagne, berceau de l’industrie 4.0, en permettant au Japon d’en être le pays partenaire 2017 (2) !

Le Japon a ses propres défis et, tout comme le concept d’Industrie 4.0 correspond à une nouvelle façon d’organiser les moyens de production (« usines intelligentes » ou « smart factories » (3)) la Société 5.0 vise à relever plusieurs défis, en allant bien au-delà de la simple  numérisation de l’économie. La numérisation vise en effet tous les niveaux de la société japonaise et la transformation (numérique) de la société elle-même. Cela ne va pas sans d’importantes conséquences. Lors du dernier CeBIT 2017, pendant la plénière « Society 5.0 – Another Perspective », la présentation de cette route vers cette société super-intelligente a souligné le rôle particulièrement central des technologies telles que l’IoT (Internet of Things),l’IA (Artificial Intelligence), les systèmes cyber-physiques, le Big Data, la réalité virtuelle ou augmentée (VR/AR)… Pourtant, il serait faux de ne retenir qu’il s’agit uniquement de technologies.

Une société numérique pour une population vieillissante

L’un des défis particuliers du Japon est le vieillissement de la population. Même si le vieillissement n’est pas un problème en soi, il crée de nombreux défis, à différents niveaux, dont certains ne pourront être gérés que par des approches intelligentes : opérationnelles par la technologie certes, mais façonnées en amont par des personnes clairvoyantes…

Le Japon a de loin la population «la plus âgée», 26,3% des japonais ayant plus de 65 ans. Dans les pays européens les plus âgés, il y a déjà plus de 25% de personnes âgées mais de 60 ans et plus, pas 65… Pour mettre ce nombre en perspective, il faut réaliser qu’on s’attend à ce que, dans le monde entier, plus de 20% de la population soit âgée de plus de 60 ans vers 2050. Cela signifie que ce que va faire le Japon -contraint par sa propre structure démographique- devrait être suivi par l’ensemble des pays développés : comment cette Société 5.0 va-t-elle fonctionner en réalité ? Cela devrait apporter beaucoup de leçons à tirer quant à ces perspectives de vieillissement de la population.

La Santé y est d’ores et déjà le secteur le plus transformé numériquement.

Dans les soins de santé, c’est non seulement la nécessité de traiter plus de maladies chroniques, qui surviennent avec un âge plus avancé ; mais surtout réorganiser dès maintenant les soins de santé en fonction de la réalité de cette population vieillissante (moins de jeunes pour les services à la personne par exemple) : les efforts de transformation numérique couplés à la transformation des protocoles de soins (y compris en y intégrant de nouvelles approches technologiques, par exemple des robots d’assistance) sont en cours.

Vers la Société 5.0 au Japon : à condition d’abattre cinq murs

Alors que la santé et d’autres aspects de la société sont influencés directement par le vieillissement de la population (pensez à la mobilité, les façons de vivre au quotidien, le logement, etc.), cette vision de la Société 5.0 pour le Japon ne concerne pas seulement cet aspect. Il s’agit de défis tout aussi importants et caractéristiques du pays : plus que beaucoup d’autres nations, le Japon doit régulièrement faire face à des catastrophes naturelles et à la pollution. Pour relever ces défis, la Société 5.0 doit ouvrir la voie…

Tout comme l’industrie 4.0 est présentée comme la quatrième révolution industrielle, dans le document de position de Keidanren  publié, la « Society 5.0 » est également représentée comme une évolution de cinq étapes sociétales : la société de chasse, la société agraire, la société industrielle, la société de l’information, la société super-intelligente « Society 5.0 ».

Pour y parvenir, Keidanren (4) a publié un document de vision stratégique (5) en avril 2016 dans lequel il est clairement  décrit que s’attaquer aux défis identifiés nécessitera la rupture de cinq murs de la société japonaise-même. Ce que le Japon veut faire, c’est porter cette dimension de la numérisation et de la transformation (qui se passe aujourd’hui principalement au niveau des organisations individuelles ou de parties actives de la société économique)au niveau d’une stratégie nationale de transformation complète, d’essence politique voire quasi-philosophique.

Les 5 murs à franchir pour la Société 5.0

Le mur des Ministères et des Agences. Le plus immédiatement perceptible en citant le document de position de Keidanren : une « formulation de stratégies nationales et intégration du système de promotion porté par le gouvernement». Cela inclue l’architecture d’un « système IoT » opérationnel et l’instauration de Think Tanks de référence.

Le mur du système juridique. En conséquence, les lois doivent être développées pour prendre en compte la mise en œuvre des techniques avancées. Dans la pratique, cela impliquera également des réformes réglementaires et une poussée de la numérisation administrative.

Le mur des technologies. Le socle d’une formation adaptée pour tous, pour atteindre les « compétences de base » est un prérequis. Il est clair qu’ensuite les collectes de données utilisables joueront un rôle fondamental ici, couplées aux technologies / domaines à développer et à exploiter (de la cyber-sécurité à la robotique, à la nano, à la bio et autres technologies informatiques). Le document mentionne la nécessité d’un fort engagement et renforcement de la R&D à différents niveaux.

Le mur des ressources humaines. Réforme de l’éducation, forte exposition l’éducation aux technologies de l’information, augmentation des ressources disponibles avec des spécialisations dans les compétences numériques avancées, ne sont que quelques briques. Il est intéressant de noter que, si le document devient réalité, le Japon devra non seulement ouvrir ses portes à des professionnels hautement qualifiés dans des domaines tels que la cyber-sécurité et la science des données, mais également veiller à « la promotion de la participation des femmes pour découvrir des talents potentiels ».

Le mur social. Ce cinquième est de loin le plus audacieux et étendu: « le mur de l’acceptation sociale». C’est un aspect fondamental pour une nouvelle société « de tous ».

Le plan stratégique de Keidanren ne fait que souligner la nécessité d’un consensus social, mais c’est bien entendu une analyse approfondie des implications sociales et même éthiques qui seront nécessaires (relation homme-machine, définition du bonheur individuel, voire même questionnement sur le transhumanisme …. Évidemment, dans la pratique, les étapes « industrie 4.0 » et la numérisation des organisations dans leur ensemble restent les composantes majeures du passage vers la « Société 5.0 ». Mais ce serait une erreur de croire que c’est l’industrie seule qui est concernée : il s’agit bien d’y associer toutes les parties prenantes, y compris les citoyens, les gouvernements, les universités, etc. Si un tel changement sociétal à cette échelle fonctionne et que le mur de l’acceptation sociale est abattu, alors le futur répondra à cette attente. En attendant, il ne suffit pas  de faire des prédictions sur la réussite du Japon, mais plutôt d’imaginer comment utiliser ce modèle dans d’autres parties du monde, voire en France.

 

Source: Sécurité & Défense

Comme je l'ai dit plus haut, le big data est un moteur de l'automatisation. Là, on aura un modèle de société fondé sur le big data dans laquelle le big data favorise le développement de l'automatisation (des services essentiellements) avec le concours du dernier cri de l'automatisation (robotique) pour la collecte des données et leur exploitation dans le monde physique.

Modifié par Lame
Orthographe
Lien vers le commentaire
Partager sur d’autres sites

  • 3 months later...

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant
  • Statistiques des membres

    6 003
    Total des membres
    1 749
    Maximum en ligne
    pandateau
    Membre le plus récent
    pandateau
    Inscription
  • Statistiques des forums

    21,6k
    Total des sujets
    1,7m
    Total des messages
  • Statistiques des blogs

    4
    Total des blogs
    3
    Total des billets
×
×
  • Créer...