Bruno Posté(e) le 12 juin 2018 Share Posté(e) le 12 juin 2018 (modifié) Article publicitaire de Safran sur leur dernière boule "haut de gamme" Euroflir-410 (gabarit 16''), avec une vidéo de 4 min vraiment sympa > https://www.safran-electronics-defense.com/euroflir410/ Modifié le 12 juin 2018 par Bruno Lien vers le commentaire Partager sur d’autres sites More sharing options...
herciv Posté(e) le 25 juin 2018 Auteur Share Posté(e) le 25 juin 2018 Parlons un peu de technologie de "furtivation" dans l'infra rouge : https://www.futura-sciences.com/tech/actualites/drole-tech-drole-tech-meteo-futur-feuille-furtive-rend-invisible-grand-orchestre-robots-71718/ Cette feuille rend invisible aux caméras infrarouges des drones Des chercheurs de l'université du Wisconsin-Madison ont développé une « feuille furtive » qui peut efficacement cacher les humains, les voitures et d'autres objets de la détection par la caméra infrarouge d'un drone. La feuille en question présente une épaisseur équivalente à dix feuilles de papier. Souple, elle peut absorber 94 % de la lumière infrarouge qui la frappe grâce à sa composition à base de silicium noir dont les cristaux créent l'apparence d'une « forêt » d'aiguilles qui piègent les ondes lumineuses. Cette feuille a déjà été testée sur un corps humain ainsi qu'une voiture. Les chercheurs veulent désormais poursuivre le développement, en espérant que leur innovation puisse un jour servir aux armées sur le champ de bataille. Pour en savoir plus : https://onlinelibrary.wiley.com/doi/abs/10.1002/adem.201800038 La « feuille furtive » développée par l'université du Wisconsin-Madison bloque 94 % de la lumière infrarouge. © Hongrui Jiang, University of Wisconsin-Madison Lien vers le commentaire Partager sur d’autres sites More sharing options...
g4lly Posté(e) le 25 juin 2018 Share Posté(e) le 25 juin 2018 Sauf que ça crée un trou noir sur un fond pas forcément tout noir ... il suffit alors de chercher les trous ... c'est la même problématique avec certaines solution de furtivité radar ou sonar. L'objectif n'est pas de créer un écran noir .. mais bien un illusion de transparence. On sait le faire avec les onde métallique pour des spectre étroit ... un peu dans l'EM aussi ... notamment pour rendre transparente les éoliennes. 1 1 Lien vers le commentaire Partager sur d’autres sites More sharing options...
herciv Posté(e) le 22 mars 2020 Auteur Share Posté(e) le 22 mars 2020 SUper article sur l'état de l'art en matière de capteur SWIR et son impact sur la furtivité. https://www.air-cosmos.com/article/vers-la-fin-de-la-furtivit-22782 1 Lien vers le commentaire Partager sur d’autres sites More sharing options...
Bruno Posté(e) le 29 juin 2020 Share Posté(e) le 29 juin 2020 (modifié) Un grand progrès vient d'être réalisé, concernant le pointage rapide des menaces asymétriques, grâce à la campagne d'essais du pointeur intuitif (IPD = Intuitive Pointing Device" de la PME SeaOwl Technology Solutions qui vient d'avoir lieu pendant 4 jours sur le PAG 733 "La Confiance" > https://www.navalnews.com/naval-news/2020/06/seaowl-technology-solutions-completes-sea-trials-of-its-ipd-aboard-la-confiance-class-patrol-vessel/ L'article explique que le dispositif portable a permis de détecter un semi-rigide en approche à 2.7 Mn (soit 4800 mètres), d'en reconnaître le type exact à 1.6 Mn (soit 2800 mètres), et de voir exactement combien il y avait de personnes à bord à 0.5 Mn (soit 900 mètres). Ensuite, le pointage et la désignation de la cible au profit du canon Narwhal-20B (auquel l'IPD était couplé) semble avoir parfaitement fonctionné, permettant des tirs précis jusqu'à 3000m. La vidéo YouTube inséré dans l'article montre bien qu'en à peine quelque secondes la canon tourne et se pointe sur la cible, désignée par le marin qui est sur la terrasse avant du PAG avec l'appareil en mains. Modifié le 29 juin 2020 par Bruno 2 Lien vers le commentaire Partager sur d’autres sites More sharing options...
Bruno Posté(e) le 21 juin 2021 Share Posté(e) le 21 juin 2021 Raytheon développe un système optronique "Neuromorphique". D'après ce que je comprends de l'article, il consommera moins d'énergie, tout en étant plus efficace dans des conditions difficiles. Cela grâce à des circuits imitant l'organisation du cerveau humain ; ces circuits s'animeront (et donc ne consommeront de l'électricité) que lorsqu'il y a des changements dans le décor. > https://www.shephardmedia.com/news/defence-notes/raytheon-develop-next-generation-neuromorphic-came/?utm_source=twitter&utm_medium=auto_post&utm_campaign=news_promo 1 Lien vers le commentaire Partager sur d’autres sites More sharing options...
C’est un message populaire. herciv Posté(e) le 14 juin 2022 Auteur C’est un message populaire. Share Posté(e) le 14 juin 2022 Sophie une caméra à tout faire permettant de diviser par trois les temps d'envoi de mission à l'artillerie : https://lexpansion.lexpress.fr/actualite-economique/du-cinema-a-la-guerre-comment-thales-invente-l-armee-du-futur_2174971.html Du cinéma à la guerre, comment Thales invente l'armée du futur Par hasard, un ancien officier parachutiste devenu directeur industriel chez Thales a mis au point un nouvel outil vital pour les militaires. La production est lancée dans une usine historique du cinéma français. La nouvelle caméra multifonction de Thalès intègre un outil de localisation unique au monde. Par Sébastien Pommier Publié le 12/06/2022 à 17:00, mis à jour le 13/06/2022 à 09:36 La "révolution française", comme l'appelle Pascal Sécretin, est née au fond d'un tiroir. Alors que cet ancien officier parachutiste, qui a notamment servi en Afghanistan, découvre les rudiments de la vie de bureau chez l'industriel de défense Thales, le quinquagénaire déniche par hasard un classeur avec des dizaines de brevets. Et parmi eux, un épais dossier de 200 pages l'interpelle. "Il y avait des matrices et beaucoup de lignes de calculs... J'ai un peu hésité avant de me lancer dans ce dossier, mais j'ai bien fait car il y avait à l'intérieur une véritable pépite", se souvient encore celui qui a fait des études d'ingénieur (Centrale Supélec) en parallèle de son cursus militaire d'élite (Saint-Cyr ; Ecole de Guerre). Dans cette fameuse pochette, il repère notamment une série de documents qui posent les bases d'un outil encore inconnu des militaires : un logiciel capable de reproduire des coordonnées géographiques d'une cible, sans aide satellite, en utilisant simplement des photos prises par le soldat sur le terrain avec ses jumelles. "Du jamais vu dans l'industrie militaire", pense alors Pascal Sécretin. C'est pourquoi il contacte l'ingénieur auteur du brevet et lui demande de venir pitcher "sans filtre" son idée dans le moindre détail. Et sa conviction est vite faite : il tient un nouvel outil qui pourrait révolutionner la vie du soldat dans les combats de haute intensité. Les Navy SEAL américains en veulent Après des centaines d'heures de développement et de travail "gris" - une partie des expérimentations est imaginée sur leur temps libre par des collaborateurs le week-end - ce fameux "VisioLoc" (qui sera présenté cette semaine au salon Eurosatory dédié à l'armement terrestre) est enfin embarqué dans Sophie, la caméra thermique multifonction inventée par Thales. Un prototype a même été présenté outre-Atlantique il y a un mois aux "Navy SEAL", les forces spéciales de la marine de guerre américaine qui ont été bluffées par la technologie française et souhaiteraient s'équiper rapidement. "J'ai aussi eu des contacts avec des gens qui forment les Ukrainiens et ils me disaient que dans certaines zones, aucun équipement ne pouvait être utilisé à cause des brouilleurs GPS. Ce n'est pas le futur, c'est déjà la réalité du terrain", pointe Pascal Sécretin. Concrètement, Sophie, la compagne visuelle des soldats, est capable "de reconnaître un char à 6 kilomètres, de jour comme de nuit, tout en restant à portée de tir des missiles antichar modernes", détaille Pascal Sécretin. Un avantage décisif car couplé avec la cartographie du VisioLoc, "la durée de réglage de tirs, qui peut prendre jusqu'à 20 minutes, est divisée par trois entre la demande d'appui par le chef tactique et l'engagement de l'unité d'artillerie", ajoute l'ancien militaire. D'un poids total de moins de 3 kg, ce couteau suisse optique, embarque les dernières technologies cybersécurisées et allège grandement le sac à dos du soldat. C'est pourquoi Thales mise gros sur cette innovation dont il s'apprête à lancer plusieurs milliers d'exemplaires en production dans son usine de Saint-Héand dans la Loire. C'est en effet dans ce village de 3600 habitants, perché sur une colline en face des monts du Lyonnais, non loin de Saint-Etienne, que les 300 salariés du site s'affairent notamment dans les "salles blanches", équipées de leurs blouses et de leur charlotte protégeant les produits de la moindre poussière. Car le travail de l'optronique, alliant l'optique et l'électronique, demande précision et protection. "Cela fait 20 ans que l'on produit ici du matériel d'exception pour les fantassins, notamment toute une gamme de lunettes de visions nocturnes", précise Gérard Frison, le directeur industriel du site. Sur les 10 000 mètres carrés de l'usine, les verres et les lentilles sont façonnés parfois plus de 200 heures pour une seule pièce. C'est un investissement important pour Thales qui injecte un milliard d'euros en R&D chaque année et réalise 50% de son chiffre d'affaires Défense (11,2 milliards d'euros en 2021, dont 1 milliard d'euros juste pour l'optronique) à l'export. Pour maîtriser sa production et répondre aux nouvelles cadences exigées par la Direction générale de l'Armement, Thales maintient un lien privilégié avec ses sous-traitants locaux. Certains composants critiques comme les tubes optiques, à très forte valeur ajoutée, sont ainsi sourcés chez d'autres spécialistes tricolores, notamment la PME corrézienne Photonis qui avait fait les gros titres de l'actualité pendant la pandémie puisque l'entreprise avait failli être rachetée par des investisseurs américains avant que le gouvernement français ne mette son veto pour des raisons de souveraineté industrielle. "Une de notre spécialité c'est l'anti-réflexion sur les verres. Il faut parfois 200 passages sur une seule lentille pour obtenir un résultat optimal. Nous le faisons-nous mêmes et ce savoir-faire est issu directement de l'activité historique du site : la fabrication des optiques de cinéma", explique Bertrand Boismoreau, le directeur de l'établissement racheté par Thales en 1994. Des caméras argentiques aux lunettes de vision nocturne ou à l'écran de vision haute du Rafale, il n'y a en effet que quelques marches à monter pour changer de ligne de production. Et peu importe la finalité du produit, qu'il soit civil ou militaire (la Défense pèse 80% de l'activité), la qualité des produits est contrôlé par les mêmes équipes, sous l'oeil des photos de l'ancien maître des lieux, Pierre Angénieux. Natif du village, l'ingénieur-opticien dont les optiques ont été utilisées par les plus grands cinéastes du monde (Jean-Luc Godard, Sidney Lumet, Jean-Jacques Annaud...), a même reçu 3 Oscars techniques à Hollywood, dont le dernier en 1989 remis des mains de l'actrice Isabelle Huppert. "Sans les zooms Angénieux, il n'y aurait pas eu la Nouvelle Vague", s'avance même Jean-Yves Poulain, ancien chef opérateur et conseiller technique de Thales pour les optiques. Souvent destinés au marché de la location, ces zooms de très haute performance coûtent de 20 000 à 100 000 euros l'unité et continuent de tourner sur les plateaux. "Annette, le film qui a obtenu le Prix de la mise en scène au Festival de Cannes l'année dernière, a été tourné avec un optique Angénieux vieux de 50 ans", s'extasie encore Jean-Yves Poulain. Pierre Angénieux, l'inventeur du Rétrofocus dans les années 50, n'a jamais fermé la porte à une forme de dualité de son activité. Déjà dans les années 60-70, il avait collaboré avec la Nasa pour permettre de capturer les premières images de la Lune lors des missions Apollo. L'héritage de son savoir-faire, perpétué par les ingénieurs de Thales, équipe aujourd'hui des dizaines de milliers de soldats dans le monde. Et ce n'est pas du cinéma. 1 3 1 Lien vers le commentaire Partager sur d’autres sites More sharing options...
hadriel Posté(e) le 14 juin 2022 Share Posté(e) le 14 juin 2022 Mort de rire, les gars ont réussi à réinventer le compas de relèvement et en plus ils en sont fiers. Je croyais que c'était de base dans toutes les jumelles. Lien vers le commentaire Partager sur d’autres sites More sharing options...
g4lly Posté(e) le 14 juin 2022 Share Posté(e) le 14 juin 2022 6 minutes ago, hadriel said: Mort de rire, les gars ont réussi à réinventer le compas de relèvement et en plus ils en sont fiers. Je croyais que c'était de base dans toutes les jumelles. A priori c'est la position du spectateur n'est pas connu non plus ... ou du moins de manière assez approximative. ... donc je suppose que le bidule compare ce qu'il voit, à une carto 3D fine - plutôt un modèle de surface - préchargé. Ça lui permet de se localiser lui même ... mais aussi bien sur l'intersection entre une ligne de visée et le modèle de surface. C'est une forme de TERrain COntour Matching. Lien vers le commentaire Partager sur d’autres sites More sharing options...
hadriel Posté(e) le 14 juin 2022 Share Posté(e) le 14 juin 2022 En fait c'est encore plus con c'est de la trilatération: https://www.edrmagazine.eu/positioning-without-gps-signal-no-problem-thales-sophie-with-visioloc-is-there Citation From the name we can deduce what it is all about, vision and localisation. The two latest Sophie iterations can be loaded with a 0.5 meters resolution Geographic Information System covering 200×200 km contained in a Micro-SD card, “but in 5 years time this will increase to 500×500 km. Looking at the map,” Pierre-Yves Guinet, Product Line Manager at Thales Soldier’s Optronics says. The map can be easily seen onto a ruggedised tablet computer, linked to the Sophie either via Wi-Fi or by cable, and it is possible to pick up three notable features on the ground, from bell towers to trees to water tanks, that are in sight; two features would suffice, however the third allows to highlight potential errors and increases accuracy. The operator picks up the first point with his Sophie, laser it to get the distance, and then must correlate it with the map. The field of view used and the distance allow to easily bring the point on the map, which gives the grids of the first point, a virtual circle with its radius equal to the distance measured with the LRF being drawn. The operation is repeated for the two other features, and the interception of the three circles gives the operator’s position. Having the coordinates of the other three points and the distances, it is now just a matter of calculation. Overall, it takes around three minutes to complete the procedure. 1 Lien vers le commentaire Partager sur d’autres sites More sharing options...
Patrick Posté(e) le 14 juin 2022 Share Posté(e) le 14 juin 2022 Il y a 2 heures, hadriel a dit : Mort de rire, les gars ont réussi à réinventer le compas de relèvement et en plus ils en sont fiers. Je croyais que c'était de base dans toutes les jumelles. Il y a 2 heures, hadriel a dit : En fait c'est encore plus con c'est de la trilatération: https://www.edrmagazine.eu/positioning-without-gps-signal-no-problem-thales-sophie-with-visioloc-is-there Tu n'es pas convaincu par le fait que cette solution soit embarquée et permette de se passer, grâce je suppose à une centrale inertielle, de recalage par satellite ou par relèvement d'un point connu justement? Le tout numérisé et facilement utilisable avec éventuellement à l'avenir une projection dans la visière connectée d'un soldat? Et le tout sans même une liaison de données constante? Je veux bien qu'il n'y ait concrètement rien de nouveau, mais n'y-a-t-il pas là une vraie amélioration? Ou alors j'ai mal saisi et il faut m'expliquer en détails. Lien vers le commentaire Partager sur d’autres sites More sharing options...
hadriel Posté(e) le 15 juin 2022 Share Posté(e) le 15 juin 2022 Sisi c'est très utile pour se passer de GPS, c'est juste que Thales en fait tout un foin alors que c'est un truc évident qui aurait du être la depuis le début. Mais sinon avec un télémètre décathlon et une carte IGN tu peux faire pareil. La ou il y a une nouveauté j'ai l'impression c'est qu'une fois la position connue il n'y a plus besoin du télémètre, la position des objets est déduite de l'intersection de la ligne de vue et du modèle numérique de terrain. 1 Lien vers le commentaire Partager sur d’autres sites More sharing options...
clem200 Posté(e) le 15 juin 2022 Share Posté(e) le 15 juin 2022 Il y a 13 heures, hadriel a dit : Mort de rire, les gars ont réussi à réinventer le compas de relèvement et en plus ils en sont fiers. Je croyais que c'était de base dans toutes les jumelles. Le problème c'est pas le produit, c'est le journaliste Je n'ai jamais vu un sujet aussi technique et précis traité de cette manière, le gars en fait des tonnes de lourdeurs. C'est plus un publi reportage où il régurgite le récit de Thalès qu'un véritable article 1 Lien vers le commentaire Partager sur d’autres sites More sharing options...
Deres Posté(e) le 15 juin 2022 Share Posté(e) le 15 juin 2022 C'est comme beaucoup de systèmes informatiques modernes. Le plus, c'est la connection qui fait que beaucoup de fonction autrefois déjà existante mais complexe, lourde et partiellement manuelle deviennent simple et rapide. Là, c'est le regroupement d'une carte informatique précise et de la jumelle ayant déjà le télémètre et les capacités de relèvement. Et ensuite, cette position est déjà dans la jumelle donc peut être réutilisé pour les autres fonctions. Et quand il y aura des algorithmes de reconnaissance plus évolué, la jumelle trouvera peut être toute seule les amers nécessaire juste en faisant un 180° avec les jumelles. Puis, elle saur le faire en mouvement, etc. Il y a encore des marges de progrès. Je note que la connexion possible à un écran et à une radio j'imagine fait que la jumelle tend à devenir une sorte d'ordinateur de commandement portable. Au passage, il faudrait surement la même fonction dans le viseur du MMP et dans la vétronique des véhicules ... 1 1 Lien vers le commentaire Partager sur d’autres sites More sharing options...
hadriel Posté(e) le 15 juin 2022 Share Posté(e) le 15 juin 2022 Il y a 9 heures, Deres a dit : Au passage, il faudrait surement la même fonction dans le viseur du MMP et dans la vétronique des véhicules ... J'ose espérer qu'on est capable de recaler les centrales des véhicules avec le télémètre + le compas, et facilement, ce serait un scandale sinon. C'est pas comme si on parlait de brouillage GPS depuis au moins 10 ans. Lien vers le commentaire Partager sur d’autres sites More sharing options...
Deres Posté(e) le 16 juin 2022 Share Posté(e) le 16 juin 2022 Il y a 15 heures, hadriel a dit : J'ose espérer qu'on est capable de recaler les centrales des véhicules avec le télémètre + le compas, et facilement, ce serait un scandale sinon. C'est pas comme si on parlait de brouillage GPS depuis au moins 10 ans. Oui, mais là on est sur une fonction bien plus précise et intégrée, se servant de la carte détaillée, ne se servant pas du compas peu précis ni n'ayant besoin d'un bullage du télémètre et faisant un calcul 3D complexe et utilisant 3 amers pour éviter les erreurs. C'est quand même le niveau au dessus en terme de précision et de facilité. Lien vers le commentaire Partager sur d’autres sites More sharing options...
hadriel Posté(e) le 16 juin 2022 Share Posté(e) le 16 juin 2022 On ne sait pas faire des compas précis? Lien vers le commentaire Partager sur d’autres sites More sharing options...
g4lly Posté(e) le 16 juin 2022 Share Posté(e) le 16 juin 2022 19 minutes ago, hadriel said: On ne sait pas faire des compas précis? Si, un théodolite de chantier est parfaitement précis. Les "compas électronique" ne sont d'ailleurs pas super-précis ... ils sont contaminés par l'électronique autour. Après c'est peut être plus rapide et plus idiot-proof. Faudrait voir l'interface et le mode de fonctionnement exact. Lien vers le commentaire Partager sur d’autres sites More sharing options...
hadriel Posté(e) le 28 juin 2022 Share Posté(e) le 28 juin 2022 Le 16/06/2022 à 12:38, g4lly a dit : Si, un théodolite de chantier est parfaitement précis. Les "compas électronique" ne sont d'ailleurs pas super-précis ... ils sont contaminés par l'électronique autour. Après c'est peut être plus rapide et plus idiot-proof. Faudrait voir l'interface et le mode de fonctionnement exact. Oui en effet après renseignement si il y a des objets métalliques autour ça met un biais dans la mesure. Safran propose donc un compas inertiel beaucoup plus précis que les compas magnétiques, le Sterna: https://www.safran-group.com/fr/produits-services/systeme-dappui-feu-interarmees-base-sterna https://www.militarysystems-tech.com/sites/militarysystems/files/supplier_docs//STERNA Brochure.pdf C'est beaucoup plus précis mais ça pèse son poids et il faut savoir fabriquer des centrales inertielles. C'est ça que Thales cherche à concurrencer. 1 Lien vers le commentaire Partager sur d’autres sites More sharing options...
g4lly Posté(e) le 28 juin 2022 Share Posté(e) le 28 juin 2022 46 minutes ago, hadriel said: Oui en effet après renseignement si il y a des objets métalliques autour ça met un biais dans la mesure. Safran propose donc un compas inertiel beaucoup plus précis que les compas magnétiques, le Sterna: https://www.safran-group.com/fr/produits-services/systeme-dappui-feu-interarmees-base-sterna https://www.militarysystems-tech.com/sites/militarysystems/files/supplier_docs//STERNA Brochure.pdf C'est beaucoup plus précis mais ça pèse son poids et il faut savoir fabriquer des centrales inertielles. C'est ça que Thales cherche à concurrencer. Le chercheur de nord c'est vieux comme le gyroscope ou presque ... mais ça marche bien - ca "détecte" la direction de l'axe de rotation de la terre - ... par contre la stabilisation est parfois longue. Sur les anciens système ça pouvait prendre 10 à 20 minutes. https://fr.wikipedia.org/wiki/Gyrocompas Lien vers le commentaire Partager sur d’autres sites More sharing options...
Nec temere Posté(e) le 1 juillet 2022 Share Posté(e) le 1 juillet 2022 Depuis le début de l'année j'ai été amené à me pencher sérieusement sur un capteur optique assez pointu, la rétine. Ce qui m'a valu de me taper pas mal de recherche sur pas mal de truc qui n'ont rien à voir avec la bio. Traditionnellement il est assez courrant de faire l'analogie entre les capteur optique et la rétine. Visiblement ce n'est pas faire honneur à la complexité d'un système comme l'oeil. Je m'explique, vous me direz si je me plante. Un capteur optique traditionnelle est un système caractérisé par la capacité de retranscrire 2 informations : l'intensité lumineuse et la couleur sur une surface donnée. La rétine elle se caractérise par sa capacité à retranscrire principalement 2 choses : la couleur toujours et le contraste local. Ce qui fait en partie que le système photopique (la vision diurne par les cônes schématiquement) ne sature jamais. Quelque soit l'intensité lumineuse. On parle d'un facteur d'un million entre l'intensité la plus faible et la plus forte couramment soumise à notre oeil. Vous me direz qu'il n'y a rien d'exceptionnel. Ce qui l'est selon moi c'est que cette capacité à ne jamais saturer est local. La rétine est capable de restituer une image où chaque point de cette image ne sature pas et ou l'information est toujours transmise de façon optimale ! Avec tout ça j'en arrive à une question. Est ce qu'il existe de tel capteur en optique ? Sinon y a t'il des projets en cours ? Est ce que cela pourrait intéresser dans le civil comme dans le militaire ? 1 Lien vers le commentaire Partager sur d’autres sites More sharing options...
g4lly Posté(e) le 2 juillet 2022 Share Posté(e) le 2 juillet 2022 13 hours ago, Nec temere said: Avec tout ça j'en arrive à une question. Est ce qu'il existe de tel capteur en optique ? Sinon y a t'il des projets en cours ? Est ce que cela pourrait intéresser dans le civil comme dans le militaire ? Tu ne mélanges pas le capteur lui même et le traitement qui est fait derrière? Les "pixel photosensible" ne sont pas quantifié un à un brutalement ... mais subissent plusieurs niveau de traitement avant de faire remonter l'info. En gros c'est comme si l’œil composait une image avec plusieurs images et plusieurs sous images, le cerveaux reproduisant le même processus lorsque que l’œil balaie une scène. En gros quand tu regardes un décor fixe comme l'intérieur d'une église, ton œil effectue en pratique des dizaine de prise de vue avec des "ouvertures" et des "focus" différent - c'est le balayage naturel de l’œil qui se déroule à ton corps défendant - ... et fusionne ensuite les différentes exposition et plage de netteté. Au final ton cerveau produit une image mentale qui est partout parfaitement exposé ... et partout nette ... et panoramique ... On peut reproduire cela en photographie numérique en procédant à un post processing des images prises, avec une passe pour la fusion d'exposition qui produira des image HDR - ici on "empile" les infos de luminance de plusieurs prise de vu identique ou seule la vitesse change et donc le nombre de quanta de lumière nécessaire pour allumer ou pas chaque pixel -, puis une passe pour fusionner ces image en netteté - ici on ne conserve que les zones qui on le meilleur micro-contraste local -, et enfin une passe pour coller les images bord à bord de manière à produire un panoramique avec une compensation de l'exposition sur chaque pour que les images se fondent les unes avec les autres. Dans l’œil c'est en partie gérer directement au niveau du collecteur des cônes et bâtonnets ... dans les diverses cellules qui effectuent les sommations spatiales locale avant d'envoyer l'information de luminance pré-traité dans nerf optique pour un post traitement dans cerveau. Pour les capteur optronique on ne fait pas ce prétraitement au niveau du capteur, ni à l'intégrateur/sommateur ... on délègue tout au post traitement. 1 Lien vers le commentaire Partager sur d’autres sites More sharing options...
Nec temere Posté(e) le 2 juillet 2022 Share Posté(e) le 2 juillet 2022 Il y a 5 heures, g4lly a dit : Tu ne mélanges pas le capteur lui même et le traitement qui est fait derrière? Les "pixel photosensible" ne sont pas quantifié un à un brutalement ... mais subissent plusieurs niveau de traitement avant de faire remonter l'info. En gros c'est comme si l’œil composait une image avec plusieurs images et plusieurs sous images, le cerveaux reproduisant le même processus lorsque que l’œil balaie une scène. En gros quand tu regardes un décor fixe comme l'intérieur d'une église, ton œil effectue en pratique des dizaine de prise de vue avec des "ouvertures" et des "focus" différent - c'est le balayage naturel de l’œil qui se déroule à ton corps défendant - ... et fusionne ensuite les différentes exposition et plage de netteté. Au final ton cerveau produit une image mentale qui est partout parfaitement exposé ... et partout nette ... et panoramique ... On peut reproduire cela en photographie numérique en procédant à un post processing des images prises, avec une passe pour la fusion d'exposition qui produira des image HDR - ici on "empile" les infos de luminance de plusieurs prise de vu identique ou seule la vitesse change et donc le nombre de quanta de lumière nécessaire pour allumer ou pas chaque pixel -, puis une passe pour fusionner ces image en netteté - ici on ne conserve que les zones qui on le meilleur micro-contraste local -, et enfin une passe pour coller les images bord à bord de manière à produire un panoramique avec une compensation de l'exposition sur chaque pour que les images se fondent les unes avec les autres. Dans l’œil c'est en partie gérer directement au niveau du collecteur des cônes et bâtonnets ... dans les diverses cellules qui effectuent les sommations spatiales locale avant d'envoyer l'information de luminance pré-traité dans nerf optique pour un post traitement dans cerveau. Pour les capteur optronique on ne fait pas ce prétraitement au niveau du capteur, ni à l'intégrateur/sommateur ... on délègue tout au post traitement. Je ne pense pas me tromper concernant le codage du contraste et l'utilisation optimale des plages de fonctionnement des phtorecepteurs. Tu as raison de dire qu'il y a une pré intégration du signal dans la rétine. Ici tu décris plusieurs chose. L'intégration verticale, par les cellules de premier rang (les phtorecepteurs); les cellules de second rang (les cellules bipolaires); et celles de troisième rang (les cellules ganglionnaires, RGC). Mais il existe une intégration horizontale grâce aux cellules horizontales et amacrine. c'est grâce à elles qu'il y a pré intégration. Mais tu as raison par ailleurs. La rétine produit plusieurs représentations d'une même image. Ça viens des différents sous types de RGC. Ils codes les différente contraste spatiales, temporelles, couleurs. Ils permettent aussi d'intégrer les mouvements dans les images. Tout ça ce fait dans la rétine bien avant que le cerveau intègre toutes ces infos. Lien vers le commentaire Partager sur d’autres sites More sharing options...
Nec temere Posté(e) le 4 août 2022 Share Posté(e) le 4 août 2022 Je reviens dessus maintenant que j'ai un peu plus de temps. @g4lly tu as l'air de bien connaître le sujet, j'avoue que c'est nouveau pour moi donc ma maîtrise est relative. Disons que je ne connais bien que la rétine. Selon toi la capacité à restituer une image net et non saturée vient d'une superposition d'images successives prisent avec plusieurs paramètres. Selon se que je sais, pour une image donné avec le paramètre focal donné, la rétine (après adaptation à la luminosité) peut capter l'ensemble des informations que j'ai évoqué de manière optimale. La similarité avec les autres systèmes optique c'est la capacité de géré l'ouverture pour ne pas saturer. Là où l'oeil se distingue c'est que l'étendue de la plage d'utilisation ne peut être expliqué par la seul variation de l'ouverture de l'iris. Si je comprend tout bien, cela vient de se que j'ai déjà évoqué plus haut, l'intégration horizontale. Tu dis que ça va peut être géré en post-traitement dans un appareil. Je me doutais de cette possibilité (la photo c'est pas mon truc paradoxalement). La où je vois une rupture c'est dans le phtorecepteurs, ici le cône. Il est capable d'adapter son seuil de détection. C'est un peu compliqué et j'avoue que c'est de la bio moléculaire un peu dur, je pense qu'il faudrait que je revienne dessus pour tout saisir. Ce qui fait que tout réuni, il est possible d'avoir le soleil en face de toi et d'être quand même capable de voir l'environnement devant toi de manière optimale avec tout les détails. Pour moi quand tu prends une photo face au soleil bah c'est la merde. Si tu veux pas saturer tu as une image terne un peu dégueu. Tu as une cellule photosensorielle avec une plage d'utilisation assez restreinte (les cônes sont assez bruyant) mais avec un seuil d'activation adaptable. Pour avoir l'information de luminosité dans l'image et l'ouverture de l'iris c'est géré par un système secondaire avec les ipRGC si je dis pas de conneries. Du coup la vrai question c'est est ce que de pareil capteurs avec un seuil variable existe ? Sinon est-ce qu'il a des travaux dessus ? Et est-ce que ça a une utilité notamment dans le militaire. Ça te semble coller avec ce que tu connais de tout ça ? Lien vers le commentaire Partager sur d’autres sites More sharing options...
hadriel Posté(e) le 4 août 2022 Share Posté(e) le 4 août 2022 Il y a 2 heures, Nec temere a dit : Du coup la vrai question c'est est ce que de pareil capteurs avec un seuil variable existe ? Un capteur CMOS ça peut faire de la lecture non destructive et donc éventuellement ajuster le gain en fonction du niveau dans le pixel. Mais bon y'a toujours une limite avec le nombre d'électrons dans le puits du pixel, faut aussi le vider plus ou moins rapidement en fonction du signal. Lien vers le commentaire Partager sur d’autres sites More sharing options...
Messages recommandés
Créer un compte ou se connecter pour commenter
Vous devez être membre afin de pouvoir déposer un commentaire
Créer un compte
Créez un compte sur notre communauté. C’est facile !
Créer un nouveau compteSe connecter
Vous avez déjà un compte ? Connectez-vous ici.
Connectez-vous maintenant