La mesure de paramètres environnementaux à la surface des mers et océans, sur un maillage faible et sur une échelle de temps longue, est d’un intérêt majeur pour continuer à affiner les modèles analytiques de la dyna- mique marine, notamment afin d’anticiper les impacts du réchauffement climatique. La détection des polluants en temps réel ainsi que la localisa- tion des zones de rejet sont aussi capitales pour suivre leur impact sur les écosystèmes marins. Pour autant le milieu marin demeure, a contrario du milieu terrestre, peu monitoré en temps réel car plus fortement contraint (salinité, l’encrassement biologique ou biofouling, turbulences, complexité d’accès…). La mise au point de systèmes embarqués miniaturisés, à faible coût, communicants et autonomes en énergie, apparaît comme une pers- pective technologique nouvelles (principes de mesure, fiabilisation et intégration système, transmission de données) qui pourrait rapidement autoriser le déploiement à grande échelle de solutions innovantes pour répondre aux défis actuels.
Des océans à surveiller
de toute urgence
Par leur influence directe sur la circulation atmosphérique et les événe- ments météorologiques associés, les océans jouent un rôle déterminant dans la régulation du climat planétaire. En absorbant près de 30 % de nos émissions de CO2 (puits de carbone) et 80 % de l’excès de chaleur générée au cours des 200 dernières années, ils atténuent les impacts anthropiques et participent à lutter contre le réchauffement climatique. Parallèlement, engrais et pesticides se déversent dans les eaux côtières via les fleuves et les estuaires et engendrent la formation de zones hypoxiques, ou zones mortes, sur des centaines de milliers de km<. Par ailleurs, aux polluants tels que les hydrocarbures, produits chimiques en tous genres et résidus pharmaceu- tiques, s’ajoutent près de 8 millions de tonnes de plastiques qui atteignent l’océan. On estime ainsi que d’ici 2050, la quantité de plastique pourrait« dépasser celle des poissons » dans l’océan.
L’influence humaine sur les océans et le climat est aujourd’hui clairement établie et les changements environnementaux sans précédent que
nous observons (comme le réchauffement de
l’océan, son acidification, la hausse du niveau des mers…) sont autant de conséquences dramatiques qui menacent
la biodiversité et les conditions de vie de millions d’êtres humains.
Rouage essentiel de la machine climatique, le couple océan-atmosphère voit sa dynamique se modifier sur le long terme mais l’incertitude quant à l’ampleur de certains changements profonds inéluctables doit encore être levée. Tout comme l’évolution de la concentration des principaux polluants agissant sur la biodiversité et les écosystèmes marins doit également être mesurée, notamment pour ce qui concerne les récifs coralliens, déjà mis à mal par le réchauffement et l’acidification des océans. La situation appelle donc à renforcer l’étude et la surveillance des océans, et l’observation haute fréquence de différents paramètres clés du milieu marin constitue une étape majeure pour comprendre les changements qui s’opèrent et évaluer les risques associés au changement climatique.
Adaptés à la terre ferme, les réseaux de capteurs et de mesures dispo- nibles sont freinés par les contraintes du milieu marin: salinité, pression, températures extrêmes, obscurité, corrosion marine, encrassement, tur- bulences, complexité d’accès… De nouvelles solutions technologiques tentent d’y remédier afin d’être déployées à grande échelle.
Des contraintes spécifiques
aux océans
Malgré des progrès considérables initiés depuis un siècle et demi par l’océanographie moderne, notre compréhension du fonctionnement de l’océan reste très incomplète. Nous étudions en effet un milieu extrêmement complexe : fluide, hétérogène, turbulent, très dilué, siège de nombreuses interactions physiques, chimiques et biologiques sur différentes échelles de temps et d’espace… De plus, les fortes contraintes environnementales du milieu marin rendent tout projet d’exploration et de développement tech- nologique difficile et coûteux.
Les analyses biologiques, chimiques et physiques de l’eau de mer sont majoritairement réalisées aujourd’hui à partir de prélèvements
d’eau de mer ensuite traités en laboratoire. Cela impose des sorties en mer ou des campagnes océanographiques régulières, souvent onéreuses, avec des pos- sibilités de mesures qui restent
restreintes par le périmètre
et la durée de l’expédition. Le développement récent de l’océanographie satellitaire et des vecteurs d’accueil et/ou de transport de capteurs de mesures physiques a ouvert la voie à des systèmes de mesures
in situ automatisés. Les capteurs
peuvent ainsi être intégrés sur des bouées fixes, sur des
flotteurs dérivants (profileurs du réseau Argo) ou fixés sur une
ligne de mouillage ou encore sur des drones sous-marins (ROV, AUV, Gliders), on peut citer en exemple le parc national des Gliders, des robots autonomes qui se présentent sous la forme de torpilles, planant dans la colonne d’eau jusqu’à des profondeurs
de 1
000 m, développés par la division technique de l’INSU. Cependant aujourd’hui, seul un nombre limité de paramètres bénéficie de cette capa- cité opérationnelle.
Or, pour appréhender au plus près la complexité du milieu marin, nous avons besoin de monitorer un grand nombre de paramètres comme tempé- rature, salinité, pH, sels nutritifs, oxygène dissous, turbidité, chlorophylle, alcalinité, matières en suspension, cyanure d’hydrogène, carbone organique et inorganique dissous, teneur en CO2, gaz dissous, métaux traces, polluants organiques, pesticides, dénombrement de bactéries et de leur activité, phytoplancton, zooplancton, algues toxiques, acide nucléique, ressources en espèces… De plus, la démultiplication des séries spatiales et temporelles, dont ces paramètres doivent faire l’objet, impose de repenser les techniques d’analyse et de surveillance de l’océan, notamment in situ. Les nouvelles technologies de collecte de données, les objets connectés et les nouveaux moyens de communication, couplés aux données satellitaires, ouvrent ainsi la voie à un nouveau champ opérationnel pour les sciences marines. Cette approche générera des informations partagées par de vastes communautés d’utilisateurs académiques ou privés.
À cela s’ajoute le problème du biofouling ou encrassement biologique. En effet, tout matériel immergé dans de l’eau de mer se voit colonisé, à diffé- rentes vitesses, par une multitude d’organismes vivants qui s’organisent sur labased’unbiofilmmicrobien. Cephénomène, quiapparaîtdèslespremières heures d’immersion, altère la prise de mesures in situ (dérive des mesures des capteurs) (Delauney, 2010). Les systèmes de revêtement traditionnels ne prodiguent qu’une protection à court terme. Pour garantir la durabilité des mesures et leur précision dans le temps, des innovations mélangeant chimie des couches minces et rayonnement UV sont aujourd’hui à l’étude. Dans cette optique, l’approche biomimétique, comme la microstructuration de surface de matériaux spécifiques, offre de nouvelles pistes pour retarder la formation du biofilm microbien.
Vers des capteurs plus adaptés
Des systèmes d’analyse en flux in situ, véritables laboratoires embarqués, sont développés depuis plusieurs années et permettent la caractérisation de paramètres chimiques et biologiques en appliquant sur le terrain les techniques analytiques de laboratoire : analyseurs en flux colorimétriques ou fluorimétriques pour les sels nutritifs ou les métaux traces (Alexander, 2012 ; Jian, 2016 ; Vuillemin, 2009), spectromètres de masse in situ pour les hydrocarbures (Camilli, 2007), cytomètres en flux autonomes permet- tant l’étude haute fréquence et in vivo des communautés planctoniques (Dugenne, 2015), systèmes d’analyse moléculaire in situ pour la détection d’algues toxiques tels que développés par l’institut de recherche MBARI ou la startup Microbia Environnement (Manes, in press). Malgré les progrès tech- nologiques, la taille des équipements demeure un facteur limitant, notam- ment pour les paramètres biologiques, tandis que les très fortes contraintes du milieu imposent une conception, une robustesse et un entretien spéci- fiques souvent très onéreux.
Les avancées de la micro et de la nanoélectronique, couplées à la science de la donnée et/ou à l’intelligence artificielle, permettent d’envisager de nou- veaux systèmes de mesure et d’observation (Lapeine, 2016). Des systèmes électroniques économes peuvent dorénavant gérer la mesure, le traitement, le stockage et la communication des données, tandis que la manipulation
d’échantillons bénéficie des progrès de la microfluidique avec par exemple les travaux du National Oceanography Centre.
Par
ailleurs, l’autonomie
énergétique des capteurs in situ doit garantir la réalisation de ces fameuses
séries spatiales et temporelles essentielles à la compréhension des phénomènes océanographiques actuels. Les nouveaux systèmes de mesures intègrent donc aujourd’hui différents dispositifs tech- nologiques qui permettent aux capteurs
de puiser leur énergie directement dans le milieu naturel. Les trois principaux principes physiques de conver- sion sont l’effet photovoltaïque aux performances en croissance constante, l’effet Seebeck qui s’appuie sur un gradient de température et l’effet piézoé- lectrique associé
aux mouvements. Ces effets peuvent également être cou- plés entre eux et associés
à des composants de stockage. La miniaturisation des capteurs exige cependant
d’évaluer leurs performances. Leur métro- logie doit prouver
leur
efficacité dans les paramètres de base, dont la tem- pérature et la salinité de l’eau de mer. À titre d’exemple, ci-dessous, le dispositif développé à l’Institut d’Électronique et des Systèmes, basé sur la récupération d’énergie par effet SeeBeck, il a été développé pour être embarqué
sur des bateaux de plaisance en vue d’une démarche
de science participative. Quelques initiatives de ce type voient aujourd’hui le jour à l’international comme
le projet européen
SenseOCEAN.
Toutes ces pistes de R&D soutiennent un déploiement à grande échelle des systèmes de mesure, tout en réduisant le maillage et en améliorant l’analyse, notamment prédictive, de l’océan à travers des paramètres cibles. La transmission air/mer des données en temps réel pose de son côté des questions liées à la sécurité, à l’authentification du signal et à l’intégrité du hardware. Un système fiable et sûr garantit in fine la véracité de la donnée, la sécurité de son transport et de son stockage, ainsi que la traçabilité du circuit utilisateur avec introduction de la notion de Blockchain. Comme les systèmes immergés communiquent difficilement par ondes électroma- gnétiques (technologies RF, GPS, GPRS, RFID, Bluetooth, LoRa…), le déve- loppement de l’Internet of Underwater [ings doit passer par la mise au point de technologies utilisant des signaux et des ondes acoustiques. En conséquence directe, les flux de données seront, sous l’eau, ralentis et plus sensibles aux mouvements des masses d’eau et aux couches de densité très contrastée, et donc plus sujets aux erreurs. Les protocoles de communica- tion doivent en conséquence être plus robustes et redondants et plutôt pri- vilégier le bas débit. Ces outils compenseront la possible baisse de qualité des mesures, provoquée par leur massification géographique et temporelle.
Pour un usage généralisé des capteurs
La généralisation des systèmes comprenant le vecteur, les capteurs asso- ciés et les systèmes de communication à bas coûts est aujourd’hui indis- pensable pour observer les océans à haute fréquence, à grande échelle et en temps réel. Il s’agit là d’une des conditions sine qua non pour mieux appré- hender la problématique climatique actuelle.
L’industrialisation de tels systèmes implique nécessairement le déve- loppement de nombreuses solutions techniques qui faciliteront in fine leur installation et leur déploiement en masse. Cela induira aussi de nou- velles expertises permettant de répondre aux enjeux de supervision, de maintenance physique et à distance, de mise à jour, de management de composants ou encore d’intégration des normes d’interopérabilité de ces nouveaux équipements. Par ailleurs, la miniaturisation, les performances, la robustesse et la fiabilité des composants permettent aujourd’hui d’envi- sager de déployer à grande échelle une instrumentation spécifique, adaptée au suivi de l’évolution de très nombreux paramètres du milieu marin et de leur variabilité dans le temps.
Tout cela ouvre la voie à de véritables réseaux d’information et d’alerte à l’échelle macro, comme à l’échelle micro (région littorale), ainsi qu’à de
nouveaux modèles d’utilisateurs
finaux implémentés par les protocoles de recherche. Davantage d’applications pourront être développées, tout en rattrapant le retard accumulé par rapport
aux milieux terrestre et atmos- phérique, aujourd’hui adaptés à des marchés de masse. Le croisement et la fusion de ces multiples données nourriront les modèles d’analyse et de prédiction de demain, dans une logique
de deep data.