Système assisté par robot avec caméra 3D Ensenso pour une manipulation sûre des déchets nucléaires

Le démantèlement des installations nucléaires pose des défis majeurs aux exploitants. Qu'il s'agisse de démantèlement ou de confinement sécurisé : la quantité de déchets nucléaires à éliminer augmente à un rythme effréné dans le monde entier. L'automatisation est de plus en plus nécessaire dans la manipulation des déchets nucléaires, mais l'industrie nucléaire se méfie des méthodes de commandes robotiques totalement autonomes pour des raisons de sécurité - les robots industriels télécommandés sont préférés dans les environnements dangereux. Cependant, des tâches aussi complexes que la saisie ou la découpe télécommandée d'objets inconnus à l'aide de joysticks et de caméras de vidéosurveillance sont difficiles et parfois même impossibles à contrôler.

Application

Si vous avez déjà essayé une machine à pince de foire, vous pouvez le confirmer : la commande manuelle des bras de préhension est tout sauf banale. Autant il y a peu de risques à échouer en essayant d'enlever un lapin en peluche, autant les tentatives ratées de manipulation de déchets radioactifs peuvent être dramatiques. Pour éviter des dommages aux conséquences graves pour l'homme et l'environnement, le robot doit être capable de détecter les objets radioactifs présents avec une extrême exactitude et d'agir avec précision. L'opérateur l'a littéralement dans les mains, c'est à lui d'identifier les bonnes positions de préhension.

Robot de découpe semi-autonome guidé par vision 3D de l'ERL pour les objets métalliques dans les environnements radioactifs
Robot de découpe semi-autonome guidé par vision 3D de l'ERL pour les objets métalliques dans les environnements radioactifs

Avec l'aide du logiciel, la caméra 3D Ensenso prend ainsi en charge la perception et l'évaluation des informations de profondeur pour l'opérateur, dont la charge cognitive est ainsi considérablement réduite. Le système d'assistance combine les caractéristiques haptiques de l'objet à saisir avec un algorithme de préhension spécial. « Le nuage de scène est utilisé par notre système pour générer automatiquement plusieurs positions de préhension stables.

Comme les nuages de points capturés par la caméra 3D sont de haute résolution et denses, il est possible de produire des positions de préhension très précises pour chaque objet de la scène.

— Dr. Naresh Marturi, Senior chercheur senior au Centre national de robotique nucléaire —

Sur cette base, notre « algorithme de classement des hypothèses » détermine le meilleur objet à saisir en fonction de la position actuelle du robot », explique Naresh Marturi, chercheur senior au Centre national de robotique nucléaire.

Graphique : (c) Extreme Robotic Lab
Graphique : (c) Extreme Robotic Lab

Le principe est similaire à celui du jeu d'adresse Mikado, où il faut retirer un bâton l'un après l'autre sans déplacer les autres bâtons. Le guidage de la trajectoire déterminée permet au robot de naviguer en douceur et de façon régulière le long d'une trajectoire souhaitée jusqu'à la position de préhension cible. Comme un système de navigation, le système aide l'opérateur à guider le bras du robot vers une prise sûre, si nécessaire en passant également devant d'autres objets inconnus et dangereux. Le système calcule pour cela un couloir sûr et aide l'opérateur à ne pas quitter le couloir grâce à un retour d'information tactile.

Le système reproduit les mouvements naturels de la main de l'opérateur de manière précise et fiable en temps réel sur les mouvements correspondants du robot. « À ce stade, l'opérateur commande le robot en utilisant uniquement le dispositif haptique. Si le robot s'écarte de la trajectoire souhaitée, l'opérateur s'en rend compte par l'intermédiaire de la poignée et peut ramener le robot sur la trajectoire. Lorsque le robot atteint la position de préhension, l'opérateur ressent une forte résistance dans la poignée du dispositif haptique qui l'empêche de déplacer le robot. » L'opérateur conserve ainsi toujours la commande manuelle et est en mesure de prendre le relais en cas de défaillance d'un composant. Il peut simplement désactiver l'IA et revenir à l'intelligence humaine en arrêtant le « mode retour de force ». Selon le principe de la commande partagée entre l'homme et la machine, le système reste ainsi sous contrôle à tout moment - ce qui est essentiel dans un environnement présentant le plus haut niveau de danger.

Naresh Marturi, chercheur senior, et Maxime Adjigble, ingénieur de recherche en robotique
Naresh Marturi, chercheur senior, et Maxime Adjigble, ingénieur de recherche en robotique

Perspectives

Les chercheurs du laboratoire Extreme Robotic Lab à Birmingham développent actuellement une extension de la méthode pour pouvoir utiliser une main à plusieurs doigts au lieu d'une pince à mâchoires parallèles. Cette évolution vise à accroître la flexibilité et la fiabilité de la saisie d'objets complexes. À l'avenir, l'opérateur pourra également sentir les forces auxquelles les doigts du robot télécommandé sont exposés lorsqu'il saisit un objet. Des méthodes de préhension entièrement autonomes sont également développées. Le bras de robot est alors commandé par une IA et guidé par un système de vision automatique. L'équipe travaille également sur des outils de visualisation pour améliorer la collaboration homme-robot afin de commander des robots à distance via un système de contrôle partagé (Shared Control).

En ce qui concerne la sécurité et la santé de chacun d'entre nous, cette approche est prometteuse : la gestion de l'élimination des objets dangereux, tels que les déchets nucléaires, nous concerne tous en fin de compte. En capturant de manière fiable les informations pertinentes sur les objets, les caméras 3D Ensenso apportent une contribution importante à cette tâche de plus en plus urgente et répandue dans le monde.

Ensenso N35 - La vision 3D rapide et précise

La série Ensenso N d'IDS.
Université de Birmingham