Comment un robot peut-il voir quand il est sur le point de heurter un obstacle ? Eh bien, d'un point de vue technique, ce n'est pas possible parce que les robots n'ont pas d'yeux, ça n'a pas de sens. Mais ils ont la capacité de calculer leur position dans l'espace grâce à une combinaison de technologies. Donc, même s'il ne s’agit pas vraiment de « voir », c'est assez proche et, quand on y réfléchit, aussi incroyablement cool. Après tout, sans vision d'aucune sorte, même le robot le plus intelligent ne sert à rien, non ?
C'est pourquoi la robotique demeure l'un des plus grands défis technologiques actuels. Elle nécessite une combinaison de nombreux domaines d'expertise différents : robotique, contrôle, ingénierie mécanique et électrique, développement de logiciels, matériaux, mécatronique, etc. Chaque élément doit fonctionner de manière fluide dans l'ensemble pour garantir un équilibre délicat. La façon dont le robot se déplace, par exemple, est dictée par les matériaux utilisés pour le construire et la façon dont chacun de ces composants fonctionne ensemble, la manière dont ils sont conçus pour se déplacer et la manière dont ils sont alimentés. Mais si vous voulez qu'un robot se déplace de manière indépendante, comment peut-il le faire s'il ne dispose d'aucun moyen de « voir » où il va ?
Les technologies optiques et d'imagerie sont sans nul doute ce que nous faisons le mieux. Il n'est donc pas surprenant que Canon travaille sur ce domaine particulier de la robotique depuis un certain temps. Plus de trente ans, en fait. Aujourd'hui, cette technique est appelée Visual SLAM, ce qui est ironique, car c’est précisément ce qu'elle permet d’éviter, de « heurter » des obstacles. SLAM, ou « Simultaneous Localisation and Mapping » (Localisation et cartographie simultanées) (moins accrocheur mais certainement plus précis) est une technologie qui permet d'évaluer simultanément la position et la structure de l'environnement d'un robot. Le système Visual SLAM initial a été créé pour fusionner des mondes réels et virtuels dans un casque immersif, que nous connaissons désormais sous le nom de réalité mixte. Aujourd'hui, Visual SLAM peut être utilisé pour toutes sortes de tâches automatisées dans des secteurs allant de la fabrication à l'hôtellerie en passant par la santé et la construction.
Comment fonctionne Visual SLAM ?
Les robots mobiles, tels que les AGV (véhicules à guidage automatique) et les AMR (robots mobiles autonomes), sont déjà bien connus dans les entrepôts et les opérations logistiques et sont souvent guidés à l'aide d'une piste de bandes magnétiques fixées au sol. Comme vous pouvez l'imaginer, cette technique coûte cher, l'installation prend du temps et, surtout, crée une certaine rigidité. Si les AGV et les AMR ne peuvent circuler que sur un itinéraire fixe, que se passe-t-il s'il faut modifier l'itinéraire ? Ou si une entreprise a besoin de pouvoir faire évoluer ses opérations rapidement ? Il est donc plus que préférable d'adopter une technique « sans guide » dans un monde où, soyons clairs, les choses changent.
La solution est d'utiliser l'un des deux types de SLAM. Le premier, LiDAR, qui signifie « Light Detection and Ranging » (détection et localisation par la lumière) utilise des impulsions laser pour mesurer les distances et les formes des structures environnantes. Bien que les systèmes LiDAR soient excellents dans la mesure où ils peuvent fonctionner dans des zones faiblement éclairées, ils utilisent généralement des capteurs qui n'effectuent qu'un balayage horizontal, ce qui limite immédiatement les informations qu'un robot peut obtenir sur des surfaces bidimensionnelles. Non pas que la 3D soit impossible, c'est tout simplement incroyablement coûteux. L'autre problème qui se pose avec les systèmes LiDAR, c'est que s'il n'y a pas assez de visibilité pour le robot, des objets 3D doivent être installés autour de sa trajectoire.
Au lieu d'utiliser des lasers, Visual SLAM de Canon utilise des caméras comme capteurs, une technique qui revient moins cher que le LiDAR, mais qui continue d'offrir des mesures de haute précision. Une combinaison d'images vidéo et d'une technique d'analyse propriétaire permet d'identifier les formes 3D des structures et, ensemble, ces informations créent la partie « localisation » présente dans le nom SLAM. Point surprenant, cette technique s'applique même aux objets à surface plane, tels que les affiches sur les murs, et il n'est donc pas nécessaire d'installer des objets 3D supplémentaires, comme c'est le cas pour le LiDAR. En outre, elle peut être utilisée dans de nombreux endroits et situations différents et, comme elle peut également être utilisée pour la reconnaissance d'image, il existe d'autres façons d'utiliser Visual SLAM, comme les drones ou les robots de service.
Canon travaille sur ce domaine particulier de la robotique depuis un certain temps. Plus de trente ans, en fait. »
Comment appréhende-t-il le changement ?
Comme l'espace dans lequel les AGV (Automated Guided Vehicles, véhicules à guidage automatique) et les AMR (Autonomous Mobile Robots, robots mobiles autonomes) fonctionnent est très changeant, Visual SLAM doit également être intelligent. Les images obtenues par les caméras stéréo gauche et droite sont traitées en permanence par le « logiciel de navigation basé sur la vision pour AGV » de Canon, qui transforme les images en cartes 3D en temps réel et les met à jour automatiquement. Cela constitue une quantité considérable d'informations de précision à traiter, mais le logiciel est conçu pour être exécuté en temps réel, même sur un ordinateur d'entrée de gamme. Grâce aux outils de capture et de traitement constants, les robots utilisant Visual SLAM peuvent en fait « naviguer » tout seul.
Il convient donc parfaitement pour les robots dans toutes sortes d'espaces, en particulier lorsque les humains peuvent être exposés à un danger. Par exemple, le transport de matières dangereuses à l'intérieur d'usines chimiques ou partout où un mouvement « sans contact » des produits est nécessaire pour la sécurité humaine. Certains ont même proposé que des robots utilisant Visual SLAM soient utilisés dans les établissements médicaux pour apporter de la nourriture et des médicaments à des patients présentant un risque élevé et qui doivent avoir le moins de contact possible pour assurer leur sécurité pendant leur traitement. Ces environnements sont dynamiques et évoluent rapidement, c'est pourquoi la capacité d'un robot à « apprendre » pendant qu'il travaille est essentielle.
Comme pour toutes les technologies interdisciplinaires, dès qu'un élément progresse, il ouvre des opportunités pour les autres et, naturellement, nous pouvons nous attendre à ce qu'il en aille de même avec la vision robotique. Nos techniques optiques, de capteurs et de traitement d'image ont en effet été affinées grâce au développement de nos caméras et objectifs. Développer une solution de « vision » robotique abordable et accessible à tous les secteurs n'est qu'un pas de plus vers le type de solutions automatisées qui rendent la vie quotidienne plus sûre, plus confortable et plus pratique pour nous tous.
Pour en savoir plus sur les technologies Visual SLAM de Canon, consultez le site web Canon Global.
Sujets connexes
-
Concevoir des produits en pensant aux moindres détails pour les individus et la planète
Dans la conception des produits Canon, chaque petit détail compte et nos ingénieurs examinent chaque millimètre pour en garantir la facilité d'utilisation, l'impact environnemental et la performance.
-
Faciliter l'accès aux cellules souches capables de sauver des vies
Nous avons uni nos forces avec le Dr Shinya Yamanaka et son équipe du CiRA au Japon pour aider à concrétiser le potentiel d'un type spécial de cellules souches capables de sauver des vies.
-
Le paradoxe du plastique
Avec le plastique, nous avons une vision équilibrée, nous n'utilisons que ce qui est nécessaire et nous investissons dans de nouvelles façons innovantes d'apporter circularité et responsabilité.
-
Illuminez votre visage : le secret bien connu de votre écran de téléphone
En regardant la lumière familière de l'écran de votre téléphone, vous n'imaginez peut-être pas ses nombreuses similitudes avec celle de votre imprimante ou appareil photo. Découvrez pourquoi.