{"id":6071,"date":"2019-09-27T11:12:06","date_gmt":"2019-09-27T09:12:06","guid":{"rendered":"https:\/\/blog.generationrobots.com\/?p=6071"},"modified":"2024-08-27T15:29:21","modified_gmt":"2024-08-27T13:29:21","slug":"integration-dun-lidar-avec-ros-exemples-de-projets","status":"publish","type":"post","link":"https:\/\/www.generationrobots.com\/blog\/fr\/integration-dun-lidar-avec-ros-exemples-de-projets\/","title":{"rendered":"Int\u00e9gration d&rsquo;un LiDAR avec ROS : exemples de projets"},"content":{"rendered":"\t\t<div data-elementor-type=\"wp-post\" data-elementor-id=\"6071\" class=\"elementor elementor-6071\" data-elementor-post-type=\"post\">\n\t\t\t\t\t\t<section class=\"elementor-section elementor-top-section elementor-element elementor-element-29caad9f elementor-section-boxed elementor-section-height-default elementor-section-height-default\" data-id=\"29caad9f\" data-element_type=\"section\" data-e-type=\"section\">\n\t\t\t\t\t\t<div class=\"elementor-container elementor-column-gap-default\">\n\t\t\t\t\t<div class=\"elementor-column elementor-col-100 elementor-top-column elementor-element elementor-element-6ce5bca3\" data-id=\"6ce5bca3\" data-element_type=\"column\" data-e-type=\"column\">\n\t\t\t<div class=\"elementor-widget-wrap elementor-element-populated\">\n\t\t\t\t\t\t<div class=\"elementor-element elementor-element-1be0528c elementor-widget elementor-widget-text-editor\" data-id=\"1be0528c\" data-element_type=\"widget\" data-e-type=\"widget\" data-widget_type=\"text-editor.default\">\n\t\t\t\t<div class=\"elementor-widget-container\">\n\t\t\t\t\t\t\t\t\t\n<p>\u00a0<\/p>\n<p class=\"has-text-align-center\"><span style=\"color: #000000;\"> <strong> Consultez les autres articles de notre s\u00e9rie \u201cTechnologie LiDAR\u201d <\/strong> <\/span><\/p>\n\n<figure class=\"wp-block-table\">\n<table>\n<tbody>\n<tr>\n<td><a title=\"Quelles applications pour les LiDAR ?\" href=\"\/blog\/fr\/quelles-applications-pour-les-lidar\/\"> <img decoding=\"async\" src=\"https:\/\/static.generation-robots.com\/img\/cms\/bouton-CTA-articles-blog-lidar-3.jpg\" alt=\"Quelles applications pour les LiDAR ?\" width=\"270\" height=\"110\" \/> <\/a><\/td>\n<td>\u00a0<\/td>\n<td>\u00a0<\/td>\n<\/tr>\n<\/tbody>\n<\/table>\n<\/figure>\n\n<h2 class=\"wp-block-heading\">Int\u00e9gration d&rsquo;un LiDAR avec ROS : exemples de projets<\/h2>\n\n<p>Dans cette publication, vous aller apprendre \u00e0 connecter et int\u00e9grer votre <strong> <a class=\"catalogue\" title=\"Qu\u2019est-ce que la technologie LiDAR ?\" href=\"\/blog\/fr\/qu-est-ce-que-la-technologie-lidar\/\"> LiDAR <\/a> <\/strong> \u00e0 votre PC ou carte embarqu\u00e9e en utilisant le middleware ROS sur Ubuntu. La fusion de donn\u00e9e, tr\u00e8s utilis\u00e9e en robotique mobile sera \u00e9galement abord\u00e9e en fin de publication.<\/p>\n\n<h2 class=\"wp-block-heading\">ROS est nouveau pour vous ?<\/h2>\n\n<p>The <strong> <a class=\"catalogue\" title=\"ROS \u2013 Robot Operating System\" href=\"\/blog\/fr\/ros-robot-operating-system-3\/\"> Robot Operating System (ROS) <\/a> <\/strong> est un ensemble de biblioth\u00e8ques de logiciels et d&rsquo;outils open source, qui vous <strong> aident \u00e0 cr\u00e9er des applications robotiques <\/strong> . Des pilotes aux algorithmes de pointe, en passant par les puissants outils de d\u00e9veloppement, vous aurez tr\u00e8s probablement besoin de ROS sur votre prochain projet robotique.<\/p>\n\n<p>Si vous avez besoin de t\u00e9l\u00e9charger <strong> Ubuntu <\/strong> , installez la <a class=\"catalogue\" title=\"Installer Ubuntu 18.04\" href=\"https:\/\/howtoubuntu.org\/how-to-install-ubuntu-18-04-bionic-beaver\" target=\"_blank\" rel=\"noopener noreferrer\"> derni\u00e8re version (Ubuntu 18.04) <\/a> . Vous devez ensuite t\u00e9l\u00e9charger la distribution ROS correspondant \u00e0 votre version d&rsquo;Ubuntu, pour Ubuntu 18.04 vous devez installer ROS Melodic.<\/p>\n\n<p>Une fois que votre ordinateur fonctionne sous Ubuntu et que ROS est install\u00e9, nous vous recommandons passer un peu de temps sur <strong> <a class=\"catalogue\" title=\"Tutoriels ROS\" href=\"http:\/\/wiki.ros.org\/ROS\/Tutorials\" target=\"_blank\" rel=\"noopener noreferrer\"> ces tutoriels ROS <\/a> <\/strong> pour vous familiariser avec ce middleware (niveaux d\u00e9butant et interm\u00e9diaire disponibles).<\/p>\n\n<h2 class=\"wp-block-heading\">Recevoir les donn\u00e9es de votre LiDAR<\/h2>\n\n<p>Pour connecter le LiDAR \u00e0 votre PC, vous devez l\u2019alimenter. En fonction de votre appareil, ce sera du 5VDC ou du 12\/24VDC, par exemple.<\/p>\n\n<p>Une tension d&rsquo;alimentation de 5VDC est g\u00e9n\u00e9ralement support\u00e9e par un connecteur USB branch\u00e9 directement sur votre PC. Vous n&rsquo;avez qu&rsquo;\u00e0 le c\u00e2bler et le LiDAR sera pr\u00eat \u00e0 tourner.<\/p>\n\n<p>Pour une tension d&rsquo;alimentation plus \u00e9lev\u00e9e, vous avez besoin d&rsquo;une alimentation externe (g\u00e9n\u00e9rateur basse fr\u00e9quence) ou d&rsquo;un transformateur\/convertisseur vers l&rsquo;alimentation secteur ou une batterie.<\/p>\n\n<p>Une fois que vous avez connect\u00e9 votre LiDAR \u00e0 son alimentation, il faut connecter le transmetteur de donn\u00e9es. <br \/>Il peut s&rsquo;agir du m\u00eame c\u00e2ble USB que pour l\u2019alimentation, d&rsquo;un autre c\u00e2ble USB, d\u2019un c\u00e2ble Rx\/Tx, UART ou d\u2019un c\u00e2ble Ethernet. <br \/>Les c\u00e2bles et adaptateurs n\u00e9cessaires sont g\u00e9n\u00e9ralement vendus avec les LiDAR.<\/p>\n\n<h2 class=\"wp-block-heading\">Lire les donn\u00e9es de votre LiDAR<\/h2>\n\n<p>Une fois que votre LiDAR est pr\u00eat \u00e0 \u00eatre utilis\u00e9, vous devez v\u00e9rifier si vous avez les permissions sur le port d&rsquo;entr\u00e9e de donn\u00e9es.<\/p>\n\n<p>Apr\u00e8s avoir connect\u00e9 le transmetteur de donn\u00e9es sur un port USB (ou port (Ethernet), taper cette ligne de commande pour v\u00e9rifier les permissions :<\/p>\n\n<p><em> $ ls -l \/dev\/tty <\/em><\/p>\n\n<p>Vous devriez voir un nouvel \u00e9l\u00e9ment : <em> ACMX <\/em> , <em> USBX <\/em> ou <em> ETHX <\/em> , <em> X <\/em> \u00e9tant un chiffre \u00e9gal ou sup\u00e9rieur \u00e0 z\u00e9ro (en fonction du nombre de ports d\u00e9j\u00e0 utilis\u00e9s).<\/p>\n\n<p>Votre sortie doit \u00eatre sous la forme :<\/p>\n\n<p><em> $ crw-rw-XX- 1 root dialout 166, 0 2016-09-12 14:18 \/dev\/ttyACM0 <\/em><\/p>\n\n<p>ou<\/p>\n\n<p><em> $ crw-rw-XX- 1 root dialout 166, 0 2016-09-12 14:18 \/dev\/ttyUSB0 <\/em><\/p>\n\n<ul class=\"wp-block-list\">\n<li>Si XX est rw, le laser est configur\u00e9 correctement.<\/li>\n\n<li>Si XX est &#8211;, alors le laser n&rsquo;est pas configur\u00e9 correctement et vous devez changer les permissions comme suit :<\/li>\n<\/ul>\n\n<p><em> $ sudo chmod a+rw \/dev\/ttyACM0 <\/em><\/p>\n\n<p>ou<\/p>\n\n<p><em> $ sudo chmod a+rw \/dev\/ttyUSB0 <\/em><\/p>\n\n<p>Une fois les permissions configur\u00e9es, vous devez t\u00e9l\u00e9charger le package ROS correspondant \u00e0 votre constructeur LiDAR :<\/p>\n\n<ul class=\"wp-block-list\">\n<li><a class=\"catalogue\" title=\"GitHub Slamtec\" href=\"https:\/\/github.com\/Slamtec\/rplidar_ros\" target=\"_blank\" rel=\"noopener noreferrer\"> GitHub Slamtec <\/a><\/li>\n\n<li><a class=\"catalogue\" title=\"Tutoriel Slamtec\" href=\"http:\/\/wiki.ros.org\/rplidar\" target=\"_blank\" rel=\"noopener noreferrer\"> Tutoriel Slamtec <\/a><\/li>\n\n<li><a class=\"catalogue\" title=\"GitHub YDLiDAR\" href=\"https:\/\/github.com\/EAIBOT\/ydlidar\" target=\"_blank\" rel=\"noopener noreferrer\"> GitHub YDLiDAR <\/a><\/li>\n\n<li><a class=\"catalogue\" title=\"GitHub Hokuyo\" href=\"https:\/\/github.com\/ros-drivers\/urg_node\" target=\"_blank\" rel=\"noopener noreferrer\"> GitHub Hokuyo <\/a><\/li>\n\n<li><a class=\"catalogue\" title=\"Tutoriel Hokuyo\" href=\"http:\/\/wiki.ros.org\/urg_node\" target=\"_blank\" rel=\"noopener noreferrer\"> Tutoriel Hokuyo <\/a><\/li>\n\n<li><a class=\"catalogue\" title=\"GitHub ROS SICK\" href=\"https:\/\/github.com\/SICKAG\/sick_scan\" target=\"_blank\" rel=\"noopener noreferrer\"> GitHub ROS SICK <\/a><\/li>\n\n<li><a class=\"catalogue\" title=\"GitHub ROS2 SICK\" href=\"https:\/\/github.com\/SICKAG\/sick_scan2\" target=\"_blank\" rel=\"noopener noreferrer\"> GitHub ROS2 SICK <\/a><\/li>\n\n<li><a class=\"catalogue\" title=\"Tutoriel SICK\" href=\"http:\/\/wiki.ros.org\/sick_scan\" target=\"_blank\" rel=\"noopener noreferrer\"> Tutoriel SICK <\/a><\/li>\n\n<li><a class=\"catalogue\" title=\"GitHub RoboSense \" href=\"https:\/\/github.com\/RoboSense-LiDAR\/ros_rslidar\" target=\"_blank\" rel=\"noopener noreferrer\"> GitHub RoboSense <\/a><\/li>\n<\/ul>\n\n<p>Pour t\u00e9l\u00e9charger le package LiDAR depuis GitHub dans le dossier src de votre <a class=\"catalogue\" title=\"Environnement de travail ROS\" href=\"http:\/\/wiki.ros.org\/ROS\/Tutorials\/InstallingandConfiguringROSEnvironment\" target=\"_blank\" rel=\"noopener noreferrer\"> environnement de travail ROS <\/a> , les commandes sont :<\/p>\n\n<p><em> $ cd ~\/your_workspace\/src <\/em><\/p>\n\n<p><em> $ git clone <\/em><\/p>\n\n<p>(voir liste des GitHub des diff\u00e9rents fabricants ci-dessus)<\/p>\n\n<p>Notez bien le nom du package que vous venez de t\u00e9l\u00e9charger.<\/p>\n\n<p><em> $ cd .. <\/em><\/p>\n\n<p><em> $ catkin_make <\/em><\/p>\n\n<p><em> $ source devel\/setup.bash <\/em><\/p>\n\n<p>Allez dans le dossier <i> launch <\/i> et trouvez le fichier <i> launch <\/i> qui correspond \u00e0 votre version de LiDAR et lancez-le :<\/p>\n\n<p><em> $ roslaunch votre_package votre_launch.launch <\/em><\/p>\n\n<p>Pour v\u00e9rifier que le LiDAR est en cours de publication sur le topic <em> \/scan <\/em> (le nom du topic est indiqu\u00e9 dans le fichier <em> launch <\/em> ), utilisez :<\/p>\n\n<p><em> $ rostopic list <\/em><\/p>\n\n<p>Tous les topics actifs seront list\u00e9s, v\u00e9rifiez que <em> \/scan <\/em> est pr\u00e9sent. Ensuite, v\u00e9rifiez les messages en cours de publication dans <em> \/scan <\/em> en utilisant :<\/p>\n\n<p><em> $ rostopic echo \/scan <\/em><\/p>\n\n<p>Si tout s\u2019est bien pass\u00e9, votre LiDAR est en train de diffuser ses mesures en continu avec succ\u00e8s. Il est possible de visualiser les donn\u00e9es sur Rviz avec la commande ci-dessous. Plus de d\u00e9tails dans ce tutoriel : <a class=\"catalogue\" title=\"Apprenez \u00e0 lire les donn\u00e9es de votre LiDAR avec ROS\" href=\"http:\/\/www.daslhub.org\/unlv\/wiki\/doku.php?id=using_ros_to_read_data_from_a_hokuyo_scanning_laser_rangefinder\" target=\"_blank\" rel=\"noopener noreferrer\"> apprenez \u00e0 lire les donn\u00e9es de votre LiDAR avec ROS. <\/a> Si vous voulez aller plus loin sur RViz, nous vous recommandons ce <a class=\"catalogue\" title=\"RViz : outil de visualisation 3D pour ROS\" href=\"http:\/\/wiki.ros.org\/rviz\" target=\"_blank\" rel=\"noopener noreferrer\"> tutoriel <\/a> .<\/p>\n\n<p><em> $ rosrun rviz rviz <\/em><\/p>\n\n<p>Cliquez sur <em> Ajouter <\/em> , puis s\u00e9lectionnez le topic <em> \/scan <\/em> . Si vous avez une erreur li\u00e9e \u00e0 <em> tf <\/em> , vous devez entrer manuellement votre fix frame comme \u00a0\u00bb <em> \/votre_LiDAR_frame_id <\/em> \u00a0\u00bb dans la zone de texte \u00e0 c\u00f4t\u00e9 du fix frame sur le c\u00f4t\u00e9 gauche de l&rsquo;interface graphique.<\/p>\n\n<p>Le r\u00e9sultat final devrait \u00eatre une cartographie horizontale des distances par rapport au LiDAR dans un syst\u00e8me de coordonn\u00e9es rectangulaires.<\/p>\n<div class=\"wp-block-image\">\n<figure class=\"aligncenter\"><a href=\"https:\/\/blog.generationrobots.com\/wp-content\/uploads\/2019\/09\/lidar-ros-rviz-data.png\"> <img fetchpriority=\"high\" decoding=\"async\" width=\"602\" height=\"439\" class=\"wp-image-6085\" src=\"https:\/\/blog.generationrobots.com\/wp-content\/uploads\/2019\/09\/lidar-ros-rviz-data.png\" alt=\"Int\u00e9gration d\u2019un LiDAR avec ROS : exemples de projets\" srcset=\"https:\/\/www.generationrobots.com\/blog\/wp-content\/uploads\/2019\/09\/lidar-ros-rviz-data.png 602w, https:\/\/www.generationrobots.com\/blog\/wp-content\/uploads\/2019\/09\/lidar-ros-rviz-data-300x219.png 300w\" sizes=\"(max-width: 602px) 100vw, 602px\" \/> <\/a><\/figure><\/div>\n<p>Pour int\u00e9grer le LiDAR avec un autre package, il vous suffit d&rsquo;appeler ce <em> launch <\/em> depuis votre <em> launch <\/em> principal.<\/p>\n\n<p>Certains LiDAR n\u00e9cessitent des \u00e9tapes de configuration suppl\u00e9mentaires. Veuillez consulter le fichier <em> readme <\/em> du package du constructeur pour suivre ces \u00e9tapes.<\/p>\n\n<p>Sur ROS, tous les LiDAR 2D publieront des donn\u00e9es sur le topic de type <a class=\"catalogue\" title=\"ROS LaserScan\" href=\"http:\/\/docs.ros.org\/melodic\/api\/sensor_msgs\/html\/msg\/LaserScan.html\" target=\"_blank\" rel=\"noopener noreferrer\"> LaserScan <\/a> . Pour les LiDAR 2D\/3D, ce sera sur le topic de type <a class=\"catalogue\" title=\"ROS PointCloud\" href=\"http:\/\/docs.ros.org\/melodic\/api\/sensor_msgs\/html\/msg\/PointCloud.html\" target=\"_blank\" rel=\"noopener noreferrer\"> PointCloud <\/a> . Il existe de tr\u00e8s nombreux exemples de code pour vous aider \u00e0 ensuite traiter ces donn\u00e9es.<\/p>\n\n<h2 class=\"wp-block-heading\">Comment impl\u00e9menter du traitement de donn\u00e9es de LiDAR ?<\/h2>\n\n<h3 class=\"wp-block-heading\">1) Cartographie<\/h3>\n\n<h4 class=\"wp-block-heading\">LeGO-LOAM<\/h4>\n\n<p>LeGO-LOAM est sp\u00e9cialement optimis\u00e9 pour un VLP-16 ou un <a class=\"catalogue\" title=\"T\u00e9l\u00e9m\u00e8tres laser 3D Robosense\" href=\"\/fr\/455-telemetres-laser-3d-robosense\"> <strong> LiDAR Robosense <\/strong> <\/a> plac\u00e9 horizontalement sur un v\u00e9hicule terrestre. L\u2019appareil suppose qu&rsquo;il y a toujours un plan terrestre dans le scan. <br \/>L&rsquo;UGV que nous utilisons dans beaucoup de nos exp\u00e9rimentations est le <a class=\"catalogue\" title=\"Jackal drone terrestre (UGV)\" href=\"\/fr\/402144-jackal-drone-terrestre-ugv.html\"> <strong> Jackal de Clearpath Robotics <\/strong> <\/a> . Il dispose d&rsquo;une IMU int\u00e9gr\u00e9e.<\/p>\n\n<p>Ce <a class=\"catalogue\" title=\"Cartographie avec ROS : LeGO-LOAM\" href=\"https:\/\/github.com\/RobustFieldAutonomyLab\/LeGO-LOAM\" target=\"_blank\" rel=\"noopener noreferrer\"> repository <\/a> contient le code d&rsquo;un syst\u00e8me d&rsquo;odom\u00e9trie et de cartographie LiDAR l\u00e9ger et optimis\u00e9 au sol (LeGO-LOAM) pour les UGV compatibles ROS.<\/p>\n\n<p>Le syst\u00e8me prend en entr\u00e9e les nuages de points d&rsquo;un Velodyne VLP-16 LiDAR (plac\u00e9 horizontalement) et les donn\u00e9es IMU en option. Pour utiliser un autre LiDAR 3D, comme le <strong> RS-LIDAR-16 <\/strong> de Robosense, vous devez alors changer les param\u00e8tres de configuration.<\/p>\n\n<p>Il fournit une estimation de pose 6D en temps r\u00e9el.<\/p>\n\n<p>Une d\u00e9monstration du syst\u00e8me peut \u00eatre trouv\u00e9e <a class=\"catalogue\" title=\"LeGO-LOAM : SLAM et odom\u00e9trie de LiDAR avec UVG Jackal sur terrains vari\u00e9s\" href=\"https:\/\/www.youtube.com\/watch?v=O3tz_ftHV48\" target=\"_blank\" rel=\"noopener noreferrer\"> ici <\/a> .<\/p>\n\n<p>Il faut avoir install\u00e9 :<\/p>\n\n<ul class=\"wp-block-list\">\n<li><a class=\"catalogue\" title=\"Versions de ROS: Kinetic et Melody\" href=\"http:\/\/wiki.ros.org\/ROS\/Installation\" target=\"_blank\" rel=\"noopener noreferrer\"> ROS <\/a> (test\u00e9 avec Indigo et Kinetic)<\/li>\n\n<li><a class=\"catalogue\" title=\"GTSAM ROS\" href=\"https:\/\/github.com\/borglab\/gtsam\/releases\" target=\"_blank\" rel=\"noopener noreferrer\"> GTSAM <\/a> (biblioth\u00e8que Georgia Tech Smoothing and Mapping, 4.0.0.0-alpha2) <br \/>\n<h4>A-LOAM<\/h4>\n<p><a class=\"catalogue\" title=\"ROS A-LOAM\" href=\"https:\/\/github.com\/HKUST-Aerial-Robotics\/A-LOAM\" target=\"_blank\" rel=\"noopener noreferrer\"> A-LOAM <\/a> est une impl\u00e9mentation avanc\u00e9e du LOAM (J. Zhang and S. Singh. LOAM: LiDAR Odometry and Mapping in Real-time), qui utilise Eigen et Ceres Solver pour simplifier la structure du code.<\/p>\n<p>Ce code est modifi\u00e9 \u00e0 partir de LOAM et <a class=\"catalogue\" title=\"LOAM_NOTED\" href=\"https:\/\/github.com\/cuitaixiang\/LOAM_NOTED\" target=\"_blank\" rel=\"noopener noreferrer\"> LOAM_NOTED <\/a> . Ce code est propre et simple, sans d\u00e9rivation math\u00e9matique compliqu\u00e9e ni op\u00e9rations redondantes.<\/p>\n<p>C&rsquo;est un bon mat\u00e9riel d&rsquo;apprentissage pour les d\u00e9butants en SLAM.<\/p>\n<p>Il faut avoir install\u00e9 :<\/p>\n<ul>\n<li><a class=\"catalogue\" title=\"Versions de ROS: Kinetic et Melody\" href=\"http:\/\/wiki.ros.org\/ROS\/Installation\" target=\"_blank\" rel=\"noopener noreferrer\"> ROS <\/a> (Kinetic or Melodic)<\/li>\n<li><a class=\"catalogue\" title=\"Ceres Solver\" href=\"http:\/\/ceres-solver.org\/installation.html\" target=\"_blank\" rel=\"noopener noreferrer\"> Ceres Solver <\/a><\/li>\n<li><a class=\"catalogue\" title=\"Prebuilt binaries for Linux\" href=\"http:\/\/www.pointclouds.org\/downloads\/linux.html\" target=\"_blank\" rel=\"noopener noreferrer\"> PCL <\/a><\/li>\n<\/ul>\n<h4>3D LIDAR-based Graph SLAM<\/h4>\n<p><i> <a class=\"catalogue\" title=\"3D LIDAR-based Graph SLAM \" href=\"https:\/\/github.com\/koide3\/hdl_graph_slam\" target=\"_blank\" rel=\"noopener noreferrer\"> hdl_graph_slam <\/a> <\/i> est un package ROS open source pour 6DOF SLAM en temps r\u00e9el utilisant un LIDAR 3D. Il est bas\u00e9 sur le SLAM 3D Graph SLAM avec une estimation de l&rsquo;odom\u00e9trie bas\u00e9e sur l&rsquo;appariement des balayages CND et la d\u00e9tection des boucles.<\/p>\n<p>Il prend \u00e9galement en charge plusieurs contraintes graphiques, telles que le GPS, l&rsquo;acc\u00e9l\u00e9ration IMU (vecteur gravit\u00e9), l&rsquo;orientation IMU (capteur magn\u00e9tique) et le plan du sol (d\u00e9tect\u00e9 dans un nuage de points).<\/p>\n<p>Nous avons test\u00e9 ce package avec les capteurs Velodyne (HDL32e, VLP16) et <a class=\"catalogue\" title=\"T\u00e9l\u00e9m\u00e8tres laser 3D Robosense\" href=\"\/fr\/455-telemetres-laser-3d-robosense\"> Robosense <\/a> (16 canaux) dans des environnements int\u00e9rieurs et ext\u00e9rieurs.<\/p>\n<h4>Spin Hokuyo<\/h4>\n<p>Ce <a class=\"catalogue\" title=\"Repository spin_hokuyo\" href=\"https:\/\/github.com\/RobustFieldAutonomyLab\/spin_hokuyo\" target=\"_blank\" rel=\"noopener noreferrer\"> repository <\/a> contient les codes qui permettent de contr\u00f4ler un <a class=\"catalogue\" title=\"Servomoteur Dynamixel\" href=\"\/fr\/169-servomoteurs-dynamixel\"> servomoteur Dynamixel <\/a> et un <a class=\"catalogue\" title=\"T\u00e9l\u00e9m\u00e8tre laser Hokuyo chez G\u00e9n\u00e9ration Robots\" href=\"\/fr\/262-lidar-hokuyo\"> LiDAR Hokuyo <\/a> 2D pour cr\u00e9er un nuage de points 3D qui peut \u00eatre visible dans RViz.<\/p>\n<p>Ce nuage de points peut ensuite \u00eatre utilis\u00e9 pour cr\u00e9er une octomap.<\/p>\n<p>Page Wiki: <a class=\"catalogue\" title=\"Page Wiki spin_hokuyo\" href=\"http:\/\/wiki.ros.org\/spin_hokuyo\" target=\"_blank\" rel=\"noopener noreferrer\"> http:\/\/wiki.ros.org\/spin_hokuyo <\/a><\/p>\n<p>Autre projet similaire avec le <a class=\"catalogue\" title=\"T\u00e9l\u00e9m\u00e8tre laser Hokuyo UTM-30LX\" href=\"\/fr\/401433-telemetre-laser-hokuyo-utm-30lx.html\"> LiDAR Hokuyo UTM-30LX <\/a> : <a class=\"catalogue\" title=\"Cabine photo 3D avec un LiDAR Hokuyo\" href=\"https:\/\/github.com\/gcc-robotics\/3d_photobooth\/blob\/master\/CapstoneFinalReport_VisionTeam.pdf\" target=\"_blank\" rel=\"noopener noreferrer\"> cabine photo 3D <\/a> .<\/p>\n<h3>2) Calibration<\/h3>\n<h4>Package ROS pour calibrer un LiDAR et une cam\u00e9ra<\/h4>\n<p>Ce <a class=\"catalogue\" title=\"Calibrer un LiDAR avec une cam\u00e9ra\" href=\"https:\/\/github.com\/ankitdhall\/lidar_camera_calibration\" target=\"_blank\" rel=\"noopener noreferrer\"> package ROS <\/a> permet de calibrer un LiDAR Velodyne avec une cam\u00e9ra (fonctionne aussi bien en monoculaire qu&rsquo;en st\u00e9r\u00e9o). Plus pr\u00e9cis\u00e9ment, la cam\u00e9ra Point Gray Blackfly et la cam\u00e9ra ZED ont \u00e9t\u00e9 \u00e9talonn\u00e9es avec succ\u00e8s par rapport au Velodyne VLP-16 en utilisant l&rsquo;\u00e9talonnage LiDAR_camera_calibration.<\/p>\n<p>Comme le VLP-16 n&rsquo;offre que 16 faisceaux, nous pensons que les mod\u00e8les sup\u00e9rieurs du Velodyne fonctionneront tout aussi bien avec cet ensemble. Nous montrons la pr\u00e9cision du pipeline propos\u00e9 en fusionnant des nuages de points, avec une perfection quasi parfaite, \u00e0 partir de plusieurs cam\u00e9ras gard\u00e9es dans diff\u00e9rentes positions.<\/p>\n<div align=\"center\"><iframe src=\"https:\/\/www.youtube.com\/embed\/Om1SFPAZ5Lc\" width=\"560\" height=\"315\" frameborder=\"0\" allowfullscreen=\"allowfullscreen\">\n     <\/iframe><\/div>\n<p>Le package impl\u00e9mente une rotation et une translation qui transforment tous les points du cadre LiDAR en cadre (monoculaire) de la cam\u00e9ra.<\/p>\n<p>Le paquet utilise <i> aruco_ros <\/i> et un <i> aruco_mapping <\/i> l\u00e9g\u00e8rement modifi\u00e9 comme d\u00e9pendances, les deux \u00e9tant disponibles dans le dossier dependencies de ce tutoriel.<\/p>\n<p>La fonction <i> LiDAR_camera_calibration\/pointcloud_fusion <\/i> fournit un script pour fusionner les nuages de points obtenus \u00e0 partir de deux cam\u00e9ras st\u00e9r\u00e9o. Tous deux ont \u00e9t\u00e9 \u00e9talonn\u00e9s \u00e0 l&rsquo;aide d&rsquo;un \u00e9talonnage <i> LiDAR <\/i> et <i> iDAR_camera_calibration <\/i> .<\/p>\n<p>Il est possible de lire la publication qui a suivi ce projet <a class=\"catalogue\" title=\"Calibration de LiDAR et de cam\u00e9ra en utilisant des points de correspondances 3D-3D\" href=\"https:\/\/arxiv.org\/pdf\/1705.09785.pdf\" target=\"_blank\" rel=\"noopener noreferrer\"> ici <\/a> .<\/p>\n<h3>3) Tracking<\/h3>\n<p>Multiple object tracking with LiDAR<\/p>\n<p>Le <a class=\"catalogue\" title=\"Suivi de plusieurs objets avec un LiDAR\" href=\"https:\/\/github.com\/praveen-palanisamy\/multiple-object-tracking-lidar\" target=\"_blank\" rel=\"noopener noreferrer\"> package ROS PCL <\/a> pour D\u00e9tecter\/Cat\u00e9goriser &#8211;&gt; Tracker &#8211;&gt; Classifier les objets statiques et dynamiques en temps r\u00e9el \u00e0 partir des scans LIDAR impl\u00e9ment\u00e9s en C++.<\/p>\n<p>Caract\u00e9ristiques :<\/p>\n<ul>\n<li>Traitement des nuages de points bas\u00e9 sur l&rsquo;arborescence K-D pour la d\u00e9tection de caract\u00e9ristiques d&rsquo;objets \u00e0 partir de nuages de points<\/li>\n<li>Regroupement non supervis\u00e9 de k-means bas\u00e9 sur les caract\u00e9ristiques d\u00e9tect\u00e9es et le raffinement \u00e0 l&rsquo;aide de RANSAC<\/li>\n<li>Suivi stable (identification d&rsquo;objet et association de donn\u00e9es) avec un ensemble de filtres Kalman<\/li>\n<li>Robuste par rapport \u00e0 la mise en grappe des moyennes k avec suivi du flux moyen<\/li>\n<\/ul>\n<h3>4) Fusion<\/h3>\n<p>Extended Kalman Filter Project Starter Code<\/p>\n<p>Dans ce <a class=\"catalogue\" title=\"Filtre Extended Kalman\" href=\"https:\/\/github.com\/KathanSheth\/Extended-Kalman-Filter\" target=\"_blank\" rel=\"noopener noreferrer\"> projet <\/a> , vous utiliserez un filtre Kalman pour estimer l&rsquo;\u00e9tat d&rsquo;un objet en mouvement \u00e0 l&rsquo;aide de mesures radar et LiDAR bruyantes.<\/p>\n<p>Pour r\u00e9ussir le projet, il faut obtenir des valeurs de REQM qui sont inf\u00e9rieures \u00e0 la tol\u00e9rance indiqu\u00e9e dans la rubrique du projet.<\/p>\n<p>Ce projet n\u00e9cessite d\u2019avoir install\u00e9 le <a class=\"catalogue\" title=\"Simulateur Term 2\" href=\"https:\/\/github.com\/udacity\/self-driving-car-sim\/releases\" target=\"_blank\" rel=\"noopener noreferrer\"> simulateur Term 2 <\/a> .<\/p>\n<p>Ce d\u00e9p\u00f4t comprend deux fichiers qui peuvent \u00eatre utilis\u00e9s pour configurer et installer <a class=\"catalogue\" title=\"uWebSockets\" href=\"https:\/\/github.com\/uWebSockets\/uWebSockets\" target=\"_blank\" rel=\"noopener noreferrer\"> uWebSocketIO <\/a> pour les syst\u00e8mes Linux ou Mac. Pour Windows, vous pouvez utiliser Docker, VMware ou m\u00eame <a class=\"catalogue\" title=\"How to Install and Use the Linux Bash Shell on Windows 10\" href=\"https:\/\/www.howtogeek.com\/249966\/how-to-install-and-use-the-linux-bash-shell-on-windows-10\/\" target=\"_blank\" rel=\"noopener noreferrer\"> Windows 10 Bash sur Ubuntu <\/a> pour installer uWebSocketIO.<\/p>\n<h4>Fusion EKF<\/h4>\n<ul>\n<li><a class=\"catalogue\" title=\"Librairies Python\" href=\"https:\/\/github.com\/mithi\/fusion-ekf-python\" target=\"_blank\" rel=\"noopener noreferrer\"> Librairies Python <\/a><\/li>\n<li><a class=\"catalogue\" title=\"Librairies C++\" href=\"https:\/\/github.com\/mithi\/fusion-ekf\" target=\"_blank\" rel=\"noopener noreferrer\"> Librairies C++ <\/a><\/li>\n<\/ul>\n<p>\u00a0<\/p>\n<\/li>\n<\/ul>\n\n<p>Il s&rsquo;agit d&rsquo;une impl\u00e9mentation \u00e9tendue du filtre de Kalman pour la fusion des mesures de LiDAR et de capteurs radar. Un filtre de Kalman peut \u00eatre utilis\u00e9 partout o\u00f9 vous avez des informations incertaines sur un syst\u00e8me dynamique, et vous voulez faire une estimation \u00e9clair\u00e9e sur ce que le syst\u00e8me va faire ensuite.<\/p>\n\n<p><b> Dans ce cas, nous avons deux capteurs &lsquo;bruyant&rsquo; : <\/b><\/p>\n\n<ul class=\"wp-block-list\">\n<li>Un capteur LiDAR qui mesure notre position en coordonn\u00e9es cart\u00e9siennes (x, y)<\/li>\n\n<li>Un capteur radar qui mesure notre position et notre vitesse en coordonn\u00e9es polaires (rho, phi, drho). <b> Nous voulons pr\u00e9dire notre position et \u00e0 quelle vitesse nous allons \u00e0 tout moment : <\/b><\/li>\n\n<li>Essentiellement : la position et la vitesse du syst\u00e8me en coordonn\u00e9es cart\u00e9siennes : (x, y, vx, vy)<\/li>\n\n<li>Notez que nous supposons un mod\u00e8le de vitesse constante (CV) pour ce syst\u00e8me particulier. <b> Ce filtre Kalman \u00e9tendu fait exactement cela. <\/b> <br \/>\n<h4>Fusion UKF<\/h4>\n<p>Compar\u00e9 au <a class=\"catalogue\" title=\"Fusion EKF\" href=\"https:\/\/github.com\/mithi\/Fusion-EKF-CPP\" target=\"_blank\" rel=\"noopener noreferrer\"> filtre de Kalman \u00e9tendu <\/a> avec un mod\u00e8le \u00e0 vitesse constante, la RMSE devrait \u00eatre plus faible pour le <a class=\"catalogue\" title=\"Impl\u00e9mentation du filtre Unscented Kalman Filter en C++ pour mesures avec LiDAR et radars\" href=\"https:\/\/github.com\/mithi\/fusion-ukf\" target=\"_blank\" rel=\"noopener noreferrer\"> filtre de Kalman unscented <\/a> , en particulier pour la vitesse.<\/p>\n<p>Le mod\u00e8le CTRV est plus pr\u00e9cis qu&rsquo;un mod\u00e8le \u00e0 vitesse constante. Et UKF est \u00e9galement connu pour mieux g\u00e9rer les \u00e9quations non lin\u00e9aires que EKF.<\/p>\n<h3>Robotique mobile<\/h3>\n<p>L&rsquo;utilisation d&rsquo;un LiDAR n&rsquo;est parfois pas suffisante pour certaines applications. En effet, d&rsquo;autres donn\u00e9es doivent \u00eatre recueillies pour en assurer l&rsquo;exactitude. Au fur et \u00e0 mesure que le capteur se d\u00e9place (car plac\u00e9 sur un robot mobile), l&#8217;emplacement et l&rsquo;orientation de l&rsquo;instrument doivent \u00eatre inclus pour d\u00e9terminer la position de l&rsquo;impulsion laser au moment de l&rsquo;envoi et le moment du retour.<\/p>\n<p>Ces informations suppl\u00e9mentaires sont cruciales pour l&rsquo;int\u00e9grit\u00e9 des donn\u00e9es. Sont souvent ajout\u00e9s en compl\u00e9ment :<\/p>\n<ul>\n<li>Une cam\u00e9ra<\/li>\n<li>Une puce GPS<\/li>\n<li>Une IMU (Unit\u00e9 de mesure inertielle)<\/li>\n<li>Capteurs ToF<\/li>\n<\/ul>\n<p>\u00a0<\/p>\n<\/li>\n<\/ul>\n\n<p>Pour obtenir des valeurs pr\u00e9cises, vous devez fusionner ces donn\u00e9es et conserver celles qui sont les plus fiables en fonction de l&rsquo;environnement et de la situation. <strong> Cette \u00e9tape est la fusion de donn\u00e9es (data fusion). <\/strong> Attention, dans certains cas, certains capteurs fournissent le m\u00eame type de donn\u00e9es mais avec des valeurs diff\u00e9rentes en raison de leur pr\u00e9cision et de leur erreur. Vous devez donc trouver la valeur r\u00e9elle en fonction des diff\u00e9rentes valeurs des capteurs.<\/p>\n\n<p><strong> La fusion de donn\u00e9es est une partie cruciale <\/strong> . Fusionner toutes ces donn\u00e9es permettrait au robot de se situer dans son environnement connu. Plus la pr\u00e9cision de vos capteurs et de votre logiciel de navigation est \u00e9lev\u00e9e, plus votre position d&rsquo;estimation sera \u00e9lev\u00e9e.<\/p>\n\n<h4 class=\"wp-block-heading\">Impl\u00e9menter SLAM en robotique mobile<\/h4>\n\n<p>Les algorithmes SLAM les plus connus sont :<\/p>\n\n<ul class=\"wp-block-list\">\n<li><a class=\"catalogue\" title=\"SLAM EFK\" href=\"https:\/\/en.wikipedia.org\/wiki\/EKF_SLAM\" target=\"_blank\" rel=\"noopener noreferrer\"> EKF SLAM <\/a><\/li>\n\n<li><a class=\"catalogue\" title=\"FastSLAM\" href=\"https:\/\/en.wikipedia.org\/wiki\/FastSLAM\" target=\"_blank\" rel=\"noopener noreferrer\"> FastSLAM 2.0 <\/a><\/li>\n<\/ul>\n\n<p>L&rsquo;image ci-dessous est l&rsquo;architecture de la navigation stack de ROS qui est une impl\u00e9mentation de SLAM :<\/p>\n<div class=\"wp-block-image\">\n<figure class=\"aligncenter\"><a href=\"https:\/\/blog.generationrobots.com\/wp-content\/uploads\/2019\/09\/ros-slam-navigation-stack-setup.jpg\"> <img decoding=\"async\" width=\"602\" height=\"247\" class=\"wp-image-6073\" src=\"https:\/\/blog.generationrobots.com\/wp-content\/uploads\/2019\/09\/ros-slam-navigation-stack-setup.jpg\" alt=\"Architecture de la navigation stack de ROS\" srcset=\"https:\/\/www.generationrobots.com\/blog\/wp-content\/uploads\/2019\/09\/ros-slam-navigation-stack-setup.jpg 602w, https:\/\/www.generationrobots.com\/blog\/wp-content\/uploads\/2019\/09\/ros-slam-navigation-stack-setup-300x123.jpg 300w\" sizes=\"(max-width: 602px) 100vw, 602px\" \/> <\/a><\/figure><\/div>\n<p>Les capteurs fournissent les valeurs d\u2019entr\u00e9e : sources des capteurs et de l&rsquo;odom\u00e9trie. Sur la base de ces deux sources de donn\u00e9es, l\u2019algorithme calcule la transformation du capteur, l&rsquo;estimation de la pose ( <em> amcl <\/em> ) et la cartographie de l&rsquo;environnement ( <em> map_server <\/em> ). Avec toutes ces donn\u00e9es, le planificateur de trajet peut prendre des d\u00e9cisions.<\/p>\n\n<p>Les capteurs sont donc essentiels et le LiDAR est le meilleur capteur pour obtenir des donn\u00e9es <em> LaserScan <\/em> ou <em> PointCloud <\/em> .<\/p>\n\n<p>Pour plus de pr\u00e9cisions, vous pouvez consulter cette <a class=\"catalogue\" title=\"Introduction \u00e0 la navigation d'un robot avec ROS\" href=\"https:\/\/www.dis.uniroma1.it\/~nardi\/Didattica\/CAI\/matdid\/robot-programming-ROS-introduction-to-navigation.pdf\" target=\"_blank\" rel=\"noopener noreferrer\"> introduction \u00e0 la navigation avec ROS <\/a> .<\/p>\n\n<p class=\"has-text-align-center\"><span style=\"color: #000000;\"> <strong> Consultez les autres articles de notre s\u00e9rie \u201cTechnologie LiDAR\u201d <\/strong> <\/span><\/p>\n\n<figure class=\"wp-block-table\">\n<table>\n<tbody>\n<tr>\n<td><a title=\"Quelles applications pour les LiDAR ?\" href=\"\/blog\/fr\/quelles-applications-pour-les-lidar\/\"> <img decoding=\"async\" src=\"https:\/\/static.generation-robots.com\/img\/cms\/bouton-CTA-articles-blog-lidar-3.jpg\" alt=\"Quelles applications pour les LiDAR ?\" width=\"270\" height=\"110\" \/> <\/a><\/td>\n<td>\u00a0<\/td>\n<td>\u00a0<\/td>\n<\/tr>\n<\/tbody>\n<\/table>\n<\/figure>\n\n<p>Consultez notre section <a class=\"catalogue\" title=\"T\u00e9l\u00e9m\u00e8tres laser chez G\u00e9n\u00e9ration Robots\" href=\"\/fr\/206-capteurs-lidar-pour-la-robotique-et-l-automatisation\"> LiDAR pour la recherche et le sup\u00e9rieur <\/a> ou <a class=\"catalogue\" title=\"Contactez G\u00e9n\u00e9ration Robots\" href=\"\/fr\/contactez-nous\"> contactez-nous <\/a> pour avoir plus d&rsquo;informations ou obtenir un devis.<\/p>\n\n<p class=\"has-text-align-center\"><strong> Les marques de LiDAR distribu\u00e9es par G\u00e9n\u00e9ration Robots <\/strong><\/p>\n\n<figure class=\"wp-block-table\">\n<table>\n<tbody>\n<tr>\n<td class=\"has-text-align-center\" data-align=\"center\"><a class=\"catalogue\" title=\"LiDAR Ouster pour la robotique\" href=\"\/fr\/536-lidar-ouster\"> <img loading=\"lazy\" decoding=\"async\" src=\"https:\/\/static.generation-robots.com\/img\/ouster-lidar-robots-mobiles.jpg\" alt=\"LiDARs Ouster pour robots mobiles\" width=\"170\" height=\"96\" \/> <\/a><\/td>\n<td class=\"has-text-align-center\" data-align=\"center\"><a class=\"catalogue\" title=\"LiDAR Slamtec chez G\u00e9n\u00e9ration Robots\" href=\"\/fr\/198_slamtec\"> <img loading=\"lazy\" decoding=\"async\" src=\"https:\/\/static.generation-robots.com\/img\/cms\/slamtec-lidar-logo.jpg\" alt=\"LiDARs Slamtec\" width=\"170\" height=\"96\" \/> <\/a><\/td>\n<td class=\"has-text-align-center\" data-align=\"center\"><a class=\"catalogue\" title=\"LiDAR YDlidar chez G\u00e9n\u00e9ration Robots\" href=\"\/fr\/222_ydlidar\"> <img loading=\"lazy\" decoding=\"async\" src=\"https:\/\/static.generation-robots.com\/img\/cms\/YDlidar-lidar-logo.jpg\" alt=\"LiDARs YDLidar\" width=\"170\" height=\"96\" \/> <\/a><\/td>\n<\/tr>\n<tr>\n<td class=\"has-text-align-center\" data-align=\"center\"><a class=\"catalogue\" title=\"T\u00e9l\u00e9m\u00e8tres laser 3D Robosense\" href=\"\/fr\/455-telemetres-laser-3d-robosense\"> <img loading=\"lazy\" decoding=\"async\" src=\"https:\/\/static.generation-robots.com\/img\/cms\/robosense-lidar-logo.jpg\" alt=\"LiDARs Robosense\" width=\"170\" height=\"96\" \/> <\/a><\/td>\n<td class=\"has-text-align-center\" data-align=\"center\"><a class=\"catalogue\" title=\"T\u00e9l\u00e9m\u00e8tre laser Hokuyo chez G\u00e9n\u00e9ration Robots\" href=\"\/fr\/262-lidar-hokuyo\"> <img loading=\"lazy\" decoding=\"async\" class=\"aligncenter\" src=\"https:\/\/static.generation-robots.com\/img\/cms\/hokuyo-lidar-logo.jpg\" alt=\"LiDARs Hokuyo\" width=\"170\" height=\"96\" \/> <\/a><\/td>\n<td class=\"has-text-align-center\" data-align=\"center\"><a class=\"catalogue\" title=\"T\u00e9l\u00e9m\u00e8tre laser Sick chez G\u00e9n\u00e9ration Robots\" href=\"\/fr\/263-telemetre-laser-sick\"> <img loading=\"lazy\" decoding=\"async\" src=\"https:\/\/static.generation-robots.com\/img\/cms\/sick-lidar-logo.jpg\" alt=\"LiDARs SICK\" width=\"170\" height=\"96\" \/> <\/a><\/td>\n<\/tr>\n<\/tbody>\n<\/table>\n<\/figure>\n\n<div class=\"wp-block-leadin-hubspot-form-block\">\u00a0<\/div>\n\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/section>\n\t\t\t\t<section class=\"elementor-section elementor-top-section elementor-element elementor-element-27616478 elementor-section-boxed elementor-section-height-default elementor-section-height-default\" data-id=\"27616478\" data-element_type=\"section\" data-e-type=\"section\">\n\t\t\t\t\t\t<div class=\"elementor-container elementor-column-gap-default\">\n\t\t\t\t\t<div class=\"elementor-column elementor-col-100 elementor-top-column elementor-element elementor-element-2e889a7b\" data-id=\"2e889a7b\" data-element_type=\"column\" data-e-type=\"column\">\n\t\t\t<div class=\"elementor-widget-wrap elementor-element-populated\">\n\t\t\t\t\t\t<div class=\"elementor-element elementor-element-2cecc779 elementor-widget elementor-widget-spacer\" data-id=\"2cecc779\" data-element_type=\"widget\" data-e-type=\"widget\" data-widget_type=\"spacer.default\">\n\t\t\t\t<div class=\"elementor-widget-container\">\n\t\t\t\t\t\t\t<div class=\"elementor-spacer\">\n\t\t\t<div class=\"elementor-spacer-inner\"><\/div>\n\t\t<\/div>\n\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t<div class=\"elementor-element elementor-element-3919dc9c elementor-widget elementor-widget-image\" data-id=\"3919dc9c\" data-element_type=\"widget\" data-e-type=\"widget\" data-widget_type=\"image.default\">\n\t\t\t\t<div class=\"elementor-widget-container\">\n\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t<a href=\"https:\/\/content.generationrobots.com\/guide-choisir-le-bon-lidar\">\n\t\t\t\t\t\t\t<img decoding=\"async\" src=\"https:\/\/static.generation-robots.com\/img\/banniere-livre-blanc-choisir-le-bon-lidar-pour-votre-projet-robotique.png\" title=\"\" alt=\"Livre blanc  - Choisir le bon LiDAR pour votre projet robotique\" loading=\"lazy\" \/>\t\t\t\t\t\t\t\t<\/a>\n\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/section>\n\t\t\t\t<\/div>\n\t\t","protected":false},"excerpt":{"rendered":"<p>\u00a0 Consultez les autres articles de notre s\u00e9rie \u201cTechnologie LiDAR\u201d \u00a0 \u00a0 Int\u00e9gration d&rsquo;un LiDAR avec ROS : exemples de projets Dans cette publication, vous aller apprendre \u00e0 connecter et int\u00e9grer votre LiDAR \u00e0 votre PC ou carte embarqu\u00e9e en utilisant le middleware ROS sur Ubuntu. La fusion de donn\u00e9e, tr\u00e8s utilis\u00e9e en robotique mobile[&#8230;]<br \/> <a class=\"button\" href=\"https:\/\/www.generationrobots.com\/blog\/fr\/integration-dun-lidar-avec-ros-exemples-de-projets\/\" style=\"float:right;\">Read this article &gt;&gt;<\/a><\/p>\n","protected":false},"author":188,"featured_media":6079,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[10523,10527],"tags":[],"class_list":["post-6071","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-comparatifs-et-tests-produits","category-guides-et-tutoriels"],"_links":{"self":[{"href":"https:\/\/www.generationrobots.com\/blog\/wp-json\/wp\/v2\/posts\/6071","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.generationrobots.com\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.generationrobots.com\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.generationrobots.com\/blog\/wp-json\/wp\/v2\/users\/188"}],"replies":[{"embeddable":true,"href":"https:\/\/www.generationrobots.com\/blog\/wp-json\/wp\/v2\/comments?post=6071"}],"version-history":[{"count":35,"href":"https:\/\/www.generationrobots.com\/blog\/wp-json\/wp\/v2\/posts\/6071\/revisions"}],"predecessor-version":[{"id":18708,"href":"https:\/\/www.generationrobots.com\/blog\/wp-json\/wp\/v2\/posts\/6071\/revisions\/18708"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.generationrobots.com\/blog\/wp-json\/wp\/v2\/media\/6079"}],"wp:attachment":[{"href":"https:\/\/www.generationrobots.com\/blog\/wp-json\/wp\/v2\/media?parent=6071"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.generationrobots.com\/blog\/wp-json\/wp\/v2\/categories?post=6071"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.generationrobots.com\/blog\/wp-json\/wp\/v2\/tags?post=6071"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}