ISAV 2011-2012
Projets tutorés
Interface à retour d’efforts à un degré de liberté pour l’injection de ciment en vertébroplastie
Encadrants : Laurent Barbé
Étudiants : Brouta, Reboulet
Objectif : Réaliser et commander une interface à retour d’efforts à 1 degré de liberté.
L’injection de ciment orthopédique sous contrôle d’image scanner est une procédure relativement dangereuse (à long terme) pour le médecin radiologue. En effet, lors de l’injection, le radiologue est directement exposé aux rayons X pendant une durée pouvant atteindre 15 minutes. Le projet Spinetronic de l’équipe AVR du LSIIT vise à éloigner le radiologue le plus possible de la source ionisante. A l’heure actuelle nous avons développé un système d’injection robotisée couplé à une interface à retour d’efforts, qui permet de téléopérer l’injection tout en restituant une image des efforts mis en jeux lors de l’injection. Le but de ce projet est de proposer une alternative à l’interface haptique actuelle trop volumineuse pour ce type d’application, pour cela nous souhaitons évaluer les performances d’une interface utilisant un micromoteur linéaire couplé à un capteur d’efforts.
Déroulement du projet :
- Montage de l’interface haptique (à savoir que cette phase ne nécessite pas de compétences particulières en CAO, uniquement une certaine aptitude au montage mécanique).
- Connexion du matériel au PC de contrôle ;
- Développer une partie logicielle permettant de contrôler l’interface (mesure de position, mesure d’efforts, renvoie des efforts) dans un environnement temps-réel ;
- Caractérisation du système et développement d'une loi de commande en efforts ;
- Intégrer le dispositif dans le banc de test d’injection de ciment disponible sur la plateforme robotique de l’IRCAD.
Matériel disponible :
- moteur linéaire Faulhaber ;
- capteur de position ;
- capteur d’efforts ENTRAN à 1 degré de liberté ;
- pièces mécaniques ou éléments mécaniques ;
- PC sous Linux temps-réel (Xenomai) ;
- Modules Beckhoff pour la commande et la mesure (protocole EtherCAT) ;
Remarques :
- Par commodité, le projet se déroulera principalement sur la plateforme robotique médicale du LSIIT située à l’IRCAD (Institut de Recherche contre les Cancers de l’Appareil Digestif dans l’enceinte des Hôpitaux Civils de Strasbourg).
- Pour toute la partie assemblage et intégration, vous pourrez compter sur une assistance technique.
- La partie logicielle nécessite un certain intérêt pour la programmation avec contraintes temps-réelles.
Contact : Laurent Barbé
Réalisation d'une cellule de caractérisation pour système à câble
Encadrants : Philippe Zanne
Étudiants :
Objectif : développer une cellule de mesure extéroceptive de la position de l’organe terminal d'un robot à câble basée sur la vision.
Dans le cadre de ses recherches en radiologie interventionnelle sous IRM, l’équipe AVR développe un système de positionnement d’aiguille compatible IRM. L’organe terminal tenant l’aiguille est actionné à l’aide de 4 câbles reliés à 4 moteurs asservis en position. La position cartésienne de l’organe terminal est reconstruite à partir du modèle géométrique robot. Cette reconstruction est cependant entachée d’erreurs notamment à cause de problèmes de mesures sur les paramètres géométriques du robot, de frottements ainsi que sur l’estimation des zéros des moteurs.
L’idée de ce projet est de développer une cellule de mesure extéroceptive de la position de l’organe terminal basée sur la vision, afin d’affiner le modèle géométrique disponible et d’étalonner le robot.
Déroulement du projet :
- Mise en place du système de vision (étalonnage de la caméra ou des caméras).
- Reconstruction de la position de la base du robot par rapport au système de vision à partir de points caractéristiques de la structure
- Suivi de l’organe terminal dans l’image
- Reconstruction de la pose de l’organe terminal dans la base du robot ( à cadence vidéo)
- Développement de la procédure d ‘étalonnage du robot
- Asservissement de l’organe terminal par vision. ( ce dernier point est facultatif)
Matériel disponible :
- Système de positionnement d'aiguille et son contrôleur
- Système de vision et son PC (sous linux)
- Une base de fonctions de vision pour la reconstruction et le suivi
Remarques :
- Par commodité, le projet se déroulera principalement sur la plateforme robotique médicale du LSIIT située à l’IRCAD (Institut de Recherche contre les Cancers de l’Appareil Digestif dans l’enceinte des Hôpitaux Civils de Strasbourg).
- Une assistance technique sera disponible pour la manipulation de la plateforme de positionnement
- Des compétences en programmation C ou C++ sont nécessaires.
SLAM : Simultaneous Localization and Mapping pour robot mobile à roues
Encadrant : Bernard Bayle
Étudiants : Pihen, Tourret
Objectif : Réaliser un simulateur pour la cartographie et la localisation en robotique mobile.
Le problème principal de la robotique mobile réside dans le fait de percevoir l'environnement et d'y localiser le robot afin de réaliser une navigation sûre vers un objectif donné. Pour cela, on consitute généralement une carte métrique de l'environnement à l'aide de mesure réalisées par un télémètre.
On s'intéresse ici à la télémétrie par ultrasons. Les mesures successives faites dans l'environnement à l'aide du capteur doivent permettre de constituer une carte fine tenant compte de la confiance que l'on a dans le capteur utilisé. Par ailleurs, la carte étant constitué au gré des mouvements du robot, il faut simultanément se localiser dans cette carte afin de recaler les nouvelles mesures, et au final permettre la navigation du robot. On se propose dans ce projet d'étudier le problème le localisation et cartographie simultanées (SLAM) et de réaliser un simulateur, à partir de données recueillies à l'aide de capteurs réels dans une scène encombrée d'obstacles. Le développement se fera dans un premier temps avec le logiciel Matlab, et sera porté en C si le temps le permet, pour réaliser l'implantation de l'algorithme de SLAM sur Robot LEGO.
Déroulement du projet :
- Compréhension du problème de localisation et de cartographie, lecture d'une ou deux références principales en la matière
- Acquisition de données réelles à l'aide d'un robot Lego et d'un ou plusieurs télémètres
- Analyse de ces données et caractérisation des capteurs
- Consitution d'un simulateur Matlab ou/et C pour faire du SLAM 2D
- Idéalement implémentation sur robot LEGO
Contact : Bernard Bayle
Pacemaker respiratoire
Titre : Régulation du rythme respiratoire d’un patient non sédaté
Mots-clés : commande, ingénierie biomédicale
Localisation : ENSPS, Illkirch
Étudiants : Rmouche, Kamil
Contexte
De nombreuses interventions sont pratiquées sur des patients non sédatés, c’est à dire qui n’ont pas subi d’anesthésie et dont la respiration n’est pas contrôlée par une machine de ventilation artificielle. Dans ce cas, la respiration du patient est libre et susceptible de varier en amplitude et en fréquence. Pour certaines interventions il est souhaitable voire critique de maintenir un profil de respiration constant. Par exemple pour certaines interventions guidées par échographie, le chirurgien doit compenser en temps-réel les mouvements des organes dus à la respiration. Plus ces mouvements sont erratiques et plus difficile sera sa tâche. De même, certaines radiothérapies ont pour cible des tumeurs très mobiles (sur le poumon par exemple). Dans ce cas, on utilise des sources mobiles montées sur robot qui tentent de focaliser en permanence le faisceau de rayonnements vers la tumeur. Ces systèmes de suivi fonctionnent d’autant mieux que le mouvement respiratoire est régulier. Ce stage vise à développer un « pacemaker respiratoire ». Le système a été conçu et fabriqué. Il s’agit maintenant de réaliser la mise au point en développant des lois de commande qui visent à stabiliser la respiration d’un patient conscient.
Description du système
Deux vannes actionnées par des motoréducteurs ultra-rapides permettent de contrôler en temps-réel la résistance du flux d’air entrant et sortant. Des capteurs de débit et de pression fournissent à l’ordinateur de commande les informations de contre réaction nécessaires pour la régulation de la respiration. Le système est entièrement passif, c’est à dire qu’il n’est pas capable de fournir de l’énergie ce qui est un pré requis pour la sécurité.
Travail à effectuer
Le travail consiste à améliorer la loi de commande permettant de réguler le flux d'air. Un travail préliminaire a permis de réaliser l'interfaçage avec les moteurs et les capteurs ainsi que de valider une première commande élémentaire. Ce projet vise à augmenter les performances de la commande et à valider son efficacité par des essais expérimentaux.
Contact : Jacques Gangloff
SURF accéléré GPU
Titre : SURF accéléré GPU
Étudiants : Vultaggio, Rousseau
Mots-clés : Vision, Traitement d'image, OpenCV
Localisation : ENSPS, Illkirch
Description
SURF (Speeded Up Robust Features) est un algorithme de détection rapide de descripteurs robustes. Les GPGPUs (General-purpose computing on graphics processing units) permettent de décupler la puissance de calcul parallèle de machines grand publique en utilisant les unités de traitement des cartes graphiques via un pseudo-langage de programmation s'apparentant au C (CUDA pour les cartes nVidia). Une version CUDA de l'algorithme SURF est proposée dans la bibliothèque de fonctions OpenCV. Le projet consistera à réaliser un localisateur 3D temps-réel basé sur cet algorithme. Le travail portera sur le choix d'une cible maximisant la robustesse de détection, sur la programmation de l'algorithme de détection et de reconstruction 3D (en utilisant les fonctions OpenCV) et sur la restitution à l’écran de la position reconstruite via une interface graphique avec visualisation 3D de la position courant de la cible.
Matériel
Mise à disposition d'un PC "musclé'" équipé d'une carte nVidia GeForce GTX 560 Ti avec 384 coeurs et d'une Webcam USB. Il est préférable que les étudiants choisissant ce projet soient familiers avec l'environnement Linux et aient de fortes affinités avec la programmation en langage C/C++.
Contact : Jacques Gangloff
Atterissage en pilote automatique d'un AR Drone
Encadrants : Loïc Cuvillon (1 binôme (2 binômes si plus de projets disponibles))
Étudiants : Mahé, Malmonte
Mots-clés : Drone, Asservissement Visuel, OpenCV, Commande (PID)
Localisation : ENSPS (C138 et plein air), Illkirch
Objectif : Piloter un Drone à partir d'un PC et de la webcam embarquée pour un aterrisage automatique.
L’AR Drone est un quadricoptère avec un Linux embarqué pilotable par Wifi. Une application ludique pour le piloter est disponible sur Iphone/Ipad ou Android. Un kit de développement est cependant disponible pour le piloter à partir de PC Linux via le Wifi https://projects.ardrone.org . On trouve déjà nombre de projets en ligne de pilotage du Drone en C ou python à partir de Linux.
On se propose ici d'utiliser les 2 webcams embarquées pour visualiser une cible (croix au sol) et réaliser un atterrissage en mode automatique sur la cible. Le traitement de l'image reçue sur le PC sera grandement facilité par l'utilisation de la bibliothèque OpenCV qui implémente la grande majorité des algorithmes de détection de contours et de formes. L'ensemble sera codé en C ou au choix C++.
Un prolongement possible du projet est le "drone suiveur": l'asservissement visuel de la position d'un drone sur un autre drone.
Déroulement du projet :
- Prise en Main de l'AR Drone
- Mise en place de la connexion Wifi PC - Drone sous linux.
- Lecture des images de la webcam du Drone sur le PC
- Détection de la cible
- Asservissement sur la cible et calcul d'une trajectoire
Matériel disponible :
- 2 PC Linux avec une carte WiFi et la bibliothèque de traitement d'image OpenCV;
- 2 AR Drones ;
- 2 batteries additionnelles ;
Contact : Loïc Cuvillon
Commande basée observateur non linéaire pour la commande d’un système moteur à c.c. couplé à deux charges
Mots-clés : Commande par retour d’état, observateur non linéaire, simulation Matlab
Localisation : ENSPS, Illkirch
Étudiants : Muller, Carvalho, Peloux
Objectif : Commande basée observateur non linéaire pour la commande d’un système comportant deux charges couplées à un moteur, avec zone morte, à travers un arbre élastique
Des nombreux systèmes mécaniques, rencontrés par exemple dans des applications telles que les machines-outils et la robotique, comportent des arbres de transmission longs ainsi que des broches pouvant générer des torsions élastiques au niveau de la structure mécanique. De plus, la présence des roulements et des systèmes de transmission introduit des effets de type frottement non linéaire et zone morte. Cela peut générer des cycles limites et des effets « stick-slip ».
Ces systèmes mécaniques peuvent être modélisés de façon satisfaisante par un modèle à deux masses couplées à travers un arbre élastique à un moteur à c.c avec zone morte. L’objectif de ce projet est de simuler le système et d’élaborer une loi de commande par retour d’état basée observateur capable de prendre en compte les non linéarités du système.
Déroulement du projet :
- Compréhension du système et simulation Matlab/Simulink
- Synthèse d’une commande par retour d’état et d’un observateur non linéaire
- Etude des performances du système en boucle fermée (simulation Matlab)
- Extension à la commande robuste basée observateur non linéaire
Contact : Iuliana Bara
Soutenances de stage
Stagiaire | Structure d'accueil | Lieu | Encadrant | Titre |
RMOUCHE Anas | Heinzmann | Schönau (DE) | Christophe Fenart | Automatic gas engine ignition energy control for reliable operation and increase spark plug lifetime |
ROUSSEAU Loïc | THALES optronique | Elancourt | Florian Langlois | Détection de mouvements sur images drone |
MAHE Antoine | Univ. Ottawa, SMART Lab | Ottawa, CA | Pierre Payeur | Planification de trajectoire pour le suivi de surfaces courbes guidé par rétroaction visuelle et de contact |
TOURRET Benoit | ECA robotics | Saclay | Benoit Morisset | Développement d'un module d'interaction homme-machine basé sur la reconnaissance vocale |
MULLER Christophe | SPENO international SA | Genève, CH | Yvan Isely | Modélisation du comportement du chariot de meulage RR64M-2 |
BROUTA Remy | BOSCH | Stuttgart, DE | Dr Heiko Ridderbisch | Laser ignition system |
PIHEN Guillaume | EPFL/LASA | Lausanne | Pr Aude Billard | Teaching a robot how to reproduce a child's handwriting |
PELOUX Pierre | Siemens | Munich | Dr Robert Eidenberger | Development of a method of object detection |
TELES André | Siemens | Munich | Michael Flegert | Autonomous system testing in practice : a systematic approach |
KAMIL Ahmed | Adpet | Annecy | Arfire Christian | Caractérisation d'un capteur de force et de moment |
MALMONTE Julien | Altran technologies | Illkirch | Rodolphe Querelle | Evaluation d'une solution de prototypage rapide |
VULTAGGIO Maxime | JRL | Tsukuba, JP | Abderrahmane Kheddar | A visual servoing scheme human-humanoid joint object transformation |
REBOULET Bastien | THALES avionics | Le Haillan | Cécile André | Definition et prototypage de nouveaux concepts d'interfaces homme-système pour la gestion de la mission dans un cockpit d'hélicoptère |