IMA3/IMA4 2018/2020 P21 : Différence entre versions

De Wiki de Projets IMA
(Godot)
(Godot)
Ligne 1 141 : Ligne 1 141 :
 
*une scène nommée "le_drone" de type KinematicBody (pour les déplacements 3D), à l'intérieur : un drone importé depuis internet (format .obj), et un contour (CollisionShape) qui nous permettra d'interagir avec d'autre solides (typiquement poser le drone sur le sol). Il y a différentes manière de définir les coutours, nous avons choisi un cube qui englobe le drone pour faciliter son contact avec le sol.
 
*une scène nommée "le_drone" de type KinematicBody (pour les déplacements 3D), à l'intérieur : un drone importé depuis internet (format .obj), et un contour (CollisionShape) qui nous permettra d'interagir avec d'autre solides (typiquement poser le drone sur le sol). Il y a différentes manière de définir les coutours, nous avons choisi un cube qui englobe le drone pour faciliter son contact avec le sol.
  
[[Fichier:godot-base-drone-1.png|400px]]
+
[[Fichier:Godot-base-drone-1.PNG|400px]]
  
 
*une scène nommée "le_sol" de type StaticBody, à l'intérieur : un pavé de couleur verte, et des contours qui épousent la forme du sol
 
*une scène nommée "le_sol" de type StaticBody, à l'intérieur : un pavé de couleur verte, et des contours qui épousent la forme du sol
Ligne 1 148 : Ligne 1 148 :
 
*un scène principale "Environnment global" de type Spatial (environnement 3D), à l'intérieur, on instancie nos scènes "le_drone" et "le_sol" en tant qu'enfant que notre scène principale. On définit aussi 2 caméras : une caméra principale, et une camera secondaire qui sera affichée en bas à droite lors de la simulation.
 
*un scène principale "Environnment global" de type Spatial (environnement 3D), à l'intérieur, on instancie nos scènes "le_drone" et "le_sol" en tant qu'enfant que notre scène principale. On définit aussi 2 caméras : une caméra principale, et une camera secondaire qui sera affichée en bas à droite lors de la simulation.
  
[[Fichier:godot-base-1.png|400px]]
+
[[Fichier:Godot-base-1.PNG|800px]]
  
 
Enfin, on place notre drone et nos caméra dans l'espace. Et puis on écrit un script pour faire déplacer notre drone (juste pour apprendre les commandes de bases). Dans notre scipt on peut faire déplacer le drone linéairement en donnant une vitesse de déplacement en x,y,z. On peut aussi lui donner un angle d'inclinaison en donnant une valeur en radian.
 
Enfin, on place notre drone et nos caméra dans l'espace. Et puis on écrit un script pour faire déplacer notre drone (juste pour apprendre les commandes de bases). Dans notre scipt on peut faire déplacer le drone linéairement en donnant une vitesse de déplacement en x,y,z. On peut aussi lui donner un angle d'inclinaison en donnant une valeur en radian.
  
[[Fichier:godot-base-2.png|400px]]
+
[[Fichier:Godot-base-2.PNG|800px]]
  
 
===Documents Rendus===
 
===Documents Rendus===

Version du 30 mars 2020 à 14:59

Sommaire


Présentation générale

Description

De nos jours, les drones sont présents dans de nombreux domaines : industrie, agriculture, sports, loisirs… etc. Dans les airs ou dans la mer, ils ont tous des buts différents selon leur utilisation.

Nous allons nous concentrer sur les drones de développement. Ils sont utilisés dans la recherche, l’éducation et par les amateurs de robotique. Ils présentent de nombreux enjeux, comme la commande automatique, l’évitement d’obstacles, la détection d’intrus.

L’ouverture à la programmation et à la modification hardware/software peut être un frein dans la mise en place d’une application d’un drone de développement. C’est pourquoi nous allons nous concentrer sur un drone open source au niveau hardware et software.

Plus particulièrement notre projet se servira du drone Quadricopter Crazyflie 2.0.

Objectifs

Le fil directeur de notre projet est le contrôle d'un drone sous les facettes d'informatique, microélectronique et automatique. Au niveau informatique, nous nous concentrerons sur le développement d'algorithmes de déplacement et d'évitement d'obstacle. Pour la partie microélectronique nous nous pencherons sur le fonctionnement des moteurs, des cartes électroniques et des capteurs. Enfin nous nous servirons de l'automatique pour réguler en vitesse et en position de notre drone.

L'objectif final est de développer le drone mis à notre disposition afin qu'il puisse se déplacer point d'un A point à un B tout en étant stable. Au cours de son déplacement il devra transmettre sa position à l'utilisateur.

Dans un premier temps, nous étudierons le fonctionnement général d'un drone à 4 branches. Ensuite, nous allons étudier les différentes commandes à envoyer au drone afin de le déplacer selon l'axe voulu. Puis, du côté pratique nous allons asservir une position statique à notre drone qu'il devra maintenir quelle que soit la perturbation (vent, etc). Dans un second temps, nous développerons les fonctions de déplacement dans l'espace. Enfin, nous lui donnerons une trajectoire qu'il devra respecter tout au long de son parcourt.

Analyse du projet

Positionnement par rapport à l'existant

Caractéristiques principales du drone Quadricopter Crazyflie 2.0®

Crazyfly.jpg

Radio:

  • amplificateur radio de 20 dBm testé à plus de 1 km (portée à vue) avec le Crazyradio PA
  • bluetooth Low Energy compatible iOS et Android
  • radio compatible avec Crazyflie et Crazyradio


Microcontrôleurs:

  • STM32F405, microcontroleur principal (Cortex-M4, 168 MHz, 192 KB SRAM, 1 MB de mémoire flash)
  • nRF51822, gestion alimentation et radio (Cortex-M0, 32 MHz, 16 KB SRAM, 128 KB de mémoire flash)
  • EEPROM 2 KB


Connecteur USB:

  • chargeur LiPo integré avec trois modes (100 mA, 500 mA, 980 mA)
  • utilisation en USB OTG possible


Capteurs:

  • gyroscope 3 axes (MPU-9250)
  • accéléromètre 3 axes (MPU-9250)
  • magnétomètre 3 axes (MPU-9250)
  • capteur de pression haute précision (LPS25H)


Chiffres clés
  • Poids: 27 gr
  • Dimensions: 92 x 92 x 29 (de moteur à moteur et avec le support)
  • 7 minutes de temps de vol maxi avec la batterie originale
  • 40 minutes de recharge avec la batterie originale
  • charge maxi recommandée: 15 gramme


A noter que l'ensemble de l'architecture matérielle et logicielle (hardware/software) est accessible sur le wiki (hardware) et sur le git (software) indiqués dans la bibliographie.

Analyse du premier concurrent

Constructeur : DJI et Ryze

Modèle : Tello Drone EDU

Dji tello drone etu.png


Initialement conçu pour l'enseignement, le tello Drone a de nombreux atouts. Pour seulement 100 euros, nous avons un drone compact, résistant (protection des hélices), et programmable. Il est compatible avec scratch, Python et Swift. Pour une utilisation avancée, on peut même embarquer ROS et utiliser le SDK. Il dispose aussi de petites balises pour se repérer dans l'espace et être contrôlé en essaim.


Cependant, nous ne pouvons pas nous en servir dans notre projet, car ni le hardware, ni le software ne sont ouverts. Nous ne pouvons donc pas modéliser efficacement les moteurs, ni même faire une étude approfondie au niveau hardware. En fait, il s'agit plutôt d'un drone de programmation du fait de sa compatibilité avec plusieurs langages de programmation, on ne peut pas s'en servir dans un projet à dominante "automatique".

Analyse du second concurrent

Constructeur : Pixhawk

Modèles : Pixhawk 4 et Pixhawk mini

Pixhawk4.jpg


Pixhawk est un projet open source visant à developper un contrôleur de vol libre et indépendant. De nombreux projet aussi bien dans la recherche que dans le monde professionnel se servent d'une carte de vol Pixhwak. Cette carte, très réputée, est notamment compatible avec les projets open source PX4 (Dronecode) et Ardupilot. Dronecode et Ardupilot proposent des outils libres pour simuler, contrôler et analyser son drone tout au long de ses déplacements. Dans un projet comme le notre, Dronecode semble être adapté tant les ressources et la documentation qu'ils proposent sont fournis.


Cependant, bien que nous avons effectuer de nombreuses recherches sur Dronecode, que nous avions conclu qu'il fallait une carte Pixhawk, nous avons finalement abandonné cette piste.


En effet, de notre point de vue, il nous aurait fallu un groupe supplémentaire qui aurait assembler notre drone, pendant que l'autre se penche sur la partie automatique. Un drone embarquant une carte Pixhawk avec PX4 installé dessus nécessite une équipe focalisée sur le hardware. En effet, en plus de la carte, il faut commander le châssis, les moteurs, les antennes, la télécommande, la baterrie, les chargeurs... etc. Nous avons préféré partir sur un drone 'ready to fly', c'est-à-dire déja assemblé et en état de marche.

Scénario d'usage du produit ou du concept envisagé

Notre projet visant à asservir en position un drone de façon autonome, il existe de très nombreux scénarios d’usage pouvant s’inscrire dans notre projet.Par exemple, on pourrait imaginer un agriculteur souhaitant contrôler l’état de ses arbres. On pourrait installer des petites balises sur chacun des troncs, et effectuer un vol autonome afin de filmer chacun de ces arbres. L’agriculteur n’aurait qu’à observer la vidéo, sans avoir à se déplacer dans tout le verger. Notre drone étant asservi en position, il décollera et se maintiendra à une altitude supérieure aux arbres (par exemple 3 mètres) et reliera tous les points indiqués par les balises pour ensuite revenir à son point de départ.

Réponse à la question difficile

Le drone étant livré monté, prêt à l'emploi, qu'est ce que vous apporter en plus par rapport à ce qui est déjà possible de faire avec ce drone ?

Notre but est de développer une suite d’algorithme de contrôle automatisé de notre drone. Pour ce faire, nous allons étudié le fonctionnement d’un drone à quatre hélices. Tout d’abord, nous allons isoler puis modéliser un moteur brushless. Ensuite nous allons modéliser les quatre moteur, ensemble. Enfin, sur un banc de test, nous allons envoyer nos commandes sur les quatre moteurs afin de réaliser 4 mouvements élémentaires d’un drone 4 hélices.

Bibliographie et webographie

https://www.gotronic.fr/art-quadricopter-crazyflie-2-0-110990440-23791.htm

https://github.com/bitcraze

https://wiki.bitcraze.io/projects:crazyflie2:index

Préparation du projet

Notre groupe est constitué d'une seule équipe de 3 personnes.

Cahier des charges du groupe

Tout d’abord notre drone doit être capable de décoller, d’atterrir et de maintenir une position fixe. Il doit être capable de réguler la vitesse de ses moteurs pour se maintenir en altitude, en fonction des contraintes extérieures (comme le vent) qui lui seront imposées. Dans un second temps, il doit pouvoir se déplacer dans l’espace en se repérant via des balises radio. De la même manière, il devra pouvoir exécuter ses déplacements en ayant une précision (à définir) et une marge de résistance aux contraintes physique (à préciser). Par exemple, il devra être capable de se stabiliser et effectuer son vol autonome, avec une précision de 10 centimètres, et un vent limite de 30 km/h.

Choix techniques : matériel et logiciel

Afin de mener à bien notre projet, nous avons besoin de :


  • Quadricopter Crazyflie 2.0 : 2
  • Adaptateur debug pour Crazyflie : 2
  • Moteur pour Crazyflie 2.0  : 4
  • Jeu d'hélices pour Crazyflie : 1
  • Jeu de 4 supports moteurs : 1
  • Module Crazyradio PA 114990112 : 2
  • Loco positioning deck : 2
  • Flow deck v2 : 2
  • 240mAh LiPo battery including 500mA USB charger : 2
  • SD-card deck : 2
  • Loco positioning node : 4


Au niveau logiciel, nous avons besoin de :

  • Betaflight
  • Matlab - Simulink

Liste des tâches à effectuer

A ce stade, nous avons définis notre projet en plusieurs axes :

  • se documenter sur le fonctionnement d’un drone 4 hélices, appelé aussi quadrotor ou quadcopter
  • modélisation d’un moteur brushless
  • modélisation des quatre moteurs
  • envoie des commandes sur les moteurs sur un banc de test

Calendrier prévisionnel

Diagramme de Gantt de notre projet :

Diagramme de gantt p21.png

Réalisation du Projet

Projet S6

Semaine 4

Tout d'abord nous sommes documentés sur les fonctionnalités du In tel Aero ready To Fly. Embarquant une carte Pixhawk, nous pouvons nous servir de Dronecode ou bien d'Ardupilot afin d'effectuer notre vol autonome. Nous avons une préférence pour Dronecode.


Qu'est-ce que Dronecode ?


Dronecode est une plateforme Open Source lancée par la fondation Linux. Elle fournit l'ensemble des outils nécessaire à la réalisation d'une application utilisant un drone. On dispose ainsi d'un contrôleur de vol (hardware), d'un pilote de vol (software), d'une station de contrôle (typiquement sur ordinateur), et d'une API pour développer notre pilote de vol. Ainsi, on a l'ensemble des outils pour contrôler notre drone, qui fonctionne les uns avec les autres car ils sont entièrement compatibles.


https://www.dronecode.org/about/


Qu'est ce que Ardupilot ?

Ardupilot propose un ensemble à la réalisation d'une application d'objet volant, comme Dronecode. Très répandu Ardupilot est utilisé dans plus d'un million d'appareils dans le monde. Il propose aussi une liste d'appareils compatibles et de logiciel permettant le contrôle et le suivi de notre drone.


http://ardupilot.org/about

Semaine 5

Dans une seconde partie, nous nous sommes concentrés sur les façons d'intéragir avec les valeurs des différents capteurs de l'intel aero. Comme il embarque de nombreux capteurs, ROS semble le plus adapté afin de pouvoir interagir avec les différentes valeurs renvoyés et demandées par nos capteurs.


Qu'est ce que ROS ?

Robot operating system (ROS), est un ensemble d'outils informatiques open source permettant de développer des logiciels pour la robotique. Le principe de base d’un ROS robotique est de faire fonctionner en parallèle un grand nombre d’exécutables qui doivent pouvoir échanger de l’information de manière synchrone ou asynchrone. Afin de répondre à cette problématique, ROS s’appuie sur plusieurs notions:

les nœuds: dans ROS, un nœud est une instance d’un exécutable. Un nœud peut correspondre à un capteur, un moteur, un algorithme de traitement, de surveillance… Chaque nœud qui se lance se déclare au master.

le master: le master est un service de déclaration et d’enregistrement des nœuds qui permet ainsi à des nœuds de se connaître et d’échanger de l’information.L’échange de l’information s’effectue soit de manière asynchrone via un topic ou de manière synchrone via un service.Les topics:un topic est un système de transport de l’information basé sur le système de l’abonnement / publication (subscribe / publish). Un ou plusieurs nœuds pourront publier de l’information sur un topic et un ou plusieurs nœuds pourront lire l’information sur ce topic.Les nœuds envoient ou reçoivent des messages sur des topics.

Les Services: le service en revanche répond à celle d’une communication synchrone entre deux nœuds.

Ros.jpg

Semaine 6

Nous avons contacté RS component et Mousser afin de nous renseigner sur la disponibilité du drone. De plus nous avons effectué le bon de commande suivant :

  • batterie LiPo 4s 4000mah xt60(taille max 150x50x32 mm)
  • le chargeur de la batterie
  • un adaptateur micro usb (mâle) - usb (femelle)
  • un câble micro hdmi - hdmi (mâle-mâle)
  • un câble d'alimentation 12V DC 4A 5.5mm x 2.1mm barrel connector
  • un adaptateur xt60 (femelle) - 1x jack 5.5mm (femelle)
  • un hub usb 4 ports auto-alimenté


Cependant après avoir contacté Mousser, nous nous sommes aperçus que le drone était en fin de vie : cela semble être la raison pour laquelle le drone n'était plus disponible chez certain fournisseur. Tout est à refaire, le wiki, le cahier des charges, le positionnement, etc. Nous avons contacté RS component et Mousser afin de nous renseigner sur la disponibilité du drone : il nous a été conseillé de partir sur un autre modèle.

Semaine 7

Nous nous sommes rencontrés à de nombreuses reprises avec M. Nakrachi, en fin de journée, afin de trouver une solution le plus vite. Il nous fallait à tout pris un drone 'ready to fly', prêt à voler, et embarquant un module de déveleppoment open source. Pour ce faire, seul les drones avec une carte Pixhawk nous semblait adéquat. Cependant peut de drone 'ready to fly' sont disponibles. Ou ils ne sont plus produit, ou bien la carte a été intégré dans des drones avec du matériel non libre et une carte reprogrammé avec du code propriétaire.

Semaine 8

Analyse des degrès de liberté du Crazyflie

Nous sommes parvenus à trouver un nouveau drone : le Crazyflie 2.0. Nous avons refait notre wiki en conséquence et ajusté notre cahier des charges.


Tout d’abord, posons le cadre de notre étude. Nous allons étudier un drone à 4 rotors. Nous le représenterons selon le modèle suivant :

P21 1.jpg


Les quadrotors existent sous deux formes : en croix et en plus 

P21 2.jpg


Afin de contrôler notre drone, nous allons poser certaines hypothèses quant aux capteurs nous renseignant sur l’état de notre drone en fonction du temps.


Hypothèses : nous travaillons avec un quad rotors, configuration en X

Au niveau des capteurs, on considère que nous avons :

  • Capteurs de distance par ultrasons
  • Caméra pour estimer les mouvements (horizontaux) du drone et sa vitesse
  • Capteur de pression pour l'altitude
  • IMU : Inertial Measurement Unit ; acceleration + gryroscope 3 axes → pour déterminer l'accélération, et l’inclinaison du drone selon les 3 axes du gyroscope


En posant ces hypothèses, nous pouvons analyser notre système de la façon suivante :

P21 3.jpg

Semaine 9

Fonctionnent d’un quadcopter – principe de base

Afin de pouvoir réaliser un mouvement quelconque avec notre drone, il faut tout d’abord entraîner les moteurs opposés dans le même sens et les deux autres en sens contraire. Lors de notre étude, nous nous baserons sur le schéma suivant :

P21 4.jpg


Au niveau du repère, nous adopterons une base cartésienne, de centre 0 :

P21 5.jpg


Enfin, nous utiliserons les coupes suivantes :

P21 6.jpg


Un drone possède 6 degrés de liberté

  • Tangage (pitch) – axe Y
  • Roulis (roll) – axe X
  • Lacet (yaw) – axe Z
  • Avant – arrière (foreward/backward) – axe X
  • Droite – gauche (rigth/left) – axe Y
  • Haut – bas (up/down) – axe Z


Schéma des 6 degrés de liberté :

P21 7.jpg


Au cours de son vol, le drone est soumis à plusieurs forces :

P21 8.jpg


  • la traînée : force formée par le vent relatif, et qui s’oppose au déplacement
  • la portance : force formée par l’incidence de la main et qui pousse la main vers le haut
  • la traction : force formée par les moteurs induisant un mouvement vers l’avant
  • poids : force exercée sur le drone du fait de la force de pesanteur
  • l’incidence : angle formée par l’inclinaison de la main par rapport au vent relatif
  • force de sustentation : composante verticale des résultantes des forces aérodynamiques s’exerçant sur le drone.

En tournant, les hélices vont engendrer une force de sustentation, qui va compenser le poids du drone. Lorsque cette force dépasse le poids du drone, le quadrocopter s’envole.

Semaine 10

Après avoir posé notre cade d’étude, passons à l’analyse des mouvements du drone : quelle commande envoyer aux moteurs pour réaliser un mouvement selon un des 6 degrés de liberté ?


Tout d’abord, intéressons-nous au lacet. Il s’agit d’une rotation du drone selon l’axe Z. Pour ce faire, on augmente la vitesse de deux moteurs tournant dans le même sens. Les deux autres tournent à la même vitesse, mais moins vite.

P21 9.jpg


Ensuite, le drone a la possibilité d’effectuer un roulis. Il s’agit d’une rotation du drone selon l’axe X. Pour ce faire, on augmente la vitesse de deux moteurs situés du même côté du drone. Les deux autres tournent à la même vitesse, mais moins vite.

P21 10 2.jpg


De plus, le drone a la possibilité d’effectuer un tangage. Il s’agit d’une rotation du drone selon l’axe Y. Pour ce faire, on augmente la vitesse de deux moteurs situés sur l’avant ou l’arrière de notre drone. Les deux autres tournent à la même vitesse, mais moins vite.

P21 11.jpg


Après avoir étudié le tangage, roulis, lacet, étudions le mouvement vertical du quadrocopter. Par mouvement vertical, nous entendons un mouvement parallèle à l’axe Z, c’est-à-dire la montée en altitude ou la descente du drone. Pour ce faire, on doit augmenter simultanément et de façon égale les quatre moteur pour gagner en altitude et inversement pour redescendre.

P21 12.jpg


Pour finir, étudions les mouvements horizontaux du quadrotor. Selon la configuration du drone (en « X »ou en « plus » ), et les stratégies de développement des fonctions de déplacement, ces mouvements se réalisent de plusieurs façons. Typiquement, le drone réalisera un lacet (rotation axe Z) et/ou roulis (rotation axe X), suivi d’un tangage (rotation axe Y) puis utilisera ces fonctions pour suivre une trajectoire rectiligne.

Pour ce faire, on augmente la vitesse d’un moteur et on diminue celle du moteur tournant dans le même sens. Les deux autres moteurs restent à la même vitesse, c’est-à-dire entre la vitesse du moteur que l’on a augmenté et celle du moteur que l’on a diminué.

P21 13.jpg P21 14.jpg

Semaine 11

Simulation d'un moteur brushless sur Matlab

Nous nous sommes ensuite consacré à la modélisation d’un moteur brushless de notre Drone.

Un moteur brushless de notre drone peut être schématisé de cette manière:


Moteur-helice.png

Nomenclature :

  • U : Tension au borne du moteur
  • Rm : Résistance du moteur
  • i : courant traversant le moteur
  • Lm : inductance
  • kfem : coefficient de force électro-motrice
  • wh : vitesse de rotation du moteur
  • Jm : inertie du moteur
  • fem : force électro-motrice


Capture1.PNG


Capture2.JPG

Semaine 12

Analyse Simulink

Grâce à la modélisation faite la semaine d'avant, nous avons pu établir le schéma bloc sur Matlab/Simulink.

Voici le schéma :

Schéma bloc.PNG

Pour pouvoir étudier la réponse de notre système, nous devons disposer des coefficients nécessaire au fonctionnement du moteur.

Coeff et matlab.PNG

Nous fixerons donc le point de fonctionnement I0, qui est le courant d’entrée du moteur, pour pouvoir obtenir les autres points de fonctionnement U0 et omega0. Il faut savoir que l’on a pris à 2,5A qui est une valeur choisis arbitrairement avec comme contrainte la valeur max du courant 4,2A et la valeur min de démarrage du moteur qui est de 0,8A. En consigne, nous lui envoyons une vitesse (200 rad/s « arbitrairement ») et voici la vitesse du moteur en sortie:

RésultatWenGros.PNG

RésultatWzoomer.PNG


On remarque que notre système est en régime apériodique donc que son coefficient d’amortissement est supérieur à 1. Il a un temps de réponse de 1,95s et un temps de monté 1,43s car on a la période qui vaut environ 0,65s (étude du schéma selon une réponse indicielle d’un système apériodique qui ressemble à celui d’un premier ordre). Nous étudierons par la suite le système motorisé complet du moteur pour pouvoir asservir correctement les moteurs pour la deuxième année. Nous avons pour l'instant étudié qu'un seul moteur du drone.

Maquette

Afin de mettre en pratique le comportement des moteurs, nous avons réaliser une maquette. Pour ce faire :

1) nous avons assemblé le crazyflie, comme indiqué sur le site suivant :

https://www.bitcraze.io/getting-started-with-the-crazyflie-2-0/

2) ensuite, nous avons téléchargé l'application Crazyflie Client pour android :

https://play.google.com/store/apps/details?id=se.bitcraze.crazyfliecontrol2&hl=fr

3) on règle les paramètres de l'application de la façon suivante :

Mode pour les controles.png

Parametres p21.png

4) on fixe le drone sur une planche de bois, de taille 12x18cm à l'aide de 4 trombones. Astuce : tordre les 4 trombones de sortes à enrouler avec un crochet les supports moteurs et de l'autre côté ressérer la planche avec une forme de L.

Maquette p21.jpg

NOTE 1 : nous avons marqué l'avant de notre drone avec un peu de rouge, car de loin, il nous est difficle de repérer l'avant du drone

NOTE 2 : notre montage nous permet d'observer, seulement, de manière qualitatif le comportement des moteurs, en effet, nous ne disposons pas d'informations temps-réels sur l'état des moteurs (vitesse, température etc.).


5) on envoie les commandes aux moteurs à l'aide de l'application Afin de bien lire les captures d'écran, faire attention à la ligne "P : R : T : Y : ", situé au milieu de l'écran, ces lettres correpondent respectivement à : Pitch (tangage), Roll (roulis), Thrust (poussée), Yaw (lacet).

5.1) un lacet (rotation axe Z) dans un sens :

Lacet yaw sens1.png

puis dans l'autre :

Lacet yaw sens2.png


5.2) un déplacement horizontal dans un sens

Horizontal sens1.png

un déplacement horizontal dans un autre sens :

Horizontal sens2.png


Pour finir, on obtient :

Capture horizontal sens1.png

commande moteur pour effectuer un déplacement horizontal

Capture horizontal sens2.png

commande moteur pour effectuer un déplacement horizontal

Capture lacet yaw sens1.png

commande moteur pour effectuer un lacet - sens 1

Capture lacet yaw sens2.png

commande moteur pour effectuer un lacet - sens 2

Documents Rendus



Projet S7

Semaine 1

Objectifs du semestre 7

Cette semaine a été l'occasion pour nous de définir les objectifs de notre projet pour le semestre 7. Nous utilisons le Crazyflie 2.0, ainsi que le flow deck et l'antenne USB crazyradio.

Nous allons lors de ce semestre envoyer à notre drone des premières commandes Python en utilisant les librairies cflib. Nous allons aussi expliquer le fonctionnement des différents capteurs qui vont intervenir lors de la réalisation de notre projet. Le but final ést d'effectuer un vol autonome d'un point A à un point B en évitant les obstacles.


Voici les capteurs que nous allons étudier :


Flow deck v2 : https://www.bitcraze.io/flow-deck-v2/

Multi-ranger deck : https://www.bitcraze.io/multi-ranger-deck/

Loco Positioning system : https://www.bitcraze.io/loco-pos-system/

Loco Positioning deck : https://www.bitcraze.io/loco-pos-deck/

Loco Positioning node : https://www.bitcraze.io/loco-pos-node/


Par ailleurs, nous utilisons aussi :


Antenne USB Crazyradio PA : https://www.bitcraze.io/crazyradio-pa/

Battery charger : https://www.bitcraze.io/battery-charger-500mA/


Enfin, nous allons expliquer le fonctionnement des bibliothèques Python cflib, et plus précisément la mise en place de l'environnement de développement sous machine virtuelle, la mise à jour du drone et l'envoie de code Python à notre drone via l'antenne USB Crazyradio PA.


Cflib : https://github.com/bitcraze/crazyflie-lib-python

Semaine 2

Capteur Multi-ranger deck


Multi-ranger deck.jpg

Introduction

Le Multi-ranger deck est un module contenant 5 capteurs lasers (haut, gauche, droite, avant, arrière) qui se fixe sur le dessus du drone. Il permet au drone Crazy-Flie de détecter des objets à proximité jusqu’à 4 mètres.Grâce à ce module et le Flow deck (capteur du dessous) le drone peut évoluer dans l’espace en détectant les éventuels obstacles. Ses 5 capteurs de distance IR sont les mêmes que celui présent sur le Flow Deck, il s’agit du VL53L1x ToF de chez STMicroelectronics®.



Fonctionnement

La mesure de distance est basée sur le principe de la triangulation :


Le rayon laser atteint l’objet sous la forme d’un petit point. L’impact du rayon laser sur l’objet est matérialisé sous la forme d’un petit point. Le récepteur du détecteur (ligne de photodiodes) détecte la position de ce point. En fonction de la distance, l’angle d’incidence varie et également la position du point laser sur le récepteur. La ligne de photodiodes est analysée par microcontrôleur intégré. Selon la répartition de la lumière sur la ligne de photodiodes, le contrôleur est en mesure de calculer la valeur de l’angle d’incidence et, en se référant à cette valeur, de déterminer la distance par rapport à l’objet. Cette distance est alors transférée soit vers un port de communication série soit transformée en un courant de sortie proportionnel à la distance. Les capteurs lasers sur le Multi-ranger deck sont des multi-spots (Mesures stables sur surfaces non uniformément brillantes et extrêmement rugueuses de plus de 600 valeurs avec une ligne laser extra longue < 72 mm). Le signal reçu est traité grâce au DSP(Digital Signal Processeur) intégré dans le microcontrôleur (Cortex-M4).


Source (plus d'information sur la triangularisation) :

https://www.baumer.com/ch/fr/service-assistance/savoir-faire/fonctionnement/le-fonctionnement-et-la-technologie-des-detecteurs-de-distance-optiques/a/Know-how_Function_optical-distance-sensors

Loco Positioning System



Intérêt de ces capteurs :

Jusqu’à maintenant, nous n'avons toujours programmé le drone en position relative, c'est-à-dire que le drone ne se repérer pas dans l'espace par rapport à un repère fixe dans l'espace, mais seulement par rapport à sa position précédente. Pour le localiser nous pouvons utiliser un GPS, mais le crazyflie étant un petit drone d'intérieur, il est difficile de le localiser avec un GPS. Pour ce faire, il faut utiliser un réseau de capteurs pour la localisation "in door" (en intérieur) de notre drone.


Constitution du système:

Le Loco Positioning system permet donc de trouver la la position absolue du drone dans l’espace. La base de ce système est composé d’un ensemble "d’ancrages" réparties dans la pièce. L’autre partie du système correspond à une ou plusieurs balises fixés sur le drone , appelés "Tags".


Principe de fonctionnement :

Le système envoie par radiofréquence des messages court entre les Ancrages et les Tags placés dans la pièce. Le système peut donc ensuite mesurer la distance entre chaque Ancrage et Tag et ainsi déterminer la position du drone dans la pièce. Pour évaluer cette distance entre les Ancrages et les Tags, différents protocoles peuvent être utilisés.


Protocoles utilisables avec le Crazyflie :

https://www.bitcraze.io/loco-pos-system/

https://archive.fosdem.org/2017/schedule/event/loco_positioning_crazyflie/attachments/slides/1734/export/events/attachments/loco_positioning_crazyflie/slides/1734/FOSDEM17__Loco_positioning_system.pdf

Principe et algorithmes :

https://www.linuxembedded.fr/2018/06/la-localisation-indoor-2/


Le Loco Positioning Deck:

Le Loco Positioning Deck est une expansion de la plateforme du Crazyflie 2.X qui réalise la fonctionnalité du Tag dans le Loco Positioning System.

Deck.jpg


Le Loco Positioning Node:

Le Loco Positioning Node est un nœud Multi fonctionnel dans un Loco Positioning system, qui peut occuper la fonction de Tag ou d’Ancrage, donc être fixé sur le drone ou être réparti dans la pièce. Node.jpg

Capteur Flow Deck V2 : VL53L1x ToF + PMW3901


Le flow deck V2 est une petite carte électronique que nous venons placer en dessous du drone.

Photo flow deck v2.jpg

Cette carte permet d'évaluer la distance du drone par rapport au sol et d'obtenir sa position relative. Elle est composée de deux capteurs : le VL53L1x ToF de chez STMicroelectronics®, et le capteur optique PMW3901 de chez PixArt®.


Le capteur VL53L1x ToF mesure la distance entre le drone et le sol. Il envoie un laser invisible à l'oeil nu de longeur 940nm (capteur IR), et calcul le temps qu'il met pour revenir à la base.

Module distance flow deck v2.png


Il possède les caractéristiques suivantes :


• Taille : 4.9x2.5x1.56 mm

• Longueur d'onde : 940 nm

• Fréquence : 50 Hz

• Distance max de mesure : 4 mètres

Ce capteur mesure la distance sur le principe de triangularisation, pour plus de détails, voir la partie « Multi-ranger deck


Datasheet :

https://www.st.com/content/ccc/resource/technical/document/datasheet/group3/7d/85/c8/95/fb/3b/4e/2d/DM00452094/files/DM00452094.pdf/jcr:content/translations/en.DM00452094.pdf




Le capteur optique PMW3901 utilise la méthode de flux optique pour déterminer la direction dans laquelle se déplace le drone.


Il possède les caractéristiques suivantes :


• Taille : 6x6x2.28 mm

• Distance minimale pour fonctionner : 80mm (du à la distance focale de la lentille de la caméra)


Fonctionnement :

Tout d'abord on a une petit laser qui va éclairer en permanence le sol. En parallèle une minuscule caméra va prendre en photo le sol qui est pointé par le laser. Ensuite un microprocesseur compare les clichés entre eux et arrive à estimer la direction et la vitesse de déplacement du drone. C'est exactement le même fonctionnement que l'on retrouve dans les souris d'ordinateur, en les retournant, on peut apercevoir une petite lumière rouge. La caméra a une très faible définition, dans l'ordre de 8x8 pixels, 16x16... etc


Par exemple, si on considère l'exemple suivant :


Opticalflow.png


Si on considère par exemple que le flow deck analyse les images 5 par 5, et que chaque cliché est pris dans une période de T = 100ms. En combinant les images 5 par 5, on peut observer que le drone s'est déplacé vers la droite à une vitesse de (x0 - x4) / 5*T selon l'axe X et( y0 - y5) / 5*T selon l'axe Y.


Datasheet :

https://wiki.bitcraze.io/_media/projects:crazyflie2:expansionboards:pot0189-pmw3901mb-txqt-ds-r1.00-200317_20170331160807_public.pdf

Semaine 3

Mise en place de l'environnement de développement du Crazyflie.



Matériels utilisés :

- 1x drone Crazyflie

Assemblage : https://www.bitcraze.io/getting-started-with-the-crazyflie-2-0/

- 1x Bitcraze Flow Deck

Branchement : https://www.bitcraze.io/getting-started-with-expansion-decks/

Fonctionnement : https://www.bitcraze.io/getting-started-with-flow-deck/

- 1x Bitcraze Crazyradio PA


Système d’exploitation pour installer la machine virtuelle :

- Windows 7, 8, et 10 (tutoriel dans ce PDF)

- L’environnement peut être mis en place aussi sur Linux et OS X, avec ou sans machine virtuelle (non traités ici)


Ressources nécessaires :

- La machine virtuelle tourne sous Xubuntu et utilise au minimum 1Go de Ram et 1 Thread

- Configuration minimale que nous recommandons pour la machine hôte : 6Go de Ram et un CPU à 4 threads (on allouera 2 Go de RAM et 2 threads à notre machine virtuelle)


Documentation :

- Site internet : https://www.bitcraze.io/getting-started-with-the-crazyflie-2-0/

- Wiki : https://wiki.bitcraze.io/

- Forum : https://forum.bitcraze.io/

- Github : https://github.com/bitcraze

- Pour utiliser PX4, Betaflight, ROS… etc : https://www.bitcraze.io/external-projects/

- Blog , nouveauté, travaux de recherche, etc. : https://www.bitcraze.io/blog/


Téléchargement

1.1. Téléchargement de VirtualBox

Télécharger l’exécutable et le pack d’extension de VirtualBox :

VirtualBox 6.0.12 platform packages > Windows hosts

VirtualBox 6.0.12 Oracle VM VirtualBox Extension Pack > All supported platforms

https://www.virtualbox.org/wiki/Downloads


1.2. Téléchargement de la machine virtuelle de Bitcraze

Télécharger la dernière version sur le GitHub de Bitcraze

Bitcraze VM 2018.12 > Download link (2.9Gb)

https://github.com/bitcraze/bitcraze-vm/releases/


1.3. Téléchargement du driver de l’antenne USB Bitcraze Radio PA

Aller dans la partie « Download » un peu plus bas :

Updated 2018.07.26 > Zadig 2.4 (4.9Mb)

https://zadig.akeo.ie/

Installation

2.1. Installation de VirtualBox et du pack d’extension

1) Installer VirtualBox : il faut les privilèges administrateurs On clique sur "VirtualBox.... .exe" (laisser les paramètres par défaut si pas de raison particulière pour les changer)

2) Ajouter le pack d’extension : il faut les privilèges administrateurs* NOTE : pour utiliser la machine virtuelle, nous n’avons pas besoin des privilèges administrateurs, il les faut juste lors de l’installation du logiciel et du pack d’extension

Tout d’abord lancer VirtualBox en tant qu’administrateur :

Dans VirtualBox, cliquer sur Fichier > Paramètres > Extensions > "Symbole +" et choisir le pack d'extension Ensuite parcourir l’arborescence des fichiers jusqu’au répertoire contenant le pack d’extension que l’on a téléchargé


2.2. Installation du driver pour l’antenne radio USB

1) Brancher l'antenne sur le port USB

2) Attendre le message d'erreur de Windows disant qu'il ne trouve par le driver

Note : parfois aucun message n’apparaît, mais cela n’est pas grave

3) Quitter le message disant « Windows n’a pas pu trouver le driver »

4) Laisser brancher l'antenne sur le port USB !

5) Cliquer sur "zadig-2.4.exe" : il faut les privilèges administrateurs

6) Une fenêtre apparaît, on doit voir écrit "Crazyradio USB Dongle"

7) Sélectionner "linusb-win32 (v1.2.6.0)" (important : bien choisir cette version !)

8) Et cliquer sur installer


2.3. Installation de la machine virtuelle sous VirtualBox et configuration

1) On ouvre VirtualBox (plus besoin d’être administrateur), puis on clique sur "Importer" et ensuite on choisit la VM que l'on a téléchargé On laisse tous les paramètres par défaut " (sauf si on a une raison particulière pour les changer)

2) Cliquer sur la nouvelle fenêtre « BitcrazeVM » et ensuite sur « Configuration »

Cliquer sur configuration > USB > "Symbole plus" > Bitcraze Crazyradio PA USB Dongle" Si on doit ajouter une manette USB, il faut aussi l'ajouter

Semaine 4 - Chorégraphie

Déplacement selon les 6 degrés de liberté (chorégraphie)

Dans un premier temps, nous avons mis en place une chorégraphie retraçant les 6 degrés de liberté du drone. A tour de rôle, le drone va effectuer un mouvement selon l’un de ses 6 degrés de liberté.Cela nous a permis de prendre en main la librairie cflib.


Nous avons pu aussi apporter un regard critique sur notre code. En effet nous avons remarqué que lors de l’utilisation de structure trop complexe, le drone recevait trop tard ses instructions, entrainant des mouvements saccadés. De plus la lecture des différents capteurs met du temps à retourner la valeur.


En travaillant par scrutation, cela doit être pris en compte et il faut bien choisir à quel moment lire la valeur des capteurs retournés par le drone. Nous avons utilisé la fonction send_hover_setpoint. Par exemple :


Décollage : on augmente progressivement l'altitude. On définit l'altitude à atteindre (la consigne) et le pas de boucle, c'est-à-dire l'incrément qui va nous permettre d'atteindre l'altitude consigne.

    definir : decollage(pas_de_boucle)
       consigne <- 0.4m
       pas_de_boucle <- 1/consigne * 10
       Pour i allant de 0 à 10 :
          altitude <- i/pas_de_boucle
          attendre 100ms
       Fin Pour


Par la suite, nous allons nous servir de ces algorithmes pour définir des fonctions de déplacement vers la gauche, droite, l’avant, l’arrière... qui seront réutilisés tout au long du projet pour le déplacement du drone.


Le fait de définir nos propres fonctions de déplacement au lieu d'utiliser celles fournies dans les librairies cflib, nous permettent de mieux paramétrer nos déplacement (par exemple un décollage plus doux), mais surtout de pouvoir intérrompre directement nos mouvement en cas de détection d'un obstacle. Nous gérons directement l'évaluation de l'obsatcle au cours du déplacement, par exemple :


    definir : mouvement_gauche(vitesse, temps, altitude)
       y<=0
       tant que y < 10*temps
          Si est_proche(capteur_gauche) alors
             retourner -1
          Fin Si
          send_hover_setpoint(vitesse,0,0,altitude)
          attendre 100ms
       Fin tant que
       retourner 0
    vitesse en m/s, temps en seconde, altitude en mètre


La fonction send_hover_setpoint(vx, vy, yawrate, zdistance) prends en paramètre :

  • vx : vitesse de déplacement horizontale selon l’axe X (m/s)
  • vy : vitesse de déplacement horizontale selon l’axe Y (m/s)
  • yawrate : vitesse de rotation selon l’axe Z (degrés/s), sens positif = sens horaire
  • zdistance : altitude à atteindre en vol (mètre)


Après avoir défini nos 6 fonctions de déplacement, nous obtenons le résultat suivant :

Semaine 5

Dans cette partie, on définit 6 fonctions de déplacement qui décrivent les mouvements suivants : décollage, atterrissage, gauche, droite, avant , arrière. Pour ce faire, on utilise les algorithmes définis dans la section « Déplacement selon les 6 degrés de liberté ». Ces fonctions prennent en paramètre une vitesse, un temps d’exécution, et une altitude. Par exemple, si on veut se déplacer de 30 centimètres sur la gauche, on fera appel à la fonction gauche(0.3 , 1 , 0.5). La fonction gauche a pour prototype gauche(vitesse, temps, altitude). La vitesse est un entier strictement positif, exprimé en m/s, le temps est un entier positif exprimé en seconde, et enfin l’altitude est exprimée en mètre. Ainsi, gauche(0.3 , 1, 0.5), déplacera le drone à une vitesse de 0.3m/s pendant une 1 seconde à une altitude de 0.5 mètre. Dans un seconde temps, on définit la fonction is_close(entier x) qui retourne un booléen. Elle renvoie True si x est inférieur à notre seuil, False si non. X est un entier positif exprimé en mètre. Le seuil est la distance à partir de laquelle on doit éviter l’obstacle. Par exemple, nous avons défini notre seuil à 20 centimètres : si un objet se situe à 20 centimètres au plus de notre objet, alors il est considéré comme un obstacle et on doit ainsi l’éviter.

Une fois que nous avons défini les fonctions de déplacement et notre fonction is_close(), nous les utilisons dans une boucle infinie qui correspond à la séquence de vol de notre drone. Ici, pour notre étude, nous allons considérer que notre drone est en vol stationnaire (c’est-à-dire qu’il reste à une altitude constante sans se déplacer dans aucune direction) pendant une durée indéterminée. Au cours de son vol, s’il détecte un obstacle, il se déplace automatiquement de 30 centimètres dans le sens opposé. Au cours du vol nous enregistrons les valeurs des capteurs dans tableaux.


Dans un premier temps, voici les valeurs des capteurs d’altitude et de hauteur en fonction du temps lors de la session de test. Le capteur d’altitude est un capteur évaluant la distance entre le sol et le drone. Le capteur de hauteur est en fait un capteur évaluant la distance entre le drone et les objets situés au-dessus du drone.


GRAPHIQUE1.jpg


Ensuite, nous plaçons plusieurs obstacles sur la gauche du drone de manière répétée. Nous observons que le drone détecte un obstacle, puis s’en éloigne, jusqu’à ce qu’un nouvel obstacle survienne et ainsi de suite.


GRAPHIQUE2.jpg


Pour finir, nous plaçons des objets à l’arrière du drone à plusieurs intervalles de temps. Là encore, nous observons que le drone détecte l’obstacle, puis s’en éloigne, et ainsi de suite.


GRAPHIQUE3.jpg

Semaine 6 et Semaine 7

Dans la section précédente, nous avons établi un algorithme permettant d’éviter un obstacle lorsque le drone était en vol stationnaire. Maintenant, nous allons supposer que le drone effectue un mouvement rectiligne uniforme vers l’avant pendant une durée indéterminée. Au cours de son vol, s’il détecte un obstacle vers l’avant, il doit pouvoir le contourner, et reprendre le cours de son vol, sur le même axe rectiligne, selon une vitesse constante. Pour ce faire, nous devons implémenter un algorithme permettant de détecter l’obstacle, de l’éviter, puis de le franchir, et enfin revenir sur le même axe que précédemment. Par la suite, nous allons présenter l’idée générale de l’algorithme que nous avons implémenté.


IMAGE GENERALE2.jpg


Nous obtenons le résultat suivant :


Bonus

Afin de protéger notre drone lors de la programmation des algorithmes d'évitement d'obstacle nous avons imprimé des protections d'hélices au Fabricarium.


IMAGE3.jpg


Sources :

https://www.thingiverse.com/thing:2554194

https://www.thingiverse.com/thing:1151252

Bilan et perspective pour le semestre 8

Au cours du semestre 8, notre travail va se concentrer sur la mise en place d'un réseau de capteurs de localisation d'intérieur "in door". En effet, jusqu'à présent nous avons utilisé la position relative du drone pour le programmer (c'est-à-dire que le repère était situé au niveau du centre de gravité de celui-ci). Avec le réseau de capteurs "Loco Positionning System", nous aurons un repère cartésien fixe, ancré dans la salle, et le drone sera assimilé à un point se déplaçant dans le repère fixe.


Enfin, pour résumer, au cours du semestre 7 nous avons redoublé d'efforts afin de pouvoir avoir un drone apte à évoluer dans le réseau de capteurs que nous allons mettre en place au S8. En effet, nous avons seulement reçu tout le matériel en septembre 2019, nous avons donc dû anticiper tout la partie capteur d'obstacle et programamtion, afin d'être prêt pour le S8. Nous avons fait, entre autres :


1) Mise en place de l'environnement de développement sous machine virtuelle : c'est le seul outil qui contient tous les logiciels et drivers à jour. Nous aurions pu directement mettre en place cet environnement sous Windows mais nous aurions eu certains programmes non mis à jour.


2) Documentation sur les librairies cflib : nous sommes rendus compte qu'il fallait programmer nos propres fonctions de déplacement afin de mieux contrôler le mouvement du drone et d'évaluer les capteurs de distance directement lors de son déplacement


3) Mise en place d'un alogrithme d'évitement d'obstacle : nous avons vu que les capteurs mettent un temps non négligeable pour envoyer leur valeur au PC, aussi il est important de ne pas scruter trop régulièrement l'état des capteurs sous peine de perdre le contrôle du drone. En effet, le drone fonctionne seulement quand on lui envoie des commandes, si à t=0 on lui donne une consigne en vitesse, à t+t1, il faut lui renvoyer cette consigne pour qu'il continue à l'exécuter... Si t1 est trop grand, alors le temps entre la 1ere consigne et la 2eme sera trop grand, et on aura un dela t pendant lequel le drone ne recevra pas de consigne, les moteurs se coupent et il crash.


4) Après avoir pris en compte les contraintes temporelles présentées en 3), nous nous sommes servies des fonctions de déplacement définies en 2) pour proposer un premier algorithme de contournement d'obstacle... Cependant il reste encore beaucoup de travail à effectuer là-dessus. En effet se reposer entièrement sur la valeur des capteurs peut poser problème quand l'obstacle n'est pas régulier. De plus notre alogrithme définit seulement un contournement vers la droite, qu'en est-il si un obstacle se trouve également sur la droite ?

Documents Rendus : Programme Python

Version non définitive de notre programme de contournement d'obstacle.

Media:Contourne_obstacle.zip


Projet S8

Objectifs du semestre 8

  • Le premier objectif du projet était de comprendre le fonctionnement d'un quadcopter : par l'intermédiaire de simulation Matalb, de schéma que nous avons mis sur le wiki et par confirmation avec nos expérimentations sur une maquette, cet objectif a été rempli au cours du semestre 6


  • Le second objectif du projet était de pouvoir programmer des algortihmes de déplacement pour que le drone se déplace d'un point A à un point B : à travers nos 3 codes python, nous avons fait déplacer le drone selon ses 6 degrès de liberté (chorégraphie), nous l'avons fait éviter les obstacles, et enfin nous avons réussi à le faire contourner les obstacles (cf vidéos et schémas sur le wiki)


  • Semestre 8 : nos objectifs étant atteints, nous avons défini une nouvelle orientation pour notre projet. Lors de notre soutenance à la fin du S7, on nous a conseillé de creuser un peu plus dans l'architecture matérielle et logicielle du drone afin de mieux comprendre son fonctionnement et éviter l'utilisation d'un PC et de lib python pour faire voler le drone. Ce ne sont pas des fonctionnalités disponibles par défaut sur le drone, mais son code source étant open source, nous allons essayé de nous pencher dessus pour voir s'il y a quelque chose à faire dans ce sens là. De plus nous allons mettre en place un réseau de capteur nous permettant de localiser la position de notre drone par rapport à un repère fixe cartésien (x,y,z).



Architecture matérielle

Materielle p21.png


Le Crazyflie est constitué des composants suivants :

  • STM32F405: Cortex-M4, 168 MHz, 192 kB SRAM, 1 MB flash
  • nRF51822: Cortex-M0, 32 MHz, 16 kB SRAM, 128 kB flash
  • MPU-9250: centrale à inertie 9 axes (IMU)
  • LPS25H: capteur de pression
  • 8 kB EEPROM.
  • port micro USB
  • ports d’ expansion : I2C, UART, SPI, GPIO


Le nRF51

Le nRF51 contient un Cortex-M0, 16kB de RAM et 256kB de Flash, qui lui permettent de gérer la communication radio et la gestion d’alimentation du drone. Cependant il n’est pas assez puissant pour faire tourner les algorithmes de contrôle de vol du drone.


Le STM32F405

Le STM32F405 est composé d’un Cortex-M4, de 196kB de RAM et de 1MB de Flash. Le cortex M4 lui permet de faire des calculs puissants, d’exécuter des algorithmes pour contrôler son vol.


Protocoles de communication

Le nRF51 permet de communiquer avec le drone par Bluetooth et par CRTP. Le Bluetooth sert à contrôler le drone via l’application Smartphone développée par le constructeur. Le CRTP, Crazy RealTime Protocol, est un protocole de communication qui permet de communiquer entre une antenne, la CrazyRadio PA, et le drone, en 2,4GHz. La CrazyRadio PA est une antenne que l’on branche en USB sur notre PC.


Rôles des microcontrôleurs

Le nRF51 et le STM32 communiquent entre eux par UART. Le nRF51 agit en tant qu’esclave et le STM32 en tant que maître.


Le nRF51 gère :

  • le bouton (physique) ON/OFF
  • l’alimentation du système (STM32, capteurs et cartes d’extensions)
  • le chargement de la batterie
  • Master radio bootloader
  • communication radio et Bluetooth (protocole Bluetooth et CRTP)
  • détecter, installer les cartes d’extension


Le STM32 gère toutes les autres tâches du drone, par exemple :

  • contrôle et régulation des moteurs
  • contrôleur de vol
  • mesures (lecture des valeurs des capteurs)
  • Les tâches implémentées dans le firmware



Architecture logicielle

Le firmware du drone est open source, il est accessible sur le git du constructeur. Le firmware est constitué d’un ensemble de tâches utilisant FreeRTOS. Toutes les tâches du drone sont temps-réels et implémentées sous formes de tâches FreeRTOS. Pour avoir une idée de ces tâches, voici par exemple voici les principales tâches de stabilisation du drone et de contrôle du système sous forme de diagramme de bloc :


Logicielle-1 p21.png Logicielle-2 p21.png


Lien du firmware du drone : https://github.com/bitcraze/crazyflie-firmware



Réseau de capteur pour la localisation en intérieur

Nous avons commencer par mettre en place le réseau de capteur nécessaire pour travailler avec la position relative du drone. Le réseau de capteur utilisé est le loco positioning system. Ce système a été présenté durant le semestre précédant. Pour rappel, le Loco Positionning system est composé de deux types de capteurs:

-les "ancrages", qui sont repartis dans la pièce. (6 en tout) -le capteur "node" qui se situe sur le drone.

les ancrages possèdes chacun un numéro précis et doivent être placé selon une disposition particulière dans la pièce. Avant de placer les capteurs de la pièce, nous avons flashé nos ancrages afin de leur attribuer un numéro à l'aide du logiciel LPS node firmeware.

Nous avons ensuite fixés les ancrages dans la pièce à l'aide de boites en bois que nous avons fabriqués au fabricarium.

Les ancrages sont alimentées par une batterie externes:

Ancrage.jpg

Le capteur "node" est placé sur le drone de cette manière :

Node2.jpg

Nous avons décidé de placé les ancrages dans la pièce de cette manière les ancrages :

Plansalle.PNG



Vol autonome

Test des capteurs avec Python

Une fois notre réseau de capteurs installé, nous avons fait quelques tests afin de nous assurer que tout était fonctionnel. Comme nous avons rencontré de nombreux problèmes, une partie du groupe s’est occupé du réseau de capteurs et des tests avec Python et une autre de l’implémentation de tâche sous FreeRTOS.


Les limites du système de positionnement et des valeurs que l’on reçoit

Pour visionner la valeur des capteurs, nous sommes obligés d’utiliser le logiciel Crazyflie Client. Nous ne pouvons pas avoir de retour sur les capteurs une fois que le drone est en vol. En effet, pour que le drone décolle, il ne faut qu’aucun autre programme ne communique avec lui. Comme le code est interprété sur notre ordinateur puis envoyé sur le drone, il ne faut pas que le logiciel communique avec le drone au même moment, car seul un programme à la fois peut envoyer des paquets au drone. Donc si le logiciel envoie des paquets, on ne peut pas exécuter notre code python et vice versa.

Le problème est que l’on n’arrive pas à implémenter un code python afin d’avoir les coordonnées en x,y,z pendant le vol, on est dépendant du logiciel pour cela. Le drone envoie seulement des données brutes qui sont traitées par filtre de Kalman. Nous n’avons pas réussi à ce jour à tirer des informations exploitables sur ces données bruts. Une piste pourrait être de se concentrer davantage sur ces données afin d’en tirer quelque chose.

D’un autre côté on ne peut pas exécuter de code depuis le logiciel Crazyflie Client, impossible donc avec ce logiciel d’évaluer les valeurs de retour de ces capteurs tout en exécutant du code.


1. Problème au sol

Au repos, lorsque l’on étudiait les valeurs de retour des capteurs, ils indiquaient une valeur négative en Z ou très élevé (supérieur à 3 mètres). Nous avons étudié la position des capteurs et nous nous sommes rendu compte que les capteurs posés au sol étaient situés légèrement au-dessus du drone. Pour résoudre ce problème nous avons décidé de surélever le drone en le posant sur le carton afin qu’il soit situé au-dessus des capteurs lorsqu’il est posé sur le sol.


2. Problèmes en vol

Afin de tester nos capteurs en vols, nous avons essayé d’exécuter un code Python.

En cours de vols, notre drone est incapable de suivre les coordonnés qui lui sont imposées. Dès qu’il décolle il se crash. Nous avons dû l’attacher afin de réduire les dégâts. D’après les limites que nous avons décrites plus haut, il nous est impossible de savoir les coordonnées que le drone a lu avant de se crasher. La seule chose que l’on peut savoir est la valeur des coordonnées que l’on a donné comme consigne à notre drone.

Afin de résoudre ce problème, nous avons essayé de diminuer la précision qui était de 1mm initialement à 1 cm. Ce que nous appelons précision est l’écart relatif entre la position que l’on veut atteindre et la position où l’on est. En réduisant la précision, nous avons espéré avoir un mouvement plus souple. Malheureusement, nous n’avons pas obtenu de résultats fructueux avec cette méthode.

Une seconde méthode, que nous n’avons pas pu tester, consistait à changer les algorithmes de calculs de position.


Implémentation d’une tâche de vol autonome sous FreeRTOS

La programmation de tâche autonome n’est pas permise par le constructeur. Nous avons accès au firmware, mais il sert surtout à développer des drivers pour intégrer de nouvelle carte d’extension pour le drone, comme par exemple : https://www.bitcraze.io/products/flow-deck-v2/

Cependant, comme le drone est composé de mémoire flash, avec un firmware open source et une architecture matérielle connue, il est envisageable de programmer des tâches FreeRTOS. Comme le constructeur ne le recommande pas, il n’a pas documenté son wiki sur la façon d’implémenter ses propres tâches temps-réelles. Nous nous sommes documentés sur une thèse de master écrite par Mr Luke Beumont Barrett.

En résumé de ce rapport, nous pouvons dire qu’il est possible de programmer des tâches temps-réelles en écrivant notre code FreeRTOS dans le répertoire Crazyflie-firmware/src/modules/src du firmware du Crazyflie. Ensuite il faudra déclarer notre tâche dans le config.h qui se trouve dans crazyflie-firmware/src/config.

https://github.com/bitcraze/crazyflie-firmware/tree/master/src/modules/src

https://github.com/bitcraze/crazyflie-firmware/blob/master/src/config/config.h

Nous avons seulement eu le temps de lire le mémoire et d’implémenter l’un des exemples de codes fournis dans ce mémoire. Nous n’avons pas pu aller plus loin en raison de la fermeture des écoles.

Covid 19

(Situation du projet le 13/03/2020)

Notre projet se basant sur un réseau de capteur vissé sur les murs (support en alumunium) de la C305, il nous est impossible de poursuivre sur les mêmes objectifs. De plus, comme nous programmions des tâches autonomes pour notre drone, il est impératif d'avoir une salle avec des filets (comme la C305).


Nous allons donc revoir les objectifs de notre projet.


(Situation du projet le 25/03/2020)

Suite à l'impossibilité de poursuivre le projet initial, un nouveau projet nous a été confié par Mr. Redon.

Objectif du nouveau projet

L’objectif est de modéliser puis simuler un drone sous Godot avec une régulation externe sous Simulink. A partir des valeurs des vitesses sur les 4 moteurs nous devons être capable sous Simulink de déterminer l’angle d’inclinaison du drone ainsi que sa vitesse de déplacement.

Dans le moteur graphique Godot nous devons modéliser un drone (son aspect), l'effet de chaque moteur à une vitesse donnée et un "capteur" qui donne l'inclinaison du drone. On se limitera à l'assiette du drone, on ne tente pas un déplacement contrôlé.

Les valeurs des 4 moteurs doivent pouvoir être donner via UDP. De plus via une requête en UDP nous devons être en mesure d’envoyer la valeur de l’inclinaison du drone.


Nous avons défini le projet en 4 étapes :

  • Modélisation d’un drone quadricoptère sous Godot
  • Calcul avec Simulink de l’inclinaison et de la vitesse de déplacement en fonction des vitesses des 4 moteurs en entrée
  • Interfacer la sortie de Simulink en entrée de Godot
  • Implémenter un client/serveur UDP pour recevoir les vitesses et envoyer l’inclinaison du drone


Godot

Dans un premier nous avons téléchargé puis installé Godot. Certains membres du groupe ont du mal à installer Matlab à cause de leur connection wifi et aussi de la taille (SSD de petite capacité). Nous sommes donc passés à Godot le temps que tout le monde puissae l'avoir sur son PC.


Nous avons utiliser plusieurs scènes pour pouvoir simuler le drone, les voici :


  • une scène nommée "le_drone" de type KinematicBody (pour les déplacements 3D), à l'intérieur : un drone importé depuis internet (format .obj), et un contour (CollisionShape) qui nous permettra d'interagir avec d'autre solides (typiquement poser le drone sur le sol). Il y a différentes manière de définir les coutours, nous avons choisi un cube qui englobe le drone pour faciliter son contact avec le sol.

Godot-base-drone-1.PNG

  • une scène nommée "le_sol" de type StaticBody, à l'intérieur : un pavé de couleur verte, et des contours qui épousent la forme du sol


  • un scène principale "Environnment global" de type Spatial (environnement 3D), à l'intérieur, on instancie nos scènes "le_drone" et "le_sol" en tant qu'enfant que notre scène principale. On définit aussi 2 caméras : une caméra principale, et une camera secondaire qui sera affichée en bas à droite lors de la simulation.

Godot-base-1.PNG

Enfin, on place notre drone et nos caméra dans l'espace. Et puis on écrit un script pour faire déplacer notre drone (juste pour apprendre les commandes de bases). Dans notre scipt on peut faire déplacer le drone linéairement en donnant une vitesse de déplacement en x,y,z. On peut aussi lui donner un angle d'inclinaison en donnant une valeur en radian.

Godot-base-2.PNG

Documents Rendus

https://archives.plil.fr/ktekin/Projet21.git