IMA4 2017/2018 P30: Contrôle d'une caméra WiFi. : Différence entre versions

De Wiki de Projets IMA
m (Implémentation de la reconnaissance d'image)
(Reconnaissance d'image : Matcher les keypoints de deux images)
Ligne 738 : Ligne 738 :
  
 
On peut alors visualiser les couples de points acceptés, ici reliés par un trait.
 
On peut alors visualiser les couples de points acceptés, ici reliés par un trait.
 
+
[[Fichier:P30-ReconnaissanceAvecMasque.png]]
TODO : photo
 
  
 
==Semaine 7==
 
==Semaine 7==

Version du 9 avril 2018 à 12:56

Sommaire


Présentation générale

Dépôt git du projet

Vous trouverez un lien vers le git de ce projet ici. Pour y accéder, vous devez au préalable créer un utilisateur et faire une demande d'accès à l'adresse thom4s.hubert@gmail.com

Description

Ce projet est issu d'une collaboration ente Polytech Lille et la start'up Urbik. Cette dernière développe du mobilier urbain connecté et souhaite intégrer à son mobilier déjà existant une caméra Wi-Fi. L'idée du projet est donc d'explorer les possibilités qu'une telle caméra pourrait apporter. Cette dernière doit transmettre un flux vidéo sur un site internet. Plusieurs utilisateurs pourront accéder au site en même temps afin d’accéder à une application. En ce qui concerne l'application, on peut envisager un certain nombre d'usages, comme de la réalité augmenté par exemple.

Objectifs

Le projet se découpe en deux parties. La première consiste à développer une caméra Wi-Fi fonctionnelle. La deuxième partie sera elle dédié à la réalisation de l'application en elle même.

Développement de la caméra Wi-Fi

Un point important concernant la caméra Wi-Fi est que celle-ci doit pouvoir se greffer au mobilier déjà existant développé par Urbik. La stratégie à adopter sera donc soumise à certaines contraintes matérielles et architecturales.

Pour développer cette caméra, nous avons à notre disposition une Banana Pi Pro ainsi qu'une caméra Banana Pi D1. Ces modules sont indépendants et sont relié ensemble en un réseau local.

La Banana Pi Pro possède un point d'accès Wi-Fi que nous devront obligatoirement utiliser afin que l'utilisateur puisse s'y connecter. Ce dernier se verra proposer un accès au site internet contenant l'application (L'accès à internet sera bloqué). La Banana Pi Pro est accompagné d'une caméra Banana Pi D1 pouvant fonctionner de manière autonome. Nous devrons donc réfléchir à un moyen efficace d'utiliser les ressources des deux Banana Pi.

Étant donné que plusieurs utilisateurs pourront se connecter en même temps sur la caméra, celle-ci devra seulement effectuer une rotation cyclique. Cette rotation se fera à l'aide de deux servomoteurs.

La création de l'application Web

Cette application devra permettre à l'utilisateur d'obtenir un certain nombre d'informations sur ce que transmet la caméra. On envisage aussi de mettre en place une application de réalité augmenté. Ces dites informations pourront donc être affiché en temps réel. On peut aussi imaginer permettre à l'utilisateur de coller une texture sur un objet afin de se le représenter dans un autre matériau ou une autre couleur par exemple.

Analyse du projet

Positionnement par rapport à l'existant

Il existe sur le marché un très grand nombre de caméra Wi-Fi, comme celle-ci par exemple.

Beaucoup de caméras Wi-Fi sur le marché proposent en plus de visionner le flux vidéo via une application et ce, à des pris parfois très abordables, comme cette caméra.

La valeur ajouté de notre caméra si situera donc essentiellement au niveau de l'accessibilité de la solution proposée, puisqu'elle va utiliser des fonctionnalités open-source des fonctionnalités prévues (mesure taille et réalité augmenté)

Analyse du premier concurrent

On se propose dans un premier temps d'analyser cette caméra.

il s'agit d'une caméra moyenne-gamme. Celle-ci propose un grand éventail de fonctionnalités, ce qui la rend assez attractive étant donné son prix.

Fonctionnalités:

  • Image en 720p
  • Couverture à 360°.
  • Détection de Mouvement.
  • Audio Bidirectionnel, permettant la communication à distance.
  • Vision Nocturne.
  • Alertes d'activité. L'utilisateur de recevoir des informations en temps réel sur son smart-phone.
  • La détection de Pleurs de Bébé.

La caméra propose en plus le "YI Cloud", un service de cloud permettant de visionner les enregistrements de la caméra.

Toutes ses fonctionnalités la rendent idéale pour une utilisation domestique.

Analyse du second concurrent

La deuxième caméra concurrente que l'on choisis d'analyser est une caméra haut de gamme professionnelle.

Cette caméra se focalise surtout sur les performances, avec un résolution en 1080p, un zoom en x20 et un nombre important de fonctionnalités tel que du tracking ainsi que des IVS (Intelligent video software) permettant de la détection d'objet, de la surveillance de périmètre, etc ...

Scénario d'usage du produit ou du concept envisagé

Durant une première réunion avec les responsables d'Übrik,le scénario d'usage a été éclairci. Notre caméra va s'intégrer dans un projet d'immobilier urbain. Cet immobilier fournit un point d'accès WiFi publique. Placé dans un endroit stratégique, comme un lieu touristique par exemple, n'importe quel utilisateur pourrait avoir accès à un site internet leur permettant de visualiser l'aménagement de la ville au alentours et d'avoir des informations historique ou des anecdotes sur les monuments locaux. Toutes ces informations seraient affichées en réalité augmentée.

Réponse à la question difficile

Durant la présentation de notre projet, la question de l'utilité de notre caméra nous été posé. Comme indiqué dans la partie "analyse des concurrents", il existe un grand nombre de caméra Wi-Fi déjà existante sur le marché. La réponse à cette question à été évoqué dans le partie "objectif". Le fait est que le but de ce projet est de développer une caméra qui devra se greffer au mobilier déjà existant, avec toute les contraintes que cela apporte en terme de matériel et d'architecture réseau.

Un autre intérêt de ce projet est la recherche quant à la réalité augmentée et la reconnaissance d'image. Nous allons devoir rechercher une solution de reconnaissance d'image, adaptée au système sur laquelle elle doit être implémentée, soit un BananaPro, et adaptée et optimisée pour l'utilisation que nous allons en faire.

Préparation du projet

Cahier des charges

Besoin

Il s’agit ici de développer un prototype de caméra intelligente et interactive permettant de mettre en valeur une ville, ses ressources et ses aménagements. Plusieurs utilisateurs devront pouvoir se connecter au même moment à un point d’accès Wi-Fi afin d'accéder à l’application qui intégrera les fonctionnalités prévus.

Contraintes

Contraintes techniques

Le flux vidéo doit être accessible aux clients connectés, indépendamment de leur nombre Le mouvement de la caméra, se limite à une simple rotation afin de balayer le plus d’espace possible. On envisage de rendre notre application accessible via un site internet. Ce dernier devra donc être simple, ergonomique et sécurisé. La gestion de l’énergie est à prendre en compte, mais elle n’est pas réalisée par nos soins. Nous nous contenterons d’optimiser notre système pour réduire sa consommation. La caméra devra aussi être résistante et étanche, puisqu'elle se destine à priori à un usage extérieur.

Contraintes matérielles

Pour réaliser notre caméra, nous utiliserons le matériel suivant:

  • Une Banana Pi. Celle-ci intégrera toutes les applications prévus. (modification du flux (Réalité augmentée), gestion du serveur web)
  • La caméra en elle même consistera en une Banana-Pi BPI-D1, open source. (Source du flux vidéo)

Fonctions de base

Orientation de la caméra

  • Réalisation d’un mouvement cyclique
  • Pas de modification de la trajectoire en fonctionnement (Mais possibilité en mode administrateur?)

Traitement de l’image

  • Ajout de réalité augmentée au flux vidéo

Création d’un réseau wi-fi lié à la caméra

  • Permet d’accéder au flux vidéo
  • Accès à la caméra par Internet (Pour administration?)

Envoi de l’image par streaming

  • Serveur de streaming proposé par la caméra
  • Accès au stream via le point d’accès wi-fi

Réalisation d’un client web

  • Adapté aux navigateurs web (mobiles ou non)
  • Intégration du flux vidéo
  • Interface utilisateur permettant de modifier les informations ajoutées par la VR

Priorités de réalisation

Voici l’ordre des tâches que nous envisageons pour ce projet:

  • La transmission d’un flux vidéo depuis la caméra
  • L’intégration de ce flux dans un site web
  • La conception mécanique de la caméra
  • L’implémentation de fonctionnalités de réalité augmentée

Facteurs de qualité

Voici maintenant les critères de qualité, suivant leur ordre d’importance:

  • Prototype fonctionnel
  • Application web fonctionnelle et efficace
  • Intégration de la réalité augmentée
  • Application web esthétique et ergonomique
  • Sécurité
  • Consommation énergétique réduite


NB: le cahier des charges est susceptible de changer en fonction de notre avancement (ou non) dans le projet.

Choix techniques : matériel et logiciel

Une grande partie du matériel qui sera utilisé à été prêté par Urbik:

Carte de développement

Stockage

  • 2*Carte Micro SD 8 Go, pour le stockage des Banana Pi
  • Une clé USB 4 Go
  • Un Support MicroSD -> SD

Câbles et alimentations

  • Rallonge microUSB mâle -> USB type A femelle
  • USB typeA Y mâle -> microUSB & USB typeA femelle
  • Bloc secteur Alimentation 230V ~ 5V microUSB

Accessoires

  • Antenne WiFi pour Banana Pi Pro
  • Adaptateur Ethernet USB TypeA

Divers

  • Module RTC compatible Banana Pi Pro
  • Shield développement GPIO Banana Pro
  • Une clé Wi-Fi pour RaspPi
  • Adaptateur DVI -> HDMI

A cela, on ajoute 2 servomoteurs, prêté par Polytech Lille

Liste des tâches à effectuer

On se propose, sur le court terme, de se concentrer sur le développement de la caméra Wi-Fi en elle même. Le but est de pouvoir visualiser le flux vidéo transmis par la caméra sur un site internet:

  • Il faut, dans un premier temps, installer des systèmes d'exploitation sur les Banana Pi Pro et D1.
  • Créer un serveur web sur la Banana Pi Pro
  • Configurer la communication entre la Banana Pi Pro et la Banana Pi D1
  • Configurer la rotation des servomoteur

Une fois cela fait, nous pourrons nous concentrer sur le développement de l'application.

Calendrier prévisionnel

Semaine 1 : installation des OS sur les Banana Pi Pro et D1 + début conception serveur web + config servo-moteurs

Semaine 2 : fin serveur web +

Réalisation du Projet

Feuille d'heures

Tâche Prélude Heures S1 Heures S2 Heures S3 Heures S4 Heures S5 Heures S6 Heures S7 Heures S8 Heures S9 Heures S10 Total
Analyse du projet ~10h ~15-20h ~15-20h ~15-20h ~15-20h

Prologue

Réunion avec les responsables d'Urbik

Préalablement au commencement du projet, nous avons rencontrés les responsables d'Urbik afin de valider le cahier des charges et de clarifier certains points. A l'issue de cette réunion, tout les objectifs ont été validés, avec cependant de nombreuses recommandations:

  • Installer un OS léger et minimaliste afin d'économiser les ressources de la Banana Pi Pro
  • Utiliser la librairie OpenCV afin de réaliser l'application
  • Utiliser au mieux les capacité de la caméra afin de faciliter le traitement de l'application
  • Pour des raisons pratiques, utiliser le chipset intégré à la caméra afin de contrôler les servomoteurs (Ces derniers étant en dehors de l'habitacle du mobilier et donc éloigné de la Banana Pi Pro)
  • Pour le traitement de l'image, utiliser 2 flux vidéo. L'un sera transmis directement par la caméra, l'autre sera dédié à l'application

Semaine 1

Installation des OS

Banana Pi Pro

Pour le Banana Pi Pro, nous avons choisis l'OS Bananian. Nous avons choisi cet OS pour sa simplicité et pour sa bonne compatibilité avec notre système. Cet OS nous garantit aussi d'avoir uniquement les fonctions dont nous avons besoins, ce qui nous permettra d'économiser le plus d'espace possible.

Banana Pi D1 Le banana-pi D1 comporte deux modes de fonctionnement.

  • Soit il est utilisé comme il est à la sortie d'usine, et dans ce cas il crée un flux vidéo automatiquement en parallèle de l'enregistrement des fichiers vidéo sur carte SD
  • Soit on choisit d'installer un OS dessus.

Dans notre cas, il est important de pouvoir modifier l'os afin de pouvoir personnaliser son fonctionnement (Contrôle des servo-moteurs et éventuellement préparation de l'image à traiter)

On peut donc compiler un OS grâce aux sources fournies, l'installer sur la carte grâce à un utilitaire également fournis(Burntool).

Mais nous n'avons pas réussi à utiliser la carte banana pi D1. Les différents problèmes que nous avons rencontré sont :

  • Difficultés à compiler un OS à l'aide des sources fournies
  • L'image obtenue est dans un format spécifique (extensions .jffs2 et .sqsh4) qui ne sont pas compatibles avec les outils classiques pour installer des OS
  • L'outil fourni, burntool, qui doit permettre de flasher le D1 ne fonctionne pas. La carte est détectée par l'os, mais le driver ne s'installe pas et Burntool ne trouve pas la carte.
  • La carte ne fonctionne pas comme prévu lors de sa mis sous tension sans avoir d'os : pas de stream, pas d'enregistrement vidéo.

Ces problèmes nous font penser que la Banana-Pi D1 est défectueuse.

Configuration du point d'accès Wi-Fi de la Banana Pi Pro

Nous nous sommes ensuite attelé à configurer notre Banana Pi Pro pour en faire un point d'accès Wi-Fi.

Nous avons d'abord configuré le module "AP6181". Son activation se fait via la commande "modprobe ap6210". Afin de rendre son activation automatique en mode AP (access point) au démarrage de la, BPi Pro, nous avons ajouté "ap6210 op_mode=2" dans le fichier /etc/modules.

L'interface wlan0 à ensuite été activé en modifiant le fichier /etc/network/interfaces:

// STATION MODE
//auto wlan0
//iface wlan0 inet dhcp
//wpa-conf /etc/wpa_supplicant/wpa_supplicant.conf
// ACESS POINT MODE
allow-hotplug wlan0
iface wlan0 inet static
address 192.168.100.1
netmask 255.255.255.0

Pour configurer notre point d'accès, nous avons utilisé l'outil hostapd. La configuration en elle même se fait grâce au fichier /etc/hostapd/hostapd.conf comme suit:

interface=wlan0
driver=nl80211
ssid=BananaPro
channel=6
hw_mode=g
macaddr_acl=0
auth_algs=1
ignore_broadcast_ssid=0
wpa=2
wpa_passphrase=12345678
wpa_key_mgmt=WPA-PSK
wpa_pairwise=TKIP
rsn_pairwise=CCMP

Il nous a aussi fallu configurer un serveur dhcp, afin d'attribuer une adresse IP au appareils connectés. Pour cela, nous avons installé l'outil udcpd. Ce dernier se configure via le fichier /etc/udhcpd.conf:

start 192.168.100.101 #default: 192.168.0.20
end 192.168.100.254 #default: 192.168.0.254

Nous avons finalement réussi à faire fonctionner notre point d'accès, a partir duquel nous pouvons accéder au serveur Web qui sera créé:

Mise en place du serveur Web

Afin de mettre en place notre serveur web, nous avons choisis Nginx en raison de ses performances, légèrement supérieures à un serveur Web comme apache.

Semaine 2

Résolution des problème de réseau

Notre architecture réseau, tel que décrit en introduction, se compose de deux réseaux. L'un créée par notre routeur, lequel relie notre BPiPro et notre BPiD1. L'autre réseau est composé des utilisateurs se connectant au point d'accès de la BPiPro.

Ces deux réseau ont été configuré avec des serveurs DHCP, lesquels délivrent des adresses IP au clients connectés. Afin de récupérer le stream provenant de d'une caméra connecté au routeur depuis un appareil connecté au point d'accès de la BPiPro, nous avons du configurer l'attribution des adresses IP et mettre en place un Gateway entre la BPiPro et le routeur:

Routeur

start 192.168.0.100
end 192.168.0.254

Point d'accès de la BPiPro

  • /etc/udhcpd.conf:

start 192.168.0.200
end 192.168.0.254

  • /etc/network/interfaces

// ACESS POINT MODE
allow-hotplug wlan0
iface wlan0 inet static
address 192.168.0.199
netmask 255.255.255.0
// liaison interface wlan0 avec routeur
Gateway 192.169.0.199 192.169.0.1

Mise en place du stream sur le serveur web

Cette semaine à été dédié à la finalisation de la mise en place du serveur web avec l'ajout du stream au niveau du site. Étant donné les problème rencontré avec la caméra BPi D1, nous avons décidé d'utiliser l'outil motion.

Ce dernier se charge de créer un serveur de stream à l'adresse IP : <IP_machine:8081>, que nous avons mis en place de manière très simple:

<p style="text-align: center;"><img src="192.168.1.25:8081" alt="" /></p>

Semaine 3

Deuxième réunion Urbik

Durant cette semaine, nous avons pu rencontrer à nouveau les responsables nos tuteurs de projet afin de discuter plus en détail de l'application que nous devons mettre place.

Caméra

Concernant la caméra, il a été décidé que nous utiliserons une caméra type Webcam simple connecté à notre BPiPro, étant nos difficultés à faire marcher la caméra BananaPi D1 efficacement. Ce point vient apporter quelques modifications concernant notre architecture réseau. Nous devons dorénavant uniquement nous connecter au point d'accès de la BPiPro.

Application

Cette réunion fut aussi l’occasion pour nous d'aborder la question de l'application. Nous avons réfléchi à la manière de traîter la reconnaissance d'image. Notre but est de reconnaître des bâtiments dans un panorama urbain, balayé par notre caméra. Après quelques reflections, il s'avère qu'une solution envisageable consisterait en :

  • Une initialisation du système :
    • D'abord, on photographie l'ensemble du panorama que la caméra peut avoir en visu
    • Ensuite on repère les différents bâtiments sur les images (Il faut encore trouver une solution concrête pour réaliser ça)
    • On lie à ces bâtiments les informations à afficher
  • Ensuite, en exploitation :
    • Le banana-pro va chercher à identifier les bâtiments repérés précédemment
    • Pour cela il réalise sa recherche en connaissant la position des servos, donc la position grossière des bâtiemnts. Cela devrait permettre de limiter la recherche aux seules images concernées.

Open-CV

Nous avons commencé à prendre en main Open-CV. Nous réalisons un programme basique, qui permet de récupérer un stream et le modifier frame par frame. Nous avons fait le choix d'utiliser le C++ pour ce premier programme, mais nous réfléchissons à l'utilisation du langage Python qui aurait l’intérêt d'être plus simple et de fournir une bonne documentation sur le net.

Le fonctionnement de notre code est très simple. Il récupère un stream vidéo existant à l'aide des lignes de code const std::string url = "http://localhost:8081";

cv::VideoCapture capture(url);

et on crée trois fenêtres :

cv::namedWindow("Stream", CV_WINDOW_AUTOSIZE);

cv::namedWindow("Stream1", CV_WINDOW_AUTOSIZE);

cv::namedWindow("Stream2", CV_WINDOW_AUTOSIZE);

On va ensuite récupérer les frames.

cv::Mat frame;

if (!capture.read(frame)) { //Error }

On les modifie et on les affiche:

cv::Mat outFrame;

threshold(frame, outFrame, threshold_value, max_BINARY_value, THRESH_BINARY);

cv::imshow("Stream1", outFrame);

Par la suite, nous utiliserons le Python pour les raisons suivantes :

  • Plus grande aisance de notre binôme et préférence de nos responsables en entreprise pour ce langage
  • Des solutions de Streaming en python plus simples et déjà existantes

Mise en place d'un dépôt github

Nous avons également mis en place un dépôt github, pour mettre à disposition notre code source. Pour y accéder, vous devez au préalable vous créer un compte et faire la demande d'accès par mail à l'adresse thom4s.hubert@gmail.com

Semaine 4

Durant cette semaine, nous avons commencé à mettre en place l'application. Cette dernière doit récupérer le flux vidéo issue de la caméra afin de la traiter et de la steamer. Nous avons donc commencé à nous renseigner et à travailler sur ces deux points, à savoir le traitement de l'image et le stream de l'image traité.

Stratégie

La stratégie que nous avons adopté consiste à traiter l'image via un programme en python. En utilisant les bibliothèques fournit par OpenCV, ce programme créera une classe "caméra" et s'occupera de traiter l'image. Un deuxième programme devra récupérer cette classe et permettre le stream en direct de l'image traité. Pour ma mise en place du stream, nous nous sommes tourné vers Flask. Il s'agit d'un micro-framework open source permettant de créer des applications web en python.

Mise en place d'un environnement python

Avant d'installer OpenCV, il nous avons du mettre en place un environnement virtuel en python. Cette opération est nécessaire si l'on veut intégrer les bibliothèques fourni par OpenCV et par Flask à nos applications uniquement. Cela permet aussi d'utiliser les bibliothèques propre à une version de python, sans gêner l’exécution d’éventuels autres applications requérant d'autre versions. Le but est donc "d'isoler" nos programmes du reste du système.

Afin de créer notre environnement virtuel, nous nous sommes servi de l'outil virtualenv, via la commande suivante:

virtualenv env

Cette commande se charge de créer une copie local des bibliothèques de python dans le dossier nommé "env"

Pour activer cet environnement, exécute cette commande:

source env/bin/activate

Installation d'open CV

La première étape à consisté à installer OpenCV.

  • Build

La première étape à consisté à générer les makefiles utiles à la compilation:

cmake -D CMAKE_BUILD_TYPE=RELEASE \
-D CMAKE_INSTALL_PREFIX=/usr/local \
-D INSTALL_C_EXAMPLES=OFF \
-D INSTALL_PYTHON_EXAMPLES=ON \
-D OPENCV_EXTRA_MODULES_PATH=~/opencv_contrib/modules \
-D BUILD_EXAMPLES=ON ..

  • Compilation

On compile ensuite en lançant 4 threads en parallèle:

make -j4

Début mise en place du stream

Flask permet assez facilement de générer un petit serveur web. Ce dernier n'est pas très pas très robuste mais peut servir pour tester notre application. Afin de tester la récupération d'une frame par flask, nous avons réalisé un programme de test simple:

  • Classe caméra

Ce programme se sert de la bibliothèque cv2, qu'on a préalablement linké à notre environnement virtuel python. Ce dernier créer une classe Camera, et contient la méthode get_frame, retournant une frame de notre flux vidéo.

import cv2
import time

class Camera():

def __init__(self):
self.cap = cv2.VideoCapture(0)
print("Preparation de la camera")
time.sleep(1)
self.frame = self.cap.read()
def get_frame(self):
self.frames = open("stream.jpg", 'w+')
s, img = self.cap.read()
if s:
cv2.imwrite("stream.jpg", img)
return self.frames.read()
def __del__(self):
self.cap.release()
print("Extinction de la camera")
return()
  • Programme flask:

Notre programme flask importe la classe caméra et exécute la méthode get_frame pour générer un stream vidéo grâce à la fonction video_feed.

from flask import Flask, render_template, Response
from camera import Camera

app = Flask(__name__)

@app.route('/')
def index():

return render_template('index.html')

def gen(camera):

while True:
frame = camera.get_frame()
yield (b'--frame\r\n'
b'Content-Type: image/jpeg\r\n\r\n' + str(frame) + b'\r\n')

@app.route('/video_feed')
def video_feed():

return Response(gen(Camera()),
mimetype='multipart/x-mixed-replace; boundary=frame')

if __name__ == '__main__':

app.run(host='0.0.0.0', debug=True, threaded=True)

Ce programme permet la mise en place d'un serveur web à l'adresse <IP_locale>:5000:

-- insérer photo --

La prochaine étape va consister à porter notre application flask sur notre serveur web nginx plus robuste.

Reconnaissance d'image

Parallèllement à la mise en place d'un stream à partir d'OpenCv et de Flask, nous travaillons sur la reconnaissance d'image. Nous nous sommes donnés comme objectifs de réaliser assez rapidement un programme qui puisse retrouver un objet connu à priori dans une image captée par la caméra. Pour ce faire, nous avons réfléchi et trouvé la solution suivante.

  • Après le mapping de la zone couverte, il s'agit de créer manuellement un masque pour chaque bâtiment dont on veut donner les infos.
  • A chaque masque créé, on associe les différentes information : par exemple le nom du bâtiment, ses dates...
  • Ensuite, lors de l'utilisation de la camera, le programme va appliquer le masque sur l'image obtenue lors du mapping, ce qui donnera le contour de l'objet à retrouver
  • Il suffit alors de retrouver l'objet ainsi détouré dans le flux vidéo et de lui associer les informations à afficher

Implémentation de la reconnaissance d'image

Dans un premier temps, nous devons trouver une méthode l'implémentation de la reconnaissance d'image. OpenCV propose une bibliothèque, xFeatures2d, qui permet de retrouver un élément dans une image de manière assez sûre, c'est à dire malgré des modifications de luminosité ou d'angle. Le fonctionnement est le suivant. Pour chaque image, on récupère des points-clef, qui sont les "coins" détectés sur l'image, soit des points faciles à représenter. On calcule ensuite les descripteurs des points-clef, qui résument les caractéristiques de l'image en faisant abstraction de leur positions absolue. OpenCV propose les commandes suivantes, en Python :

surf = cv2.xfeatures2d.SURF_create()   //Crée l'objet Surf qui permet la detection de keypoints
kpobjet, desobjet = surf.detectAndCompute(objet, None)  //La methode detectAndCompute de l'objet surf retourne les keypoints et les descriptors

On peut donc visualiser les keypoints (en bleu) obtenus sur une image de démo :

P30KeypointsFixes.png

On peut voir que leur densité est élevée. Peut-être faudra-t-il jouer sur ce paramètre pour réduire le temps de traîtement.

Semaine 5

Durant cette semaine, nous nous sommes attelé à mettre en place notre application sur un serveur web fonctionnel.

Installation d'uWSGI et configuration de Nginx

La première étape à consisté à porter notre application flask sur nginx. Pour cela, nous avons utilisé uWSGI. Cet outil permet de faire le lien entre notre serveur nginx, lequel permet de gérer les requêtes des clients, et notre application web flask, chargé de récupérer un flux vidéo.

  • Installation et création d'un point d'entré uWSGI

Installation: pip install uwsgi

On créer tout d'abord un programme uWSGI qui se charge de d'importer notre application flask. Ce programme servira plus tard de point d'entée à notre application flask. Ce programme sera par la suite exécuté par l'outil uwsgi, qui se chargera de créer un serveur wsgi local à partir de cette application.

from UrbikCamera import web

if __name__ == "__main__":

app.run()

On peut déjà tester notre serveur wsgi en exécutant cette commande:
uwsgi --socket 0.0.0.0:5000 --protocol=http -w nom_programme_uwsgi:app

-- screen test uwsgi --

  • Configuration de uwsgi

Afin de rendre notre serveur WSGI plus robuste, nous avons créé un fichier de configuration:

[uwsgi]
module = wsgi

#start up en master mode
master = true
#création de 5 process pour traiter les requêtes
processes = 5

#utilisation d'une socket pour gérer la connexion avec les clients
socket = camera.sock
#droit de la socket pour le groupe: lecture et écriture
chmod-socket = 660
#nettoyage de la socket apres utilisation
vacuum = true

#nécessaire pour configurer uWSGI
die-on-term = true

  • Création d'un script de lancement

Afin de rendre le lancement de notre serveur uwsgi automatique, on créé un script qui se lance automatique au démarrage de notre ordinateur. NB: testé sur Linux Mint mais pas sur Bananian.

/etc/systemd/system/app_uwsgu.service:

#métadata ...
[Unit]
Description=lancement d'uWSGI
After=network.target

#indication de l'utilisateur pour les droits
[Service]
User=root
#spécification des chemin d'accès de l'environnement vituel et de la source du projet
WorkingDirectory=.../UrbikCamera
Environment="PATH=.../UrbikCamera/env/bin"
ExecStart=.../UrbikCamera/env/bin/uwsgi --ini myproject.ini

#permet à systemd le lancement de ce script
[Install]
WantedBy=multi-user.target

On peut ensuite activer et lancer ce script grâce aux commandes:

systemctl start myproject
systemctl enable myproject

  • Configuration de nginx

La dernière étape consiste à configurer Nginx de manière à le faire communiquer avec notre serveur WSGI. L'idée est de mettre en place un proxy inverse pour qu'un utilisateur puisse accéder à notre serveur uWSGI, qui contient notre application flask, et ce, via Nginx.

#Bloc serveur: permet écoute sur le port 80 et gestion des requêtes sur localhost
server {

listen 80;
server_name localhost;

#Activation d'uwsgi sur nginx

location / {
include uwsgi_params;
#On transfère les requêtes des utilisateurs à la socket du serveur uwsgi que l'on créé dans le ficher le configuration
uwsgi_pass unix:.../UrbikCamera/camera.sock;
}

}

Tests

Les tests ont d'abord été réalisé sur nos ordinateurs. On commence par tester notre serveur web avec notre simple application simple:

-- photos --

On inclut ensuite un stream vidéo:

-- photos --

Enfin, on teste sur notre application de reconnaissance d'objets

-- photos --

Semaine 6

Installation d'une application simple sur la BananaPro

Tests de fonctionnement

Tests de performance

Problèmes et résolutions

Reconnaissance d'image : Matcher les keypoints de deux images

Pour matcher deux images, on calcule d'abord les descripteurs de points-clef. Une fois ces descripteurs obtenus, on va pouvoir comparer les keypoints et obtenir une structure, qui associe les keypoints les plus ressemblants.

Dans notre cas, nous utiliserons un Matcher basé sur force brute pour commencer. Nous testerons son efficacité plus tard pour optimiser les performances. On l'implémente dous OpenCV de la manière suivante:

bf = cv2.BFMatcher()
matches = bf.knnMatch(desobjet,despano, k=2)

Dans la liste des matches, nous supprimons les couples de points dont la distance Euclidienne est supérieure à une constante que nous avons fixée, pour éliminer les matches aberrants.

good = []
for m,n in matches:
    if m.distance < 0.65*n.distance:
    good.append(m)

On obtient alors une matrice "good", qui contient les meilleurs matches.

On peut alors visualiser les couples de points acceptés, ici reliés par un trait. P30-ReconnaissanceAvecMasque.png

Semaine 7

Reconnaissance d'image : Calcul d'une matrice de transformation

Pour continuer dans le processus de reconnaissance d'image, nous devons calculer une matrice de transformation entre notre image de base et l'image que nous avons obtenu par la caméra. Nous appliquerons cette matrice à un masque à afficher, représentant une image à superposer à la frame obtenue.

TODO : Photo image de référence, et masque


Sous OpenCV, nous utilisons la fonction findHomography qui permet d'obtenir cette matrice à partir des descripteurs de points-clef.

TODO

Semaine 8

Implémentation d'un détourage d'objet

Semaine 9

Test applications sur openCV

Discussion autour de la stratégie à adopter pour optimisation du programme

Semaine 10

Réunion Urbik

Travail sur les performances de la reconnaissance d'image

Semaine 11

Semaine 12

Semaine 13

Documents Rendus