<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="fr">
		<id>https://projets-ima.plil.fr/mediawiki/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Fsueur</id>
		<title>Wiki de Projets IMA - Contributions de l’utilisateur [fr]</title>
		<link rel="self" type="application/atom+xml" href="https://projets-ima.plil.fr/mediawiki/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Fsueur"/>
		<link rel="alternate" type="text/html" href="https://projets-ima.plil.fr/mediawiki/index.php/Sp%C3%A9cial:Contributions/Fsueur"/>
		<updated>2026-05-15T00:29:26Z</updated>
		<subtitle>Contributions de l’utilisateur</subtitle>
		<generator>MediaWiki 1.29.2</generator>

	<entry>
		<id>https://projets-ima.plil.fr/mediawiki/index.php?title=Scan_3D&amp;diff=4036</id>
		<title>Scan 3D</title>
		<link rel="alternate" type="text/html" href="https://projets-ima.plil.fr/mediawiki/index.php?title=Scan_3D&amp;diff=4036"/>
				<updated>2013-02-13T14:14:01Z</updated>
		
		<summary type="html">&lt;p&gt;Fsueur : /* Compréhension du fonctionnement de cmake et de Qt dans KDevelop */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Introduction==&lt;br /&gt;
&lt;br /&gt;
Dans le cadre de la cinquième année nous avons pour consigne de réaliser un projet en rapport avec notre formation. Nous avons choisi de travailler sur le projet du Scan 3D car nous sommes tous les deux intéressé par l'utilisation des capacités de la Kinect.&lt;br /&gt;
&lt;br /&gt;
Ce projet est un projet industriel en lien avec la société Oxylane. Au sein de cette dernière, beaucoup de prototypes ont été réalisés sans passer préalablement par une phase de conception 3D. Ce sont des prototypes uniques, des objets difficilement duplicables. De plus en plus de concepteurs, de designers et de chercheurs aimeraient pouvoir continuer à travailler sur ces objets physiques dans le monde virtuel. Oxylane cherche donc un moyen de scanner ces objets sans passer par des équipements très coûteux.&lt;br /&gt;
&lt;br /&gt;
== Présentation du projet ==&lt;br /&gt;
&lt;br /&gt;
Ce projet consiste donc de réaliser un prototype de scanner 3D en utilisant la Kinect, permettant de transformer des objets réels en forme 3D. Les besoins les plus forts concernent actuellement les casques de vélo et les chaussures. &lt;br /&gt;
&lt;br /&gt;
Cependant avant de se lancer directement dans le scan 3D, nous devons tout d'abord étudier ce qu'il est possible de faire actuellement avec la Kinect. De nombreux documents sont là pour nous aider ainsi qu'une base de logiciel permettant le scan 3D : Kinect Fusion (KinFu).&lt;br /&gt;
&lt;br /&gt;
== Etat de l'art ==&lt;br /&gt;
&lt;br /&gt;
De nos jours, la volonté de reconstruire la géométrie à l'aide de capteurs actifs, de caméras passives ou d'images en ligne sont des points très étudiés dans la recherche en informatique graphique et vision. L'utilisation de caméra à infrarouges est très étendue et de nombreuses sociétés créent leur propre caméra utilisant cette technologie (Microsoft avec la Kinect, Asus avec son Asus Xtion, ou encore Leap de Leap Motion). &lt;br /&gt;
Alors que les caméras de profondeur ne sont pas totalement nouvelles, Kinect a fait de ces capteurs, des capteurs accessibles à tous. La qualité de la détection de profondeur, étant donné la nature à faible coût et en temps réel de l'appareil, est convaincante et en a fait un capteur populaire auprès des chercheurs et des amateurs. La Kinect de Microsoft est donc l'une des plus populaires et des plus abordables. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Microsoft a eu la volonté d'améliorer les compétences de sa Kinect et il s'est attardé sur la possibilité, avec KinectFusion, de créer rapidement et en temps réel une reconstruction 3D d'une scène d'intérieur. Pour ce faire, la caméra Kinect utilise une technique structurée de la lumière pour générer des cartes de profondeur en temps réel contenant des mesures de distances discrètes de la scène physique. Ces données peuvent être projetées comme un ensemble de points discrets 3D (ou nuage de points). Même si les données de profondeur Kinect sont convaincantes, en particulier par rapport aux autres appareils de profondeur disponibles dans le commerce, il existe toujours du bruit. Les mesures de profondeur fluctuent souvent et les cartes de profondeur contiennent de nombreux «trous» où la lecture n'a pas été obtenue.&lt;br /&gt;
&lt;br /&gt;
Pour des systèmes simples, comme les jeux vidéo, ce bruit, ces trous peuvent être éliminés en faisant la moyenne des points qui les entourent. Pour des objectifs plus complexes comme un modèle 3D, il est nécessaire de capturer plusieurs vues de la scène physique et de les fusionnées pour en faire une seule représentation. C'est pour ces travaux plus complexes que le programme Kinect Fusion a été inventé.&lt;br /&gt;
&lt;br /&gt;
== Installations, Découverte de Kinect Fusion ==&lt;br /&gt;
&lt;br /&gt;
Lors des 4 premières séances de projets que nous avons pu faire, nous nous sommes intéressé à l'installation et à l'utilisation des OpenSources de Kinect Fusion. Voici les différents outils que nous avons eu  besoin d'installer pour faire fonctionner la Kinect et l'Open Source sur un Linux.&lt;br /&gt;
&lt;br /&gt;
===Installation de OpenNi, Nite, SensorKinect===&lt;br /&gt;
&lt;br /&gt;
*Installer OpenNi Unstable&lt;br /&gt;
&lt;br /&gt;
**Pré-requis &lt;br /&gt;
&lt;br /&gt;
        Obligatoires :&lt;br /&gt;
                1) GCC 4.x&lt;br /&gt;
                  apt-get install g++&lt;br /&gt;
                2) Python 2.6+/3.x&lt;br /&gt;
                 apt-get install python&lt;br /&gt;
                3) LibUSB 1.0.x&lt;br /&gt;
                 apt-get install libusb-1.0-0-dev&lt;br /&gt;
                4) FreeGLUT3&lt;br /&gt;
                 apt-get install freeglut3-dev&lt;br /&gt;
                5) JDK 6.0&lt;br /&gt;
                 apt-get install openjdk-6-jdk&lt;br /&gt;
&lt;br /&gt;
        Optionel (Pour la documentation):&lt;br /&gt;
                1) Doxygen&lt;br /&gt;
                  apt-get install doxygen&lt;br /&gt;
                2) GraphViz&lt;br /&gt;
                   apt-get install graphviz&lt;br /&gt;
&lt;br /&gt;
**Installation&lt;br /&gt;
&lt;br /&gt;
        cd ~/OpenNi/Platform/Linux/CreateRedist&lt;br /&gt;
        chmod +x RedistMaker&lt;br /&gt;
        ./RedistMaker&lt;br /&gt;
        cd ~/OpenNi/Platform/Linux/Redist/OpenNI-Bin-Dev-Linux-x64-v1.5.4.0&lt;br /&gt;
        su&lt;br /&gt;
        ./install.sh&lt;br /&gt;
&lt;br /&gt;
*Installation de SensorKinect :&lt;br /&gt;
&lt;br /&gt;
        cd ~/SensorKinect/Platform/Linux/CreateRedist&lt;br /&gt;
        chmod +x RedistMaker&lt;br /&gt;
        ./RedistMaker&lt;br /&gt;
        cd ~/SensorKinect/Platform/Linux/Redist/Sensor-Bin-Linux-x64-v5.1.2.1&lt;br /&gt;
        ./install.sh&lt;br /&gt;
&lt;br /&gt;
===Installation de la PCL Expérimentale ===&lt;br /&gt;
&lt;br /&gt;
Obligatoire : &lt;br /&gt;
*cmake&lt;br /&gt;
 apt-get install cmake&lt;br /&gt;
&lt;br /&gt;
*Boost ≥ 1.46&lt;br /&gt;
 apt-get install libboost-all-dev&lt;br /&gt;
&lt;br /&gt;
*Eigen ≥ 3.0&lt;br /&gt;
 apt-get install libeigen3-dev&lt;br /&gt;
&lt;br /&gt;
*FLANN ≥ 1.7.1&lt;br /&gt;
 apt-get install libflann-dev&lt;br /&gt;
&lt;br /&gt;
*VTK ≥ 5.6&lt;br /&gt;
 apt-get install libvtk5-dev&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Installation&lt;br /&gt;
&lt;br /&gt;
 cd ~Pcl/trunk&lt;br /&gt;
 mkdir build &amp;amp;&amp;amp; cd build &amp;amp;&amp;amp; cmake ..&lt;br /&gt;
 make&lt;br /&gt;
 make install&lt;br /&gt;
&lt;br /&gt;
===Utilisation de KinFu LargeScale===&lt;br /&gt;
&lt;br /&gt;
*d'après le tutoriel :&lt;br /&gt;
http://pointclouds.org/documentation/tutorials/using_kinfu_large_scale.php&lt;br /&gt;
&lt;br /&gt;
*./bin/pcl_kinfu_largeScale -r -et&lt;br /&gt;
*./bin/pcl_kinfu_largeScale_mesh_output world.pcd &lt;br /&gt;
*Fusionner les mesh générés avec MeshLab et l'exporter dans KinFuSnapshots&lt;br /&gt;
*./bin/pcl_kinfu_largeScale_texture_output KinFuSnapshots/merged_mesh.ply&lt;br /&gt;
&lt;br /&gt;
===Utilisation de KinFu App===&lt;br /&gt;
&lt;br /&gt;
Nous nous sommes ensuite attardé sur cette partie de KinFu et nous nous sommes rendu-compte qu'elle permet de scanner un objet en 3 dimensions et d'en faire facilement le tour. Nous récupérons ensuite le scan dans un fichier .ply exploitable par le logiciel MeshLab. Voici les commandes que nous devons taper pour le faire fonctionner :&lt;br /&gt;
&lt;br /&gt;
* cd ~/trunk/build/bin&lt;br /&gt;
* ./kinfu_app&lt;br /&gt;
* Une fois le programme lancé, voici les trois fenêtres qui s'ouvrent :&lt;br /&gt;
&lt;br /&gt;
[http://projets-ima.plil.net/mediawiki/index.php?title=Fichier:Application_de_base.png Application KinFu]&lt;br /&gt;
&lt;br /&gt;
* On peut observer dans la fenêtre View3D from ray tracing le mesh 3D en cours de la Kinect&lt;br /&gt;
* Appuyer succéssivement sur A dans la fenêtre Scene Cloud Viewer pour ajouter le mesh en cours au mesh que l'on souhaite exporter.&lt;br /&gt;
* Appuyer sur 7 pour exporter le mesh de la fenêtre Scene Cloud Viewer dans un fichier PLY&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Plusieurs options sont disponibles dans kinfu_app, notamment l'option -volume_size &amp;lt;size_in_meters&amp;gt; qui permet de réduire le champ de vision de la kinect en profondeur&lt;br /&gt;
&lt;br /&gt;
=== Réunion du 12 novembre avec Oxylane ===&lt;br /&gt;
&lt;br /&gt;
Nous avons rencontré lors de cette réunion le responsable du service innovation de Oxylane. Nous lui avons montré nos avancements dans les tests de Kinect Fusion et nous nous sommes mis d'accord sur les trois points d'études suivants :&lt;br /&gt;
&lt;br /&gt;
*'''''Etude des limites du programme Kinect Fusion (avantages, inconvénients, ajouts de fonctionnalités possibles).'''''&lt;br /&gt;
Etudier le principe de fonctionnement de l'Open Source KinFu de Kinect Fusion et se rendre compte de ce qu'il est possible de faire ou de ne pas faire avec le programme (textures, couleurs ...)&lt;br /&gt;
   &lt;br /&gt;
*'''''Tests avec la Kinect de bureau pour améliorer la précision.'''''&lt;br /&gt;
Pouvoir donner une idée de que l'on peut faire et ce que l'on peut améliorer avec une Kinect de bureau plutôt que la Kinect Xbox.&lt;br /&gt;
&lt;br /&gt;
*'''''Tests pour la création d'un scénario complet de scan d'un casque de vélo.'''''&lt;br /&gt;
Ce test permettrait de mettre l'accent sur les points bloquants lors d'un scan d'un objet quelconque (éventualité d'isoler l'objet de son environnement par exemple). Ce test nous permettra aussi de prendre du recul sur les outils disponibles et sur la réalité des compétences qu'ont besoin d'avoir ceux qui voudraient utiliser une kinect pour faire du scan 3D.&lt;br /&gt;
&lt;br /&gt;
== Réalisations ==&lt;br /&gt;
&lt;br /&gt;
=== Etude appronfondie du fonctionnment de Kinect Fusion ===&lt;br /&gt;
Une fois les différents premiers tests effectués, nous avons voulu savoir comment fonctionner KinFu. Pour cela, nous avons tout d'abord cherché sur Internet quelques recherches et nous sommes tombés sur ce site expliquant de manière globale le fonctionnement de Kinect Fusion : [http://www.tumblr.com/tagged/kinect+fusion&lt;br /&gt;
]&lt;br /&gt;
&lt;br /&gt;
Afin de détecter la profondeur des objets présents dans la scène, Kinect Fusion utilise la caméra infra-rouge de la kinect. Un projecteur infrarouge projette une lumière invisible sur la scène. Il a été spécialement conçu pour projeter les points à la manière d'un laser de telle sorte que les points ne se dilatent pas avec la distance. Cette lumière est lu par la caméra infrarouge. Une fois que ce schéma est lu par la caméra infrarouge, le programme Kinect Fusion recherche des corrélations. Si il en trouve,le processeur dans le kinect est alors en mesure d'utiliser cette information pour trianguler la position 3D des points.&lt;br /&gt;
&lt;br /&gt;
=== Réunion du Mercredi 5 décembre avec Oxylane===&lt;br /&gt;
&lt;br /&gt;
Oxylane et son pôle Innovation (IT Pole &amp;quot;Oxylane brands&amp;quot;) organise chaque année, les &amp;quot;IT Days Oxylane&amp;quot;. Il s'agit d'un salon où chaque pôle de recherche présente ses différents projets en cours. Il se déroulera le Mercredi 12 décembre à Décathlon Campus.&lt;br /&gt;
&lt;br /&gt;
Notre tuteur entreprise M. Jean VANBERSELAERT, nous a proposé d'y participer pour présenter nos travaux. Nous nous sommes donc vus en réunion pour discuter de ce que nous allons présenter lors de ce salon. Comme nous ne sommes disponibles que le mercredi après-midi, nous allons nous y rendre la veille pour préparer notre stand et installer sur une de leur machine les différents éléments nécessaires pour pouvoir utiliser la Kinect et le programme Kinect Fusion. M. VANBERSELAERT a également pensé de nous filmer pour avoir une explication de notre projet à présenter le matin du salon.&lt;br /&gt;
&lt;br /&gt;
Lors de cette réunion, on nous a fourni un rouleau de papier fluorescent ainsi qu'un casque de vélo pour faire des tests avec la Kinect. En effet, nous pensions que ce type de couleur absorerait les rayons infra-rouges et nous permettrait d'isoler un élément à scanner de son environnement. Nous avons fait quelques tests après la réunion et nous nous sommes rendu compte que cela ne fonctionnait pas. Nous avons alors essayer de poser le casque sur une boite en plastique transparent et nous obtenons le résultat suivant :&lt;br /&gt;
&lt;br /&gt;
[http://projets-ima.plil.net/mediawiki/index.php?title=Fichier:Casque_sur_plastique.png#filelinks Image du scan d'un casque de vélo]&lt;br /&gt;
&lt;br /&gt;
=== Le &amp;quot;IT Day Oxylane&amp;quot; ===&lt;br /&gt;
&lt;br /&gt;
Oxylane et son pôle Innovation (IT Pole &amp;quot;Oxylane brands&amp;quot;) organise chaque année, le &amp;quot;IT Day Oxylane&amp;quot;. Il s'agit d'un salon où chaque pôle de recherche présente ses différents projets en cours. Il s’est déroulé le Mercredi 12 décembre à Décathlon Campus.&lt;br /&gt;
Notre tuteur entreprise M. Jean VANBERSELAERT, nous a proposé d'y participer pour présenter nos travaux. Nous nous sommes donc vus en réunion pour discuter de ce que nous allions présenter lors de ce salon. Comme nous n’étions disponibles que le mercredi après-midi, nous nous y sommes rendu la veille pour préparer notre stand et installer sur une de leur machine les différents éléments nécessaires pour pouvoir utiliser la Kinect et le programme&lt;br /&gt;
Kinect Fusion.&lt;br /&gt;
Cependant l’installation de KinFu sur leur machine fut plus difficile que prévu. En effet, la carte graphique de la machine ne correspondait pas aux besoins que demande Kinect Fusion, par conséquent l’installation faisait une erreur au bout de 35%. Afin d’avoir tout de même quelque chose à présenter lors du salon, nous avons installé sur une machine Windows le logiciel ReconstructMe. Sur la machine Linux, nous avons tenté de mettre à jour les différents drivers de la carte graphique et nous avons recommencé l’installation de KinFu le mercredi après-midi. Cette fois ci l’installation s’est arrêtée à 75%. Nous avons lors du make de l’installation l’option « –i » qui ignore les erreurs et cela à fonctionner. Nous avons pu montrons alors notre réel travail.&lt;br /&gt;
&lt;br /&gt;
Voici quelques photos de notre stand :&lt;br /&gt;
&lt;br /&gt;
[http://projets-ima.plil.net/mediawiki/index.php?title=Fichier:Image_1.jpeg Image 1 de notre stand]&lt;br /&gt;
&lt;br /&gt;
[http://projets-ima.plil.net/mediawiki/index.php?title=Fichier:Image%282%29.jpeg Image 2 de notre stand]&lt;br /&gt;
&lt;br /&gt;
[http://projets-ima.plil.net/mediawiki/index.php?title=Fichier:Image.jpeg Image 3 de notre stand]&lt;br /&gt;
&lt;br /&gt;
Vous pouvez voir sur la machine de gauche le logiciel ReconstructMe et sur celle de gauche Kinfu. Cet évènement, nous aura permis de nous rendre compte que l’installation de KinFu dépend également de la machine de travail. En effet, à Polytech’Lille nous avons des machines puissantes et mises à jour et ce n’est pas forcément le cas chez les industriels.&lt;br /&gt;
&lt;br /&gt;
=== Planning pour les mois de Janvier et de Février ===&lt;br /&gt;
&lt;br /&gt;
Afin de gérer au mieux les deux derniers mois de projet, nous avons choisi de faire un planning. En effet, il nous reste 5 tâches à effectuer :&lt;br /&gt;
&lt;br /&gt;
* Test avec la Kinect de bureau ou le zoom Nyko&lt;br /&gt;
* Isolation de l'objet par rapport à son environnement&lt;br /&gt;
* Comprendre le fonctionnement de cmake =&amp;gt; build d’un projet PCL + Qt dans KDevelop4&lt;br /&gt;
* Créer une interface graphique permettant à l'utilisateur d'utiliser facilement KinFu&lt;br /&gt;
* Ajouter la texture et les couleurs au Mesh&lt;br /&gt;
&lt;br /&gt;
Voici donc le planning que nous avons élaboré :&lt;br /&gt;
&lt;br /&gt;
[http://projets-ima.plil.net/mediawiki/images/b/be/Planning.png Planning]&lt;br /&gt;
&lt;br /&gt;
=== Compréhension du fonctionnement de cmake et de Qt dans KDevelop ===&lt;br /&gt;
&lt;br /&gt;
*cmake est un générateur de Makefile. Son processus de génération est entièrement contrôlé par un fichier de configuration : CMakeLists.txt&lt;br /&gt;
La PCL utilise ce générateur de makefile. Voici les commandes que nous utilisons :&lt;br /&gt;
&lt;br /&gt;
 mkdir build &amp;amp;&amp;amp; cd build&lt;br /&gt;
 cmake ..&lt;br /&gt;
 make kinfu_app&lt;br /&gt;
&lt;br /&gt;
Nous ne cherchons ici qu'à compiler notre application : kinfu_app&lt;br /&gt;
&lt;br /&gt;
* Pour créer notre interface graphique, le fait de développer en c++ nous a immédiatement fait penser à utiliser le framework Qt.&lt;br /&gt;
Ce framework dispose lui aussi d'un générateur de Makefile : qmake. Cependant, qmake est destiné aux projets fortement qui utilisent fortement Qt, or notre projet est un projet déjà conséquent n'utilisant ni Qt ni qmake. &lt;br /&gt;
Heureusement, cmake est capable de gérer Qt. Nous avons donc recherché les macros permettant de compiler nos fenêtre écrites en Qt.&lt;br /&gt;
&lt;br /&gt;
*Voici le principe de fonctionnement de la compilation avec Qt : [http://qt-quarterly.developpez.com/qq-34/cmake/images/qt-build-system-small.png Mécanisme de compilation avec Qt]&lt;br /&gt;
On remarque que les fichiers sources sont compilés normalement, mais que les fichiers d'en-tête, formulaire utilisateur (.ui) et fichiers ressources (.qrc) subissent une étape intermédiaire.&lt;br /&gt;
** Les fichiers h sont générés par moc   &lt;br /&gt;
** Les fichiers ui sont générés par uic &lt;br /&gt;
** Les fichiers qrc sont générés par rcc&lt;br /&gt;
&lt;br /&gt;
* Voici la partie du CMakeLists.txt que nous avons modifié :&lt;br /&gt;
 FIND_PACKAGE(Qt4 REQUIRED)&lt;br /&gt;
 set(the_target kinfu_app)&lt;br /&gt;
 set(srcs kinfu_app.cpp appthreadkinect.cpp kinectinterface.cpp capture.cpp evaluation.cpp parameterdialog.cpp)&lt;br /&gt;
 set(rscs resources.qrc)&lt;br /&gt;
 QT4_WRAP_CPP(mocsqt appthreadkinect.h parameterdialog.h kinectinterface.h)&lt;br /&gt;
 QT4_ADD_RESOURCES(rccqt ${rscs})&lt;br /&gt;
 INCLUDE(${QT_USE_FILE})&lt;br /&gt;
 ADD_DEFINITIONS(${QT_DEFINITIONS})&lt;br /&gt;
 source_group(&amp;quot;Source Files&amp;quot; FILES ${srcs} )&lt;br /&gt;
 PCL_ADD_EXECUTABLE(${the_target} ${SUBSYS_NAME} ${srcs} ${hdrs} ${mocsqt} ${rccqt})&lt;br /&gt;
 target_link_libraries(${the_target} pcl_common pcl_io ${OPENNI_LIBRARIES} pcl_visualization pcl_gpu_kinfu  ${QT_LIBRARIES})&lt;br /&gt;
&lt;br /&gt;
En résumé : &lt;br /&gt;
* On attribut a la variable srcs nos fichiers cpp, et à rscs le fichier de ressources indiquant où se trouvent nos images.&lt;br /&gt;
 set(srcs kinfu_app.cpp appthreadkinect.cpp kinectinterface.cpp capture.cpp evaluation.cpp parameterdialog.cpp)&lt;br /&gt;
 set(rscs resources.qrc)&lt;br /&gt;
* Pour  appeler moc, la macro QT4_WRAP_CPP est utilisée sur uniquement les fichiers h utilisant Qt. Les fichiers sources seront stockés dans la variable mocsqt. C'est le même principe pour les fichiers de ressources.&lt;br /&gt;
 QT4_WRAP_CPP(mocsqt appthreadkinect.h parameterdialog.h kinectinterface.h)&lt;br /&gt;
 QT4_ADD_RESOURCES(rccqt ${rscs})&lt;br /&gt;
&lt;br /&gt;
*Pour compiler une application Qt, les répertoires include de Qt doivent être ajoutés et un ensemble de paramètres doit être défini via :&lt;br /&gt;
 INCLUDE(${QT_USE_FILE})&lt;br /&gt;
 ADD_DEFINITIONS(${QT_DEFINITIONS})&lt;br /&gt;
&lt;br /&gt;
* Enfin, on définit le nom de l'exécutable, ainsi que les bibliothèques qui doivent être liées.&lt;br /&gt;
 PCL_ADD_EXECUTABLE(${the_target} ${SUBSYS_NAME} ${srcs} ${hdrs} ${mocsqt} ${rccqt})&lt;br /&gt;
 target_link_libraries(${the_target} pcl_common pcl_io ${OPENNI_LIBRARIES} pcl_visualization pcl_gpu_kinfu  ${QT_LIBRARIES})&lt;br /&gt;
&lt;br /&gt;
=== Création de l'interface graphique ===&lt;br /&gt;
&lt;br /&gt;
Comme vu au paragraphe précédent, nous savons maintenant modifier le programme KinFu et nous savons également développer en Qt. Grâce à cela, nous avons pu créer une interface graphique afin qu'un utilisateur &amp;quot;lambda&amp;quot; puisse utiliser facilement le programme KinFu sans devoir taper sur des touches (A pour scanner et 7 pour sauvegarder). &lt;br /&gt;
&lt;br /&gt;
Nous avions tout d'abord essayer de rajouter notre interface dans l'application KinFu_app mais nous nous sommes rendu compte que le programme affichait d'abord notre interface puis nous devions la fermer pour avoir les trois fenêtres de l'application. Par conséquent, nous avons choisi de faire tourner les deux interfaces en parallèle grâce au threads.&lt;br /&gt;
&lt;br /&gt;
Nous avons donc créer l'interface graphique dans une classe qui lui est propre et nous appelons cette classe dans le &amp;quot;main&amp;quot; de l'application KinFu de la manière suivante :&lt;br /&gt;
&lt;br /&gt;
 QApplication qtApp(argc, argv);&lt;br /&gt;
 KinectInterface kinectInterface;//= new KinectInterface;&lt;br /&gt;
 AppThreadKinect thread(&amp;amp;kinectInterface);&lt;br /&gt;
 thread.setArgc(argc);&lt;br /&gt;
 thread.setArgv(argv);&lt;br /&gt;
&lt;br /&gt;
La classe &amp;quot;KinectInterface&amp;quot; utilise la bibliothèque graphique Qt et fait appel aux différentes fonctions de sauvegarde ou de scan du programme KinFu. &lt;br /&gt;
&lt;br /&gt;
Voici à quoi ressemble notre interface :&lt;br /&gt;
&lt;br /&gt;
* L'utilisateur doit tout d'abord saisir la distance maximale en mètre qu'il veut scanner &lt;br /&gt;
&lt;br /&gt;
[http://projets-ima.plil.net/mediawiki/index.php?title=Fichier:Lancement.png Démarrage de l'application]&lt;br /&gt;
&lt;br /&gt;
* Ensuite ces différentes fenêtres apparaissent :&lt;br /&gt;
&lt;br /&gt;
[http://projets-ima.plil.net/mediawiki/index.php?title=Fichier:Application.png Application avec interface]&lt;br /&gt;
&lt;br /&gt;
On se rend compte que nous deux applications tournent en parallèle. Il suffit maintenant à l'utilisateur de choisir l'intervalle en secondes entre deux ajouts, de ce que la caméra scanne, au mesh. Puis il appuie sur &amp;quot;scanner&amp;quot; et lorsque son scan est terminé il clique sur le bouton &amp;quot;Sauver au format ply&amp;quot;, &lt;br /&gt;
son travail est alors enregistré et l'application se ferme.&lt;br /&gt;
&lt;br /&gt;
=== Intégration des couleurs au mesh ===&lt;br /&gt;
&lt;br /&gt;
Une fois que nous avons réalisé une base d'interface graphique, nous avons voulu ajouter la texture (la couleur) à nos scan. Pour cela nous nous sommes basés sur le fonctionnement de l'application KinFu LargeScale qui possédait déjà l'intégration des couleurs dans ses options grace à l'option -et (enable_texture) -r (registration) dans sa commande :&lt;br /&gt;
 ./bin/pcl_kinfu_largeScale -r -et &lt;br /&gt;
&lt;br /&gt;
KinFu_Large_Scale fonctionne de la manière suivante :&lt;br /&gt;
&lt;br /&gt;
* Au cours du scan, l'application prend différentes photos sous le format n°.png, les enregistre dans le dossier KinFuSnapshots/ et ajoute un n°.txt contenant la position de la caméra lors de la prise de la photo. L'application crée à la fin du scan un fichier world.pcd qui est dans cet état inutilisable.&lt;br /&gt;
&lt;br /&gt;
* Une fois le scan terminé, l'utilisateur doit transformer le .pcd en .ply grâce à la commmande :&lt;br /&gt;
 ./bin/pcl_kinfu_largeScale_mesh_output world.pcd &lt;br /&gt;
&lt;br /&gt;
Cette commande crée alors plusieurs fichiers .ply en fonction de la durée du scan. Il faut que l'utilisateur fusionne les différents fichiers .ply et enregistre cette fusion dans le dossier KinFuSnapshots/ contenant déjà les différentes photos.&lt;br /&gt;
&lt;br /&gt;
* Enfin, il doit lancer sur son terminal la commande suivante qui associe les différentes photos au mesh fusionné :&lt;br /&gt;
 ./bin/pcl_kinfu_largeScale_texture_output KinFuSnapshots/merged_mesh.ply &lt;br /&gt;
&lt;br /&gt;
Les photos sont correctement placées sur le mesh grâce aux différents fichiers .txt qui possèdent les différentes positions&lt;br /&gt;
&lt;br /&gt;
Nous, nous utilisons l'application KinFu_App qui ne contient pas l'option d'intégration des couleurs au mesh. Par conséquent, nous l'avons modifié pour d'une certaine manière fusionner les options -r et -et de KinFu LargeScale avec l'application KinFu_App.&lt;br /&gt;
&lt;br /&gt;
Pour ce faire, nous avons tout d'abord ajouter la prise des photos à notre application. Nous nous sommes rendus compte qu'il existait dans KinFu_Large_Scale une classe &amp;quot;Screenshot_manager&amp;quot; qui permet de prendre et d'enregistrer les photos mais aussi d'enregistrer la position de la caméra. Par conséquent, nous avons ajouter cette classe à KinFu_App. &lt;br /&gt;
&lt;br /&gt;
Nous avons laissé le choix à l'utilisateur d'activer ou pas la prise de ces photos. Nous avons donc ajouté un checkbox au lancement de l'application permettant à l'utilisateur d'activer ou pas cette option. Voici à quoi notre nouvelle interface ressemble :&lt;br /&gt;
&lt;br /&gt;
[http://projets-ima.plil.net/mediawiki/index.php?title=Fichier:Texture.png Ajout de l'option texture]&lt;br /&gt;
&lt;br /&gt;
Grâce à cette option, nous appelons la classe &amp;quot;Screenshot_manager&amp;quot; que si elle a été sélectionnée.&lt;br /&gt;
&lt;br /&gt;
Nous nous également rendus compte que KinFu_App crée directement, à la fin du scan, un et un seul fichier .ply. Par conséquent les étapes nécessaires dans KinFu_LargeScale :&lt;br /&gt;
&lt;br /&gt;
 ./bin/pcl_kinfu_largeScale_mesh_output world.pcd  &lt;br /&gt;
 ./bin/pcl_kinfu_largeScale_texture_output KinFuSnapshots/merged_mesh.ply &lt;br /&gt;
&lt;br /&gt;
ne sont plus à réaliser dans notre situation. Par conséquent, l'utilisateur ne doit plus que réaliser la commande suivante (dans le dossier KinFuSnapshots/) : &lt;br /&gt;
 ../bin/pcl_kinfu_largeScale_texture_output mesh.ply &lt;br /&gt;
et son mesh possédera la couleur.&lt;br /&gt;
&lt;br /&gt;
=== Amélioration de la précision ===&lt;br /&gt;
&lt;br /&gt;
Suite à cela, nous nous sommes replongé dans le code pour essayer de trouver un moyen d'améliorer la précision du scan. En effet, nous nous étions rendus compte lors du &amp;quot;IT Day&amp;quot; que la précision était encore faible et que par exemple, les différents trous qu'il peut y avoir dans un casque n'était pas assez prononcés.&lt;br /&gt;
&lt;br /&gt;
Nous avons trouvé dans la classe kinfu_app.cpp de l'application le paramètre de la fonction setTsdfTruncDist(), qui nous permet en mètre de définir la distance de troncature à partir de laquelle la TSDF (outil qui permet d'assigner une valeur de profondeur à chaque pixel de la grille vue par la caméra, et la compare avec la grille de l’itération précédente) va corriger, approximer les erreurs de scan. Initialement, elle était à 30cm et c'est pour cette raison que la précision restait faible. Nous avons mis cette valeur à 3cm et voici ce que nous obtenons :&lt;br /&gt;
&lt;br /&gt;
[http://projets-ima.plil.net/mediawiki/index.php?title=Fichier:Casqueprecis.png Casque précis]&lt;br /&gt;
&lt;br /&gt;
On se rend bien compte que les trous du casque sont beaucoup plus prononcés et que la couleur a bien été ajoutée au mesh.&lt;br /&gt;
&lt;br /&gt;
=== Réunion du lundi 11 février avec Oxylane ===&lt;br /&gt;
&lt;br /&gt;
Suite à ces différentes avancées, nous avons décidé de fixer un rendez-vous avec Oxylane afin de leur montrer nos travaux. Cet entretien a eu lieu le lundi 11 février.&lt;br /&gt;
&lt;br /&gt;
Lors de ce dernier, Oxylane a pu constater avec joie que nous travaux avaient très bien avancés et ils semblaient de plus en plus satisfait par la qualité des différents scan que nous leur avons montrés. Lors de cette réunion, ils nous ont fournis un zoom Nyko et une Kinect For Windows afin que nous continuons d'essayer d'améliorer la précision.&lt;br /&gt;
&lt;br /&gt;
=== Test du zoom Nyko et de la Kinect For Windows ===&lt;br /&gt;
&lt;br /&gt;
Suite à la réunion avec Oxylane, nous avons tout d'abord essayé le zoom Nyko. L'installation fut facile et aucun paramètre dans l'application a dû être modifié. Cependant le résultat que nous obtenons n'a pas répondu à nos attentes. En effet, le zoom Nyko produit un effet de loupe, &amp;quot;d'oeil de poisson&amp;quot; sur la scène et donc la déforme. Voici une comparaison des images capturées par la Kinect sans et avec le zoom Nyko :&lt;br /&gt;
&lt;br /&gt;
[http://projets-ima.plil.net/mediawiki/index.php?title=Fichier:Capture_du_2013-02-13_14-25-36.png Capture sans le zoom Nyko]&lt;br /&gt;
&lt;br /&gt;
[http://projets-ima.plil.net/mediawiki/index.php?title=Fichier:Capture_du_2013-02-13_14-26-47.png Capture avec le zoom Nyko]&lt;br /&gt;
&lt;br /&gt;
En ce qui concerne la Kinect For Windows, nous n'avons aucune difficulté à l'utiliser sur Linux, les drivers de la Kinect pour Xbox 360 ont suffit. Cependant, nous n'avons pas vu de différences flagrantes entre les deux Kinect.&lt;br /&gt;
&lt;br /&gt;
=== Amélioration de notre interface graphique ===&lt;br /&gt;
&lt;br /&gt;
Afin de rendre l'interface plus ergonomique, nous avons décidé de remplacer les boutons &amp;quot;texte&amp;quot; par des boutons icônes. De plus, en améliorant cette interface nous avons ajouté plusieurs fonctions.&lt;br /&gt;
&lt;br /&gt;
* Le bouton start permet de lancer le scan. Il est transformé en bouton pause lorsqu'il est actionné.&lt;br /&gt;
* Le bouton power permet d'arrêter à tout instant l'application&lt;br /&gt;
* Le bouton reset permet d'effacer toutes les différentes captures qui ont déjà été effectuées (mesh et photos)&lt;br /&gt;
* Le bouton stop devrait être supprimé à moins que nous lui trouvions une utilité&lt;br /&gt;
* Le bouton info permettra d'obtenir des informations sur l'application et éventuellement une aide&lt;br /&gt;
* Le bouton enregistrer permet d'enregistrer le mes au format ply. Nous envisageons d'ajouter des options pour le format d'enregistrement.&lt;br /&gt;
&lt;br /&gt;
Voici à quoi ressemble notre interface :&lt;br /&gt;
&lt;br /&gt;
[http://projets-ima.plil.net/mediawiki/index.php?title=Fichier:Interface_ergo.png Notre nouvelle interface]&lt;/div&gt;</summary>
		<author><name>Fsueur</name></author>	</entry>

	<entry>
		<id>https://projets-ima.plil.fr/mediawiki/index.php?title=Scan_3D&amp;diff=4033</id>
		<title>Scan 3D</title>
		<link rel="alternate" type="text/html" href="https://projets-ima.plil.fr/mediawiki/index.php?title=Scan_3D&amp;diff=4033"/>
				<updated>2013-02-13T13:58:49Z</updated>
		
		<summary type="html">&lt;p&gt;Fsueur : /* Compréhension du fonctionnement de cmake et de Qt dans KDevelop */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Introduction==&lt;br /&gt;
&lt;br /&gt;
Dans le cadre de la cinquième année nous avons pour consigne de réaliser un projet en rapport avec notre formation. Nous avons choisi de travailler sur le projet du Scan 3D car nous sommes tous les deux intéressé par l'utilisation des capacités de la Kinect.&lt;br /&gt;
&lt;br /&gt;
Ce projet est un projet industriel en lien avec la société Oxylane. Au sein de cette dernière, beaucoup de prototypes ont été réalisés sans passer préalablement par une phase de conception 3D. Ce sont des prototypes uniques, des objets difficilement duplicables. De plus en plus de concepteurs, de designers et de chercheurs aimeraient pouvoir continuer à travailler sur ces objets physiques dans le monde virtuel. Oxylane cherche donc un moyen de scanner ces objets sans passer par des équipements très coûteux.&lt;br /&gt;
&lt;br /&gt;
== Présentation du projet ==&lt;br /&gt;
&lt;br /&gt;
Ce projet consiste donc de réaliser un prototype de scanner 3D en utilisant la Kinect, permettant de transformer des objets réels en forme 3D. Les besoins les plus forts concernent actuellement les casques de vélo et les chaussures. &lt;br /&gt;
&lt;br /&gt;
Cependant avant de se lancer directement dans le scan 3D, nous devons tout d'abord étudier ce qu'il est possible de faire actuellement avec la Kinect. De nombreux documents sont là pour nous aider ainsi qu'une base de logiciel permettant le scan 3D : Kinect Fusion (KinFu).&lt;br /&gt;
&lt;br /&gt;
== Etat de l'art ==&lt;br /&gt;
&lt;br /&gt;
De nos jours, la volonté de reconstruire la géométrie à l'aide de capteurs actifs, de caméras passives ou d'images en ligne sont des points très étudiés dans la recherche en informatique graphique et vision. L'utilisation de caméra à infrarouges est très étendue et de nombreuses sociétés créent leur propre caméra utilisant cette technologie (Microsoft avec la Kinect, Asus avec son Asus Xtion, ou encore Leap de Leap Motion). &lt;br /&gt;
Alors que les caméras de profondeur ne sont pas totalement nouvelles, Kinect a fait de ces capteurs, des capteurs accessibles à tous. La qualité de la détection de profondeur, étant donné la nature à faible coût et en temps réel de l'appareil, est convaincante et en a fait un capteur populaire auprès des chercheurs et des amateurs. La Kinect de Microsoft est donc l'une des plus populaires et des plus abordables. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Microsoft a eu la volonté d'améliorer les compétences de sa Kinect et il s'est attardé sur la possibilité, avec KinectFusion, de créer rapidement et en temps réel une reconstruction 3D d'une scène d'intérieur. Pour ce faire, la caméra Kinect utilise une technique structurée de la lumière pour générer des cartes de profondeur en temps réel contenant des mesures de distances discrètes de la scène physique. Ces données peuvent être projetées comme un ensemble de points discrets 3D (ou nuage de points). Même si les données de profondeur Kinect sont convaincantes, en particulier par rapport aux autres appareils de profondeur disponibles dans le commerce, il existe toujours du bruit. Les mesures de profondeur fluctuent souvent et les cartes de profondeur contiennent de nombreux «trous» où la lecture n'a pas été obtenue.&lt;br /&gt;
&lt;br /&gt;
Pour des systèmes simples, comme les jeux vidéo, ce bruit, ces trous peuvent être éliminés en faisant la moyenne des points qui les entourent. Pour des objectifs plus complexes comme un modèle 3D, il est nécessaire de capturer plusieurs vues de la scène physique et de les fusionnées pour en faire une seule représentation. C'est pour ces travaux plus complexes que le programme Kinect Fusion a été inventé.&lt;br /&gt;
&lt;br /&gt;
== Installations, Découverte de Kinect Fusion ==&lt;br /&gt;
&lt;br /&gt;
Lors des 4 premières séances de projets que nous avons pu faire, nous nous sommes intéressé à l'installation et à l'utilisation des OpenSources de Kinect Fusion. Voici les différents outils que nous avons eu  besoin d'installer pour faire fonctionner la Kinect et l'Open Source sur un Linux.&lt;br /&gt;
&lt;br /&gt;
===Installation de OpenNi, Nite, SensorKinect===&lt;br /&gt;
&lt;br /&gt;
*Installer OpenNi Unstable&lt;br /&gt;
&lt;br /&gt;
**Pré-requis &lt;br /&gt;
&lt;br /&gt;
        Obligatoires :&lt;br /&gt;
                1) GCC 4.x&lt;br /&gt;
                  apt-get install g++&lt;br /&gt;
                2) Python 2.6+/3.x&lt;br /&gt;
                 apt-get install python&lt;br /&gt;
                3) LibUSB 1.0.x&lt;br /&gt;
                 apt-get install libusb-1.0-0-dev&lt;br /&gt;
                4) FreeGLUT3&lt;br /&gt;
                 apt-get install freeglut3-dev&lt;br /&gt;
                5) JDK 6.0&lt;br /&gt;
                 apt-get install openjdk-6-jdk&lt;br /&gt;
&lt;br /&gt;
        Optionel (Pour la documentation):&lt;br /&gt;
                1) Doxygen&lt;br /&gt;
                  apt-get install doxygen&lt;br /&gt;
                2) GraphViz&lt;br /&gt;
                   apt-get install graphviz&lt;br /&gt;
&lt;br /&gt;
**Installation&lt;br /&gt;
&lt;br /&gt;
        cd ~/OpenNi/Platform/Linux/CreateRedist&lt;br /&gt;
        chmod +x RedistMaker&lt;br /&gt;
        ./RedistMaker&lt;br /&gt;
        cd ~/OpenNi/Platform/Linux/Redist/OpenNI-Bin-Dev-Linux-x64-v1.5.4.0&lt;br /&gt;
        su&lt;br /&gt;
        ./install.sh&lt;br /&gt;
&lt;br /&gt;
*Installation de SensorKinect :&lt;br /&gt;
&lt;br /&gt;
        cd ~/SensorKinect/Platform/Linux/CreateRedist&lt;br /&gt;
        chmod +x RedistMaker&lt;br /&gt;
        ./RedistMaker&lt;br /&gt;
        cd ~/SensorKinect/Platform/Linux/Redist/Sensor-Bin-Linux-x64-v5.1.2.1&lt;br /&gt;
        ./install.sh&lt;br /&gt;
&lt;br /&gt;
===Installation de la PCL Expérimentale ===&lt;br /&gt;
&lt;br /&gt;
Obligatoire : &lt;br /&gt;
*cmake&lt;br /&gt;
 apt-get install cmake&lt;br /&gt;
&lt;br /&gt;
*Boost ≥ 1.46&lt;br /&gt;
 apt-get install libboost-all-dev&lt;br /&gt;
&lt;br /&gt;
*Eigen ≥ 3.0&lt;br /&gt;
 apt-get install libeigen3-dev&lt;br /&gt;
&lt;br /&gt;
*FLANN ≥ 1.7.1&lt;br /&gt;
 apt-get install libflann-dev&lt;br /&gt;
&lt;br /&gt;
*VTK ≥ 5.6&lt;br /&gt;
 apt-get install libvtk5-dev&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Installation&lt;br /&gt;
&lt;br /&gt;
 cd ~Pcl/trunk&lt;br /&gt;
 mkdir build &amp;amp;&amp;amp; cd build &amp;amp;&amp;amp; cmake ..&lt;br /&gt;
 make&lt;br /&gt;
 make install&lt;br /&gt;
&lt;br /&gt;
===Utilisation de KinFu LargeScale===&lt;br /&gt;
&lt;br /&gt;
*d'après le tutoriel :&lt;br /&gt;
http://pointclouds.org/documentation/tutorials/using_kinfu_large_scale.php&lt;br /&gt;
&lt;br /&gt;
*./bin/pcl_kinfu_largeScale -r -et&lt;br /&gt;
*./bin/pcl_kinfu_largeScale_mesh_output world.pcd &lt;br /&gt;
*Fusionner les mesh générés avec MeshLab et l'exporter dans KinFuSnapshots&lt;br /&gt;
*./bin/pcl_kinfu_largeScale_texture_output KinFuSnapshots/merged_mesh.ply&lt;br /&gt;
&lt;br /&gt;
===Utilisation de KinFu App===&lt;br /&gt;
&lt;br /&gt;
Nous nous sommes ensuite attardé sur cette partie de KinFu et nous nous sommes rendu-compte qu'elle permet de scanner un objet en 3 dimensions et d'en faire facilement le tour. Nous récupérons ensuite le scan dans un fichier .ply exploitable par le logiciel MeshLab. Voici les commandes que nous devons taper pour le faire fonctionner :&lt;br /&gt;
&lt;br /&gt;
* cd ~/trunk/build/bin&lt;br /&gt;
* ./kinfu_app&lt;br /&gt;
* Une fois le programme lancé, voici les trois fenêtres qui s'ouvrent :&lt;br /&gt;
&lt;br /&gt;
[http://projets-ima.plil.net/mediawiki/index.php?title=Fichier:Application_de_base.png Application KinFu]&lt;br /&gt;
&lt;br /&gt;
* On peut observer dans la fenêtre View3D from ray tracing le mesh 3D en cours de la Kinect&lt;br /&gt;
* Appuyer succéssivement sur A dans la fenêtre Scene Cloud Viewer pour ajouter le mesh en cours au mesh que l'on souhaite exporter.&lt;br /&gt;
* Appuyer sur 7 pour exporter le mesh de la fenêtre Scene Cloud Viewer dans un fichier PLY&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Plusieurs options sont disponibles dans kinfu_app, notamment l'option -volume_size &amp;lt;size_in_meters&amp;gt; qui permet de réduire le champ de vision de la kinect en profondeur&lt;br /&gt;
&lt;br /&gt;
=== Réunion du 12 novembre avec Oxylane ===&lt;br /&gt;
&lt;br /&gt;
Nous avons rencontré lors de cette réunion le responsable du service innovation de Oxylane. Nous lui avons montré nos avancements dans les tests de Kinect Fusion et nous nous sommes mis d'accord sur les trois points d'études suivants :&lt;br /&gt;
&lt;br /&gt;
*'''''Etude des limites du programme Kinect Fusion (avantages, inconvénients, ajouts de fonctionnalités possibles).'''''&lt;br /&gt;
Etudier le principe de fonctionnement de l'Open Source KinFu de Kinect Fusion et se rendre compte de ce qu'il est possible de faire ou de ne pas faire avec le programme (textures, couleurs ...)&lt;br /&gt;
   &lt;br /&gt;
*'''''Tests avec la Kinect de bureau pour améliorer la précision.'''''&lt;br /&gt;
Pouvoir donner une idée de que l'on peut faire et ce que l'on peut améliorer avec une Kinect de bureau plutôt que la Kinect Xbox.&lt;br /&gt;
&lt;br /&gt;
*'''''Tests pour la création d'un scénario complet de scan d'un casque de vélo.'''''&lt;br /&gt;
Ce test permettrait de mettre l'accent sur les points bloquants lors d'un scan d'un objet quelconque (éventualité d'isoler l'objet de son environnement par exemple). Ce test nous permettra aussi de prendre du recul sur les outils disponibles et sur la réalité des compétences qu'ont besoin d'avoir ceux qui voudraient utiliser une kinect pour faire du scan 3D.&lt;br /&gt;
&lt;br /&gt;
== Réalisations ==&lt;br /&gt;
&lt;br /&gt;
=== Etude appronfondie du fonctionnment de Kinect Fusion ===&lt;br /&gt;
Une fois les différents premiers tests effectués, nous avons voulu savoir comment fonctionner KinFu. Pour cela, nous avons tout d'abord cherché sur Internet quelques recherches et nous sommes tombés sur ce site expliquant de manière globale le fonctionnement de Kinect Fusion : [http://www.tumblr.com/tagged/kinect+fusion&lt;br /&gt;
]&lt;br /&gt;
&lt;br /&gt;
Afin de détecter la profondeur des objets présents dans la scène, Kinect Fusion utilise la caméra infra-rouge de la kinect. Un projecteur infrarouge projette une lumière invisible sur la scène. Il a été spécialement conçu pour projeter les points à la manière d'un laser de telle sorte que les points ne se dilatent pas avec la distance. Cette lumière est lu par la caméra infrarouge. Une fois que ce schéma est lu par la caméra infrarouge, le programme Kinect Fusion recherche des corrélations. Si il en trouve,le processeur dans le kinect est alors en mesure d'utiliser cette information pour trianguler la position 3D des points.&lt;br /&gt;
&lt;br /&gt;
=== Réunion du Mercredi 5 décembre avec Oxylane===&lt;br /&gt;
&lt;br /&gt;
Oxylane et son pôle Innovation (IT Pole &amp;quot;Oxylane brands&amp;quot;) organise chaque année, les &amp;quot;IT Days Oxylane&amp;quot;. Il s'agit d'un salon où chaque pôle de recherche présente ses différents projets en cours. Il se déroulera le Mercredi 12 décembre à Décathlon Campus.&lt;br /&gt;
&lt;br /&gt;
Notre tuteur entreprise M. Jean VANBERSELAERT, nous a proposé d'y participer pour présenter nos travaux. Nous nous sommes donc vus en réunion pour discuter de ce que nous allons présenter lors de ce salon. Comme nous ne sommes disponibles que le mercredi après-midi, nous allons nous y rendre la veille pour préparer notre stand et installer sur une de leur machine les différents éléments nécessaires pour pouvoir utiliser la Kinect et le programme Kinect Fusion. M. VANBERSELAERT a également pensé de nous filmer pour avoir une explication de notre projet à présenter le matin du salon.&lt;br /&gt;
&lt;br /&gt;
Lors de cette réunion, on nous a fourni un rouleau de papier fluorescent ainsi qu'un casque de vélo pour faire des tests avec la Kinect. En effet, nous pensions que ce type de couleur absorerait les rayons infra-rouges et nous permettrait d'isoler un élément à scanner de son environnement. Nous avons fait quelques tests après la réunion et nous nous sommes rendu compte que cela ne fonctionnait pas. Nous avons alors essayer de poser le casque sur une boite en plastique transparent et nous obtenons le résultat suivant :&lt;br /&gt;
&lt;br /&gt;
[http://projets-ima.plil.net/mediawiki/index.php?title=Fichier:Casque_sur_plastique.png#filelinks Image du scan d'un casque de vélo]&lt;br /&gt;
&lt;br /&gt;
=== Le &amp;quot;IT Day Oxylane&amp;quot; ===&lt;br /&gt;
&lt;br /&gt;
Oxylane et son pôle Innovation (IT Pole &amp;quot;Oxylane brands&amp;quot;) organise chaque année, le &amp;quot;IT Day Oxylane&amp;quot;. Il s'agit d'un salon où chaque pôle de recherche présente ses différents projets en cours. Il s’est déroulé le Mercredi 12 décembre à Décathlon Campus.&lt;br /&gt;
Notre tuteur entreprise M. Jean VANBERSELAERT, nous a proposé d'y participer pour présenter nos travaux. Nous nous sommes donc vus en réunion pour discuter de ce que nous allions présenter lors de ce salon. Comme nous n’étions disponibles que le mercredi après-midi, nous nous y sommes rendu la veille pour préparer notre stand et installer sur une de leur machine les différents éléments nécessaires pour pouvoir utiliser la Kinect et le programme&lt;br /&gt;
Kinect Fusion.&lt;br /&gt;
Cependant l’installation de KinFu sur leur machine fut plus difficile que prévu. En effet, la carte graphique de la machine ne correspondait pas aux besoins que demande Kinect Fusion, par conséquent l’installation faisait une erreur au bout de 35%. Afin d’avoir tout de même quelque chose à présenter lors du salon, nous avons installé sur une machine Windows le logiciel ReconstructMe. Sur la machine Linux, nous avons tenté de mettre à jour les différents drivers de la carte graphique et nous avons recommencé l’installation de KinFu le mercredi après-midi. Cette fois ci l’installation s’est arrêtée à 75%. Nous avons lors du make de l’installation l’option « –i » qui ignore les erreurs et cela à fonctionner. Nous avons pu montrons alors notre réel travail.&lt;br /&gt;
&lt;br /&gt;
Voici quelques photos de notre stand :&lt;br /&gt;
&lt;br /&gt;
[http://projets-ima.plil.net/mediawiki/index.php?title=Fichier:Image_1.jpeg Image 1 de notre stand]&lt;br /&gt;
&lt;br /&gt;
[http://projets-ima.plil.net/mediawiki/index.php?title=Fichier:Image%282%29.jpeg Image 2 de notre stand]&lt;br /&gt;
&lt;br /&gt;
[http://projets-ima.plil.net/mediawiki/index.php?title=Fichier:Image.jpeg Image 3 de notre stand]&lt;br /&gt;
&lt;br /&gt;
Vous pouvez voir sur la machine de gauche le logiciel ReconstructMe et sur celle de gauche Kinfu. Cet évènement, nous aura permis de nous rendre compte que l’installation de KinFu dépend également de la machine de travail. En effet, à Polytech’Lille nous avons des machines puissantes et mises à jour et ce n’est pas forcément le cas chez les industriels.&lt;br /&gt;
&lt;br /&gt;
=== Planning pour les mois de Janvier et de Février ===&lt;br /&gt;
&lt;br /&gt;
Afin de gérer au mieux les deux derniers mois de projet, nous avons choisi de faire un planning. En effet, il nous reste 5 tâches à effectuer :&lt;br /&gt;
&lt;br /&gt;
* Test avec la Kinect de bureau ou le zoom Nyko&lt;br /&gt;
* Isolation de l'objet par rapport à son environnement&lt;br /&gt;
* Comprendre le fonctionnement de cmake =&amp;gt; build d’un projet PCL + Qt dans KDevelop4&lt;br /&gt;
* Créer une interface graphique permettant à l'utilisateur d'utiliser facilement KinFu&lt;br /&gt;
* Ajouter la texture et les couleurs au Mesh&lt;br /&gt;
&lt;br /&gt;
Voici donc le planning que nous avons élaboré :&lt;br /&gt;
&lt;br /&gt;
[http://projets-ima.plil.net/mediawiki/images/b/be/Planning.png Planning]&lt;br /&gt;
&lt;br /&gt;
=== Compréhension du fonctionnement de cmake et de Qt dans KDevelop ===&lt;br /&gt;
&lt;br /&gt;
*cmake est un générateur de Makefile. Son processus de génération est entièrement contrôlé par un fichier de configuration : CMakeLists.txt&lt;br /&gt;
La PCL utilise ce générateur de makefile. Voici les commandes que nous utilisons :&lt;br /&gt;
&lt;br /&gt;
 mkdir build &amp;amp;&amp;amp; cd build&lt;br /&gt;
 cmake ..&lt;br /&gt;
 make kinfu_app&lt;br /&gt;
&lt;br /&gt;
Nous ne cherchons ici qu'à compiler notre application : kinfu_app&lt;br /&gt;
&lt;br /&gt;
* Pour créer notre interface graphique, le fait de développer en c++ nous a immédiatement fait penser à utiliser le framework Qt.&lt;br /&gt;
Ce framework dispose lui aussi d'un générateur de Makefile : qmake. Cependant, qmake est destiné aux projets fortement qui utilisent fortement Qt, or notre projet est un projet déjà conséquent n'utilisant ni Qt ni qmake. &lt;br /&gt;
Heureusement, cmake est capable de gérer Qt. Nous avons donc recherché les macros permettant de compiler nos fenêtre écrites en Qt.&lt;br /&gt;
&lt;br /&gt;
*Voici le principe de fonctionnement de la compilation avec Qt : [http://qt-quarterly.developpez.com/qq-34/cmake/images/qt-build-system-small.png Mécanisme de compilation avec Qt]&lt;br /&gt;
On remarque que les fichiers sources sont compilés normalement, mais que les fichiers d'en-tête, formulaire utilisateur (.ui) et fichiers ressources (.qrc) subissent une étape intermédiaire.&lt;br /&gt;
** Les fichiers h sont générés par moc   &lt;br /&gt;
** Les fichiers ui sont générés par uic &lt;br /&gt;
** Les fichiers qrc sont générés par rcc&lt;br /&gt;
&lt;br /&gt;
* Voici la partie du CMakeLists.txt que nous avons modifié :&lt;br /&gt;
 set(the_target kinfu_app)&lt;br /&gt;
 set(srcs kinfu_app.cpp appthreadkinect.cpp kinectinterface.cpp capture.cpp evaluation.cpp parameterdialog.cpp)&lt;br /&gt;
 set(rscs resources.qrc)&lt;br /&gt;
 QT4_WRAP_CPP(mocsqt appthreadkinect.h parameterdialog.h kinectinterface.h)&lt;br /&gt;
 QT4_ADD_RESOURCES(rccqt ${rscs})&lt;br /&gt;
 source_group(&amp;quot;Source Files&amp;quot; FILES ${srcs} )&lt;br /&gt;
 PCL_ADD_EXECUTABLE(${the_target} ${SUBSYS_NAME} ${srcs} ${hdrs} ${mocsqt} ${rccqt})&lt;br /&gt;
 target_link_libraries(${the_target} pcl_common pcl_io ${OPENNI_LIBRARIES} pcl_visualization pcl_gpu_kinfu  ${QT_LIBRARIES})&lt;br /&gt;
&lt;br /&gt;
*En résumé, on attribut a la variable srcs nos fichiers cpp&lt;br /&gt;
&lt;br /&gt;
=== Création de l'interface graphique ===&lt;br /&gt;
&lt;br /&gt;
Comme vu au paragraphe précédent, nous savons maintenant modifier le programme KinFu et nous savons également développer en Qt. Grâce à cela, nous avons pu créer une interface graphique afin qu'un utilisateur &amp;quot;lambda&amp;quot; puisse utiliser facilement le programme KinFu sans devoir taper sur des touches (A pour scanner et 7 pour sauvegarder). &lt;br /&gt;
&lt;br /&gt;
Nous avions tout d'abord essayer de rajouter notre interface dans l'application KinFu_app mais nous nous sommes rendu compte que le programme affichait d'abord notre interface puis nous devions la fermer pour avoir les trois fenêtres de l'application. Par conséquent, nous avons choisi de faire tourner les deux interfaces en parallèle grâce au threads.&lt;br /&gt;
&lt;br /&gt;
Nous avons donc créer l'interface graphique dans une classe qui lui est propre et nous appelons cette classe dans le &amp;quot;main&amp;quot; de l'application KinFu de la manière suivante :&lt;br /&gt;
&lt;br /&gt;
 QApplication qtApp(argc, argv);&lt;br /&gt;
 KinectInterface kinectInterface;//= new KinectInterface;&lt;br /&gt;
 AppThreadKinect thread(&amp;amp;kinectInterface);&lt;br /&gt;
 thread.setArgc(argc);&lt;br /&gt;
 thread.setArgv(argv);&lt;br /&gt;
&lt;br /&gt;
La classe &amp;quot;KinectInterface&amp;quot; utilise la bibliothèque graphique Qt et fait appel aux différentes fonctions de sauvegarde ou de scan du programme KinFu. &lt;br /&gt;
&lt;br /&gt;
Voici à quoi ressemble notre interface :&lt;br /&gt;
&lt;br /&gt;
* L'utilisateur doit tout d'abord saisir la distance maximale en mètre qu'il veut scanner &lt;br /&gt;
&lt;br /&gt;
[http://projets-ima.plil.net/mediawiki/index.php?title=Fichier:Lancement.png Démarrage de l'application]&lt;br /&gt;
&lt;br /&gt;
* Ensuite ces différentes fenêtres apparaissent :&lt;br /&gt;
&lt;br /&gt;
[http://projets-ima.plil.net/mediawiki/index.php?title=Fichier:Application.png Application avec interface]&lt;br /&gt;
&lt;br /&gt;
On se rend compte que nous deux applications tournent en parallèle. Il suffit maintenant à l'utilisateur de choisir l'intervalle en secondes entre deux ajouts, de ce que la caméra scanne, au mesh. Puis il appuie sur &amp;quot;scanner&amp;quot; et lorsque son scan est terminé il clique sur le bouton &amp;quot;Sauver au format ply&amp;quot;, &lt;br /&gt;
son travail est alors enregistré et l'application se ferme.&lt;br /&gt;
&lt;br /&gt;
=== Intégration des couleurs au mesh ===&lt;br /&gt;
&lt;br /&gt;
Une fois que nous avons réalisé une base d'interface graphique, nous avons voulu ajouter la texture (la couleur) à nos scan. Pour cela nous nous sommes basés sur le fonctionnement de l'application KinFu LargeScale qui possédait déjà l'intégration des couleurs dans ses options grace à l'option -et (enable_texture) -r (registration) dans sa commande :&lt;br /&gt;
 ./bin/pcl_kinfu_largeScale -r -et &lt;br /&gt;
&lt;br /&gt;
KinFu_Large_Scale fonctionne de la manière suivante :&lt;br /&gt;
&lt;br /&gt;
* Au cours du scan, l'application prend différentes photos sous le format n°.png, les enregistre dans le dossier KinFuSnapshots/ et ajoute un n°.txt contenant la position de la caméra lors de la prise de la photo. L'application crée à la fin du scan un fichier world.pcd qui est dans cet état inutilisable.&lt;br /&gt;
&lt;br /&gt;
* Une fois le scan terminé, l'utilisateur doit transformer le .pcd en .ply grâce à la commmande :&lt;br /&gt;
 ./bin/pcl_kinfu_largeScale_mesh_output world.pcd &lt;br /&gt;
&lt;br /&gt;
Cette commande crée alors plusieurs fichiers .ply en fonction de la durée du scan. Il faut que l'utilisateur fusionne les différents fichiers .ply et enregistre cette fusion dans le dossier KinFuSnapshots/ contenant déjà les différentes photos.&lt;br /&gt;
&lt;br /&gt;
* Enfin, il doit lancer sur son terminal la commande suivante qui associe les différentes photos au mesh fusionné :&lt;br /&gt;
 ./bin/pcl_kinfu_largeScale_texture_output KinFuSnapshots/merged_mesh.ply &lt;br /&gt;
&lt;br /&gt;
Les photos sont correctement placées sur le mesh grâce aux différents fichiers .txt qui possèdent les différentes positions&lt;br /&gt;
&lt;br /&gt;
Nous, nous utilisons l'application KinFu_App qui ne contient pas l'option d'intégration des couleurs au mesh. Par conséquent, nous l'avons modifié pour d'une certaine manière fusionner les options -r et -et de KinFu LargeScale avec l'application KinFu_App.&lt;br /&gt;
&lt;br /&gt;
Pour ce faire, nous avons tout d'abord ajouter la prise des photos à notre application. Nous nous sommes rendus compte qu'il existait dans KinFu_Large_Scale une classe &amp;quot;Screenshot_manager&amp;quot; qui permet de prendre et d'enregistrer les photos mais aussi d'enregistrer la position de la caméra. Par conséquent, nous avons ajouter cette classe à KinFu_App. &lt;br /&gt;
&lt;br /&gt;
Nous avons laissé le choix à l'utilisateur d'activer ou pas la prise de ces photos. Nous avons donc ajouté un checkbox au lancement de l'application permettant à l'utilisateur d'activer ou pas cette option. Voici à quoi notre nouvelle interface ressemble :&lt;br /&gt;
&lt;br /&gt;
[http://projets-ima.plil.net/mediawiki/index.php?title=Fichier:Texture.png Ajout de l'option texture]&lt;br /&gt;
&lt;br /&gt;
Grâce à cette option, nous appelons la classe &amp;quot;Screenshot_manager&amp;quot; que si elle a été sélectionnée.&lt;br /&gt;
&lt;br /&gt;
Nous nous également rendus compte que KinFu_App crée directement, à la fin du scan, un et un seul fichier .ply. Par conséquent les étapes nécessaires dans KinFu_LargeScale :&lt;br /&gt;
&lt;br /&gt;
 ./bin/pcl_kinfu_largeScale_mesh_output world.pcd  &lt;br /&gt;
 ./bin/pcl_kinfu_largeScale_texture_output KinFuSnapshots/merged_mesh.ply &lt;br /&gt;
&lt;br /&gt;
ne sont plus à réaliser dans notre situation. Par conséquent, l'utilisateur ne doit plus que réaliser la commande suivante (dans le dossier KinFuSnapshots/) : &lt;br /&gt;
 ../bin/pcl_kinfu_largeScale_texture_output mesh.ply &lt;br /&gt;
et son mesh possédera la couleur.&lt;br /&gt;
&lt;br /&gt;
=== Amélioration de la précision ===&lt;br /&gt;
&lt;br /&gt;
Suite à cela, nous nous sommes replongé dans le code pour essayer de trouver un moyen d'améliorer la précision du scan. En effet, nous nous étions rendus compte lors du &amp;quot;IT Day&amp;quot; que la précision était encore faible et que par exemple, les différents trous qu'il peut y avoir dans un casque n'était pas assez prononcés.&lt;br /&gt;
&lt;br /&gt;
Nous avons trouvé dans la classe kinfu_app.cpp de l'application le paramètre de la fonction setTsdfTruncDist(), qui nous permet en mètre de définir la distance de troncature à partir de laquelle la TSDF (outil qui permet d'assigner une valeur de profondeur à chaque pixel de la grille vue par la caméra, et la compare avec la grille de l’itération précédente) va corriger, approximer les erreurs de scan. Initialement, elle était à 30cm et c'est pour cette raison que la précision restait faible. Nous avons mis cette valeur à 3cm et voici ce que nous obtenons :&lt;br /&gt;
&lt;br /&gt;
[http://projets-ima.plil.net/mediawiki/index.php?title=Fichier:Casqueprecis.png Casque précis]&lt;br /&gt;
&lt;br /&gt;
On se rend bien compte que les trous du casque sont beaucoup plus prononcés et que la couleur a bien été ajoutée au mesh.&lt;br /&gt;
&lt;br /&gt;
=== Réunion du lundi 11 février avec Oxylane ===&lt;br /&gt;
&lt;br /&gt;
Suite à ces différentes avancées, nous avons décidé de fixer un rendez-vous avec Oxylane afin de leur montrer nos travaux. Cet entretien a eu lieu le lundi 11 février.&lt;br /&gt;
&lt;br /&gt;
Lors de ce dernier, Oxylane a pu constater avec joie que nous travaux avaient très bien avancés et ils semblaient de plus en plus satisfait par la qualité des différents scan que nous leur avons montrés. Lors de cette réunion, ils nous ont fournis un zoom Nyko et une Kinect For Windows afin que nous continuons d'essayer d'améliorer la précision.&lt;br /&gt;
&lt;br /&gt;
=== Test du zoom Nyko et de la Kinect For Windows ===&lt;br /&gt;
&lt;br /&gt;
Suite à la réunion avec Oxylane, nous avons tout d'abord essayé le zoom Nyko. L'installation fut facile et aucun paramètre dans l'application a dû être modifié. Cependant le résultat que nous obtenons n'a pas répondu à nos attentes. En effet, le zoom Nyko produit un effet de loupe, &amp;quot;d'oeil de poisson&amp;quot; sur la scène et donc la déforme. Voici une comparaison des images capturées par la Kinect sans et avec le zoom Nyko :&lt;br /&gt;
&lt;br /&gt;
[http://projets-ima.plil.net/mediawiki/index.php?title=Fichier:Capture_du_2013-02-13_14-25-36.png Capture sans le zoom Nyko]&lt;br /&gt;
&lt;br /&gt;
[http://projets-ima.plil.net/mediawiki/index.php?title=Fichier:Capture_du_2013-02-13_14-26-47.png Capture avec le zoom Nyko]&lt;br /&gt;
&lt;br /&gt;
En ce qui concerne la Kinect For Windows, nous n'avons aucune difficulté à l'utiliser sur Linux, les drivers de la Kinect pour Xbox 360 ont suffit. Cependant, nous n'avons pas vu de différences flagrantes entre les deux Kinect.&lt;br /&gt;
&lt;br /&gt;
=== Amélioration de notre interface graphique ===&lt;/div&gt;</summary>
		<author><name>Fsueur</name></author>	</entry>

	<entry>
		<id>https://projets-ima.plil.fr/mediawiki/index.php?title=Scan_3D&amp;diff=4027</id>
		<title>Scan 3D</title>
		<link rel="alternate" type="text/html" href="https://projets-ima.plil.fr/mediawiki/index.php?title=Scan_3D&amp;diff=4027"/>
				<updated>2013-02-13T13:32:16Z</updated>
		
		<summary type="html">&lt;p&gt;Fsueur : /* Compréhension du fonctionnement de cmake et de Qt dans KDevelop */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Introduction==&lt;br /&gt;
&lt;br /&gt;
Dans le cadre de la cinquième année nous avons pour consigne de réaliser un projet en rapport avec notre formation. Nous avons choisi de travailler sur le projet du Scan 3D car nous sommes tous les deux intéressé par l'utilisation des capacités de la Kinect.&lt;br /&gt;
&lt;br /&gt;
Ce projet est un projet industriel en lien avec la société Oxylane. Au sein de cette dernière, beaucoup de prototypes ont été réalisés sans passer préalablement par une phase de conception 3D. Ce sont des prototypes uniques, des objets difficilement duplicables. De plus en plus de concepteurs, de designers et de chercheurs aimeraient pouvoir continuer à travailler sur ces objets physiques dans le monde virtuel. Oxylane cherche donc un moyen de scanner ces objets sans passer par des équipements très coûteux.&lt;br /&gt;
&lt;br /&gt;
== Présentation du projet ==&lt;br /&gt;
&lt;br /&gt;
Ce projet consiste donc de réaliser un prototype de scanner 3D en utilisant la Kinect, permettant de transformer des objets réels en forme 3D. Les besoins les plus forts concernent actuellement les casques de vélo et les chaussures. &lt;br /&gt;
&lt;br /&gt;
Cependant avant de se lancer directement dans le scan 3D, nous devons tout d'abord étudier ce qu'il est possible de faire actuellement avec la Kinect. De nombreux documents sont là pour nous aider ainsi qu'une base de logiciel permettant le scan 3D : Kinect Fusion (KinFu).&lt;br /&gt;
&lt;br /&gt;
== Etat de l'art ==&lt;br /&gt;
&lt;br /&gt;
De nos jours, la volonté de reconstruire la géométrie à l'aide de capteurs actifs, de caméras passives ou d'images en ligne sont des points très étudiés dans la recherche en informatique graphique et vision. L'utilisation de caméra à infrarouges est très étendue et de nombreuses sociétés créent leur propre caméra utilisant cette technologie (Microsoft avec la Kinect, Asus avec son Asus Xtion, ou encore Leap de Leap Motion). &lt;br /&gt;
Alors que les caméras de profondeur ne sont pas totalement nouvelles, Kinect a fait de ces capteurs, des capteurs accessibles à tous. La qualité de la détection de profondeur, étant donné la nature à faible coût et en temps réel de l'appareil, est convaincante et en a fait un capteur populaire auprès des chercheurs et des amateurs. La Kinect de Microsoft est donc l'une des plus populaires et des plus abordables. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Microsoft a eu la volonté d'améliorer les compétences de sa Kinect et il s'est attardé sur la possibilité, avec KinectFusion, de créer rapidement et en temps réel une reconstruction 3D d'une scène d'intérieur. Pour ce faire, la caméra Kinect utilise une technique structurée de la lumière pour générer des cartes de profondeur en temps réel contenant des mesures de distances discrètes de la scène physique. Ces données peuvent être projetées comme un ensemble de points discrets 3D (ou nuage de points). Même si les données de profondeur Kinect sont convaincantes, en particulier par rapport aux autres appareils de profondeur disponibles dans le commerce, il existe toujours du bruit. Les mesures de profondeur fluctuent souvent et les cartes de profondeur contiennent de nombreux «trous» où la lecture n'a pas été obtenue.&lt;br /&gt;
&lt;br /&gt;
Pour des systèmes simples, comme les jeux vidéo, ce bruit, ces trous peuvent être éliminés en faisant la moyenne des points qui les entourent. Pour des objectifs plus complexes comme un modèle 3D, il est nécessaire de capturer plusieurs vues de la scène physique et de les fusionnées pour en faire une seule représentation. C'est pour ces travaux plus complexes que le programme Kinect Fusion a été inventé.&lt;br /&gt;
&lt;br /&gt;
== Installations, Découverte de Kinect Fusion ==&lt;br /&gt;
&lt;br /&gt;
Lors des 4 premières séances de projets que nous avons pu faire, nous nous sommes intéressé à l'installation et à l'utilisation des OpenSources de Kinect Fusion. Voici les différents outils que nous avons eu  besoin d'installer pour faire fonctionner la Kinect et l'Open Source sur un Linux.&lt;br /&gt;
&lt;br /&gt;
===Installation de OpenNi, Nite, SensorKinect===&lt;br /&gt;
&lt;br /&gt;
*Installer OpenNi Unstable&lt;br /&gt;
&lt;br /&gt;
**Pré-requis &lt;br /&gt;
&lt;br /&gt;
        Obligatoires :&lt;br /&gt;
                1) GCC 4.x&lt;br /&gt;
                  apt-get install g++&lt;br /&gt;
                2) Python 2.6+/3.x&lt;br /&gt;
                 apt-get install python&lt;br /&gt;
                3) LibUSB 1.0.x&lt;br /&gt;
                 apt-get install libusb-1.0-0-dev&lt;br /&gt;
                4) FreeGLUT3&lt;br /&gt;
                 apt-get install freeglut3-dev&lt;br /&gt;
                5) JDK 6.0&lt;br /&gt;
                 apt-get install openjdk-6-jdk&lt;br /&gt;
&lt;br /&gt;
        Optionel (Pour la documentation):&lt;br /&gt;
                1) Doxygen&lt;br /&gt;
                  apt-get install doxygen&lt;br /&gt;
                2) GraphViz&lt;br /&gt;
                   apt-get install graphviz&lt;br /&gt;
&lt;br /&gt;
**Installation&lt;br /&gt;
&lt;br /&gt;
        cd ~/OpenNi/Platform/Linux/CreateRedist&lt;br /&gt;
        chmod +x RedistMaker&lt;br /&gt;
        ./RedistMaker&lt;br /&gt;
        cd ~/OpenNi/Platform/Linux/Redist/OpenNI-Bin-Dev-Linux-x64-v1.5.4.0&lt;br /&gt;
        su&lt;br /&gt;
        ./install.sh&lt;br /&gt;
&lt;br /&gt;
*Installation de SensorKinect :&lt;br /&gt;
&lt;br /&gt;
        cd ~/SensorKinect/Platform/Linux/CreateRedist&lt;br /&gt;
        chmod +x RedistMaker&lt;br /&gt;
        ./RedistMaker&lt;br /&gt;
        cd ~/SensorKinect/Platform/Linux/Redist/Sensor-Bin-Linux-x64-v5.1.2.1&lt;br /&gt;
        ./install.sh&lt;br /&gt;
&lt;br /&gt;
===Installation de la PCL Expérimentale ===&lt;br /&gt;
&lt;br /&gt;
Obligatoire : &lt;br /&gt;
*cmake&lt;br /&gt;
 apt-get install cmake&lt;br /&gt;
&lt;br /&gt;
*Boost ≥ 1.46&lt;br /&gt;
 apt-get install libboost-all-dev&lt;br /&gt;
&lt;br /&gt;
*Eigen ≥ 3.0&lt;br /&gt;
 apt-get install libeigen3-dev&lt;br /&gt;
&lt;br /&gt;
*FLANN ≥ 1.7.1&lt;br /&gt;
 apt-get install libflann-dev&lt;br /&gt;
&lt;br /&gt;
*VTK ≥ 5.6&lt;br /&gt;
 apt-get install libvtk5-dev&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Installation&lt;br /&gt;
&lt;br /&gt;
 cd ~Pcl/trunk&lt;br /&gt;
 mkdir build &amp;amp;&amp;amp; cd build &amp;amp;&amp;amp; cmake ..&lt;br /&gt;
 make&lt;br /&gt;
 make install&lt;br /&gt;
&lt;br /&gt;
===Utilisation de KinFu LargeScale===&lt;br /&gt;
&lt;br /&gt;
*d'après le tutoriel :&lt;br /&gt;
http://pointclouds.org/documentation/tutorials/using_kinfu_large_scale.php&lt;br /&gt;
&lt;br /&gt;
*./bin/pcl_kinfu_largeScale -r -et&lt;br /&gt;
*./bin/pcl_kinfu_largeScale_mesh_output world.pcd &lt;br /&gt;
*Fusionner les mesh générés avec MeshLab et l'exporter dans KinFuSnapshots&lt;br /&gt;
*./bin/pcl_kinfu_largeScale_texture_output KinFuSnapshots/merged_mesh.ply&lt;br /&gt;
&lt;br /&gt;
===Utilisation de KinFu App===&lt;br /&gt;
&lt;br /&gt;
Nous nous sommes ensuite attardé sur cette partie de KinFu et nous nous sommes rendu-compte qu'elle permet de scanner un objet en 3 dimensions et d'en faire facilement le tour. Nous récupérons ensuite le scan dans un fichier .ply exploitable par le logiciel MeshLab. Voici les commandes que nous devons taper pour le faire fonctionner :&lt;br /&gt;
&lt;br /&gt;
* cd ~/trunk/build/bin&lt;br /&gt;
* ./kinfu_app&lt;br /&gt;
* Une fois le programme lancé, voici les trois fenêtres qui s'ouvrent :&lt;br /&gt;
&lt;br /&gt;
[http://projets-ima.plil.net/mediawiki/index.php?title=Fichier:Application_de_base.png Application KinFu]&lt;br /&gt;
&lt;br /&gt;
* On peut observer dans la fenêtre View3D from ray tracing le mesh 3D en cours de la Kinect&lt;br /&gt;
* Appuyer succéssivement sur A dans la fenêtre Scene Cloud Viewer pour ajouter le mesh en cours au mesh que l'on souhaite exporter.&lt;br /&gt;
* Appuyer sur 7 pour exporter le mesh de la fenêtre Scene Cloud Viewer dans un fichier PLY&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Plusieurs options sont disponibles dans kinfu_app, notamment l'option -volume_size &amp;lt;size_in_meters&amp;gt; qui permet de réduire le champ de vision de la kinect en profondeur&lt;br /&gt;
&lt;br /&gt;
=== Réunion du 12 novembre avec Oxylane ===&lt;br /&gt;
&lt;br /&gt;
Nous avons rencontré lors de cette réunion le responsable du service innovation de Oxylane. Nous lui avons montré nos avancements dans les tests de Kinect Fusion et nous nous sommes mis d'accord sur les trois points d'études suivants :&lt;br /&gt;
&lt;br /&gt;
*'''''Etude des limites du programme Kinect Fusion (avantages, inconvénients, ajouts de fonctionnalités possibles).'''''&lt;br /&gt;
Etudier le principe de fonctionnement de l'Open Source KinFu de Kinect Fusion et se rendre compte de ce qu'il est possible de faire ou de ne pas faire avec le programme (textures, couleurs ...)&lt;br /&gt;
   &lt;br /&gt;
*'''''Tests avec la Kinect de bureau pour améliorer la précision.'''''&lt;br /&gt;
Pouvoir donner une idée de que l'on peut faire et ce que l'on peut améliorer avec une Kinect de bureau plutôt que la Kinect Xbox.&lt;br /&gt;
&lt;br /&gt;
*'''''Tests pour la création d'un scénario complet de scan d'un casque de vélo.'''''&lt;br /&gt;
Ce test permettrait de mettre l'accent sur les points bloquants lors d'un scan d'un objet quelconque (éventualité d'isoler l'objet de son environnement par exemple). Ce test nous permettra aussi de prendre du recul sur les outils disponibles et sur la réalité des compétences qu'ont besoin d'avoir ceux qui voudraient utiliser une kinect pour faire du scan 3D.&lt;br /&gt;
&lt;br /&gt;
== Réalisations ==&lt;br /&gt;
&lt;br /&gt;
=== Etude appronfondie du fonctionnment de Kinect Fusion ===&lt;br /&gt;
Une fois les différents premiers tests effectués, nous avons voulu savoir comment fonctionner KinFu. Pour cela, nous avons tout d'abord cherché sur Internet quelques recherches et nous sommes tombés sur ce site expliquant de manière globale le fonctionnement de Kinect Fusion : [http://www.tumblr.com/tagged/kinect+fusion&lt;br /&gt;
]&lt;br /&gt;
&lt;br /&gt;
Afin de détecter la profondeur des objets présents dans la scène, Kinect Fusion utilise la caméra infra-rouge de la kinect. Un projecteur infrarouge projette une lumière invisible sur la scène. Il a été spécialement conçu pour projeter les points à la manière d'un laser de telle sorte que les points ne se dilatent pas avec la distance. Cette lumière est lu par la caméra infrarouge. Une fois que ce schéma est lu par la caméra infrarouge, le programme Kinect Fusion recherche des corrélations. Si il en trouve,le processeur dans le kinect est alors en mesure d'utiliser cette information pour trianguler la position 3D des points.&lt;br /&gt;
&lt;br /&gt;
=== Réunion du Mercredi 5 décembre avec Oxylane===&lt;br /&gt;
&lt;br /&gt;
Oxylane et son pôle Innovation (IT Pole &amp;quot;Oxylane brands&amp;quot;) organise chaque année, les &amp;quot;IT Days Oxylane&amp;quot;. Il s'agit d'un salon où chaque pôle de recherche présente ses différents projets en cours. Il se déroulera le Mercredi 12 décembre à Décathlon Campus.&lt;br /&gt;
&lt;br /&gt;
Notre tuteur entreprise M. Jean VANBERSELAERT, nous a proposé d'y participer pour présenter nos travaux. Nous nous sommes donc vus en réunion pour discuter de ce que nous allons présenter lors de ce salon. Comme nous ne sommes disponibles que le mercredi après-midi, nous allons nous y rendre la veille pour préparer notre stand et installer sur une de leur machine les différents éléments nécessaires pour pouvoir utiliser la Kinect et le programme Kinect Fusion. M. VANBERSELAERT a également pensé de nous filmer pour avoir une explication de notre projet à présenter le matin du salon.&lt;br /&gt;
&lt;br /&gt;
Lors de cette réunion, on nous a fourni un rouleau de papier fluorescent ainsi qu'un casque de vélo pour faire des tests avec la Kinect. En effet, nous pensions que ce type de couleur absorerait les rayons infra-rouges et nous permettrait d'isoler un élément à scanner de son environnement. Nous avons fait quelques tests après la réunion et nous nous sommes rendu compte que cela ne fonctionnait pas. Nous avons alors essayer de poser le casque sur une boite en plastique transparent et nous obtenons le résultat suivant :&lt;br /&gt;
&lt;br /&gt;
[http://projets-ima.plil.net/mediawiki/index.php?title=Fichier:Casque_sur_plastique.png#filelinks Image du scan d'un casque de vélo]&lt;br /&gt;
&lt;br /&gt;
=== Le &amp;quot;IT Day Oxylane&amp;quot; ===&lt;br /&gt;
&lt;br /&gt;
Oxylane et son pôle Innovation (IT Pole &amp;quot;Oxylane brands&amp;quot;) organise chaque année, le &amp;quot;IT Day Oxylane&amp;quot;. Il s'agit d'un salon où chaque pôle de recherche présente ses différents projets en cours. Il s’est déroulé le Mercredi 12 décembre à Décathlon Campus.&lt;br /&gt;
Notre tuteur entreprise M. Jean VANBERSELAERT, nous a proposé d'y participer pour présenter nos travaux. Nous nous sommes donc vus en réunion pour discuter de ce que nous allions présenter lors de ce salon. Comme nous n’étions disponibles que le mercredi après-midi, nous nous y sommes rendu la veille pour préparer notre stand et installer sur une de leur machine les différents éléments nécessaires pour pouvoir utiliser la Kinect et le programme&lt;br /&gt;
Kinect Fusion.&lt;br /&gt;
Cependant l’installation de KinFu sur leur machine fut plus difficile que prévu. En effet, la carte graphique de la machine ne correspondait pas aux besoins que demande Kinect Fusion, par conséquent l’installation faisait une erreur au bout de 35%. Afin d’avoir tout de même quelque chose à présenter lors du salon, nous avons installé sur une machine Windows le logiciel ReconstructMe. Sur la machine Linux, nous avons tenté de mettre à jour les différents drivers de la carte graphique et nous avons recommencé l’installation de KinFu le mercredi après-midi. Cette fois ci l’installation s’est arrêtée à 75%. Nous avons lors du make de l’installation l’option « –i » qui ignore les erreurs et cela à fonctionner. Nous avons pu montrons alors notre réel travail.&lt;br /&gt;
&lt;br /&gt;
Voici quelques photos de notre stand :&lt;br /&gt;
&lt;br /&gt;
[http://projets-ima.plil.net/mediawiki/index.php?title=Fichier:Image_1.jpeg Image 1 de notre stand]&lt;br /&gt;
&lt;br /&gt;
[http://projets-ima.plil.net/mediawiki/index.php?title=Fichier:Image%282%29.jpeg Image 2 de notre stand]&lt;br /&gt;
&lt;br /&gt;
[http://projets-ima.plil.net/mediawiki/index.php?title=Fichier:Image.jpeg Image 3 de notre stand]&lt;br /&gt;
&lt;br /&gt;
Vous pouvez voir sur la machine de gauche le logiciel ReconstructMe et sur celle de gauche Kinfu. Cet évènement, nous aura permis de nous rendre compte que l’installation de KinFu dépend également de la machine de travail. En effet, à Polytech’Lille nous avons des machines puissantes et mises à jour et ce n’est pas forcément le cas chez les industriels.&lt;br /&gt;
&lt;br /&gt;
=== Planning pour les mois de Janvier et de Février ===&lt;br /&gt;
&lt;br /&gt;
Afin de gérer au mieux les deux derniers mois de projet, nous avons choisi de faire un planning. En effet, il nous reste 5 tâches à effectuer :&lt;br /&gt;
&lt;br /&gt;
* Test avec la Kinect de bureau ou le zoom Nyko&lt;br /&gt;
* Isolation de l'objet par rapport à son environnement&lt;br /&gt;
* Comprendre le fonctionnement de cmake =&amp;gt; build d’un projet PCL + Qt dans KDevelop4&lt;br /&gt;
* Créer une interface graphique permettant à l'utilisateur d'utiliser facilement KinFu&lt;br /&gt;
* Ajouter la texture et les couleurs au Mesh&lt;br /&gt;
&lt;br /&gt;
Voici donc le planning que nous avons élaboré :&lt;br /&gt;
&lt;br /&gt;
[http://projets-ima.plil.net/mediawiki/images/b/be/Planning.png Planning]&lt;br /&gt;
&lt;br /&gt;
=== Compréhension du fonctionnement de cmake et de Qt dans KDevelop ===&lt;br /&gt;
&lt;br /&gt;
cmake est un générateur de Makefile. Son processus de génération est entièrement contrôlé par un fichier de configuration : CMakeLists.txt&lt;br /&gt;
La PCL utilise ce générateur de makefile. Voici les commandes que nous utilisons :&lt;br /&gt;
&lt;br /&gt;
 mkdir build &amp;amp;&amp;amp; cd build&lt;br /&gt;
 cmake ..&lt;br /&gt;
 make kinfu_app&lt;br /&gt;
&lt;br /&gt;
Nous ne cherchons ici qu'à compiler notre application : kinfu_app&lt;br /&gt;
&lt;br /&gt;
=== Création de l'interface graphique ===&lt;br /&gt;
&lt;br /&gt;
Comme vu au paragraphe précédent, nous savons maintenant modifier le programme KinFu et nous savons également développer en Qt. Grâce à cela, nous avons pu créer une interface graphique afin qu'un utilisateur &amp;quot;lambda&amp;quot; puisse utiliser facilement le programme KinFu sans devoir taper sur des touches (A pour scanner et 7 pour sauvegarder). &lt;br /&gt;
&lt;br /&gt;
Nous avions tout d'abord essayer de rajouter notre interface dans l'application KinFu_app mais nous nous sommes rendu compte que le programme affichait d'abord notre interface puis nous devions la fermer pour avoir les trois fenêtres de l'application. Par conséquent, nous avons choisi de faire tourner les deux interfaces en parallèle grâce au threads.&lt;br /&gt;
&lt;br /&gt;
Nous avons donc créer l'interface graphique dans une classe qui lui est propre et nous appelons cette classe dans le &amp;quot;main&amp;quot; de l'application KinFu de la manière suivante :&lt;br /&gt;
&lt;br /&gt;
 QApplication qtApp(argc, argv);&lt;br /&gt;
 KinectInterface kinectInterface;//= new KinectInterface;&lt;br /&gt;
 AppThreadKinect thread(&amp;amp;kinectInterface);&lt;br /&gt;
 thread.setArgc(argc);&lt;br /&gt;
 thread.setArgv(argv);&lt;br /&gt;
&lt;br /&gt;
La classe &amp;quot;KinectInterface&amp;quot; utilise la bibliothèque graphique Qt et fait appel aux différentes fonctions de sauvegarde ou de scan du programme KinFu. &lt;br /&gt;
&lt;br /&gt;
Voici à quoi ressemble notre interface :&lt;br /&gt;
&lt;br /&gt;
* L'utilisateur doit tout d'abord saisir la distance maximale en mètre qu'il veut scanner &lt;br /&gt;
&lt;br /&gt;
[http://projets-ima.plil.net/mediawiki/index.php?title=Fichier:Lancement.png Démarrage de l'application]&lt;br /&gt;
&lt;br /&gt;
* Ensuite ces différentes fenêtres apparaissent :&lt;br /&gt;
&lt;br /&gt;
[http://projets-ima.plil.net/mediawiki/index.php?title=Fichier:Application.png Application avec interface]&lt;br /&gt;
&lt;br /&gt;
On se rend compte que nous deux applications tournent en parallèle. Il suffit maintenant à l'utilisateur de choisir l'intervalle en secondes entre deux ajouts, de ce que la caméra scanne, au mesh. Puis il appuie sur &amp;quot;scanner&amp;quot; et lorsque son scan est terminé il clique sur le bouton &amp;quot;Sauver au format ply&amp;quot;, &lt;br /&gt;
son travail est alors enregistré et l'application se ferme.&lt;br /&gt;
&lt;br /&gt;
=== Intégration des couleurs au mesh ===&lt;br /&gt;
&lt;br /&gt;
Une fois que nous avons réalisé une base d'interface graphique, nous avons voulu ajouter la texture (la couleur) à nos scan. Pour cela nous nous sommes basés sur le fonctionnement de l'application KinFu LargeScale qui possédait déjà l'intégration des couleurs dans ses options grace à l'option -et (enable_texture) -r (registration) dans sa commande :&lt;br /&gt;
 ./bin/pcl_kinfu_largeScale -r -et &lt;br /&gt;
&lt;br /&gt;
KinFu_Large_Scale fonctionne de la manière suivante :&lt;br /&gt;
&lt;br /&gt;
* Au cours du scan, l'application prend différentes photos sous le format n°.png, les enregistre dans le dossier KinFuSnapshots/ et ajoute un n°.txt contenant la position de la caméra lors de la prise de la photo. L'application crée à la fin du scan un fichier world.pcd qui est dans cet état inutilisable.&lt;br /&gt;
&lt;br /&gt;
* Une fois le scan terminé, l'utilisateur doit transformer le .pcd en .ply grâce à la commmande :&lt;br /&gt;
 ./bin/pcl_kinfu_largeScale_mesh_output world.pcd &lt;br /&gt;
&lt;br /&gt;
Cette commande crée alors plusieurs fichiers .ply en fonction de la durée du scan. Il faut que l'utilisateur fusionne les différents fichiers .ply et enregistre cette fusion dans le dossier KinFuSnapshots/ contenant déjà les différentes photos.&lt;br /&gt;
&lt;br /&gt;
* Enfin, il doit lancer sur son terminal la commande suivante qui associe les différentes photos au mesh fusionné :&lt;br /&gt;
 ./bin/pcl_kinfu_largeScale_texture_output KinFuSnapshots/merged_mesh.ply &lt;br /&gt;
&lt;br /&gt;
Les photos sont correctement placées sur le mesh grâce aux différents fichiers .txt qui possèdent les différentes positions&lt;br /&gt;
&lt;br /&gt;
Nous, nous utilisons l'application KinFu_App qui ne contient pas l'option d'intégration des couleurs au mesh. Par conséquent, nous l'avons modifié pour d'une certaine manière fusionner les options -r et -et de KinFu LargeScale avec l'application KinFu_App.&lt;br /&gt;
&lt;br /&gt;
Pour ce faire, nous avons tout d'abord ajouter la prise des photos à notre application. Nous nous sommes rendus compte qu'il existait dans KinFu_Large_Scale une classe &amp;quot;Screenshot_manager&amp;quot; qui permet de prendre et d'enregistrer les photos mais aussi d'enregistrer la position de la caméra. Par conséquent, nous avons ajouter cette classe à KinFu_App. &lt;br /&gt;
&lt;br /&gt;
Nous avons laissé le choix à l'utilisateur d'activer ou pas la prise de ces photos. Nous avons donc ajouté un checkbox au lancement de l'application permettant à l'utilisateur d'activer ou pas cette option. Voici à quoi notre nouvelle interface ressemble :&lt;br /&gt;
&lt;br /&gt;
[http://projets-ima.plil.net/mediawiki/index.php?title=Fichier:Texture.png Ajout de l'option texture]&lt;br /&gt;
&lt;br /&gt;
Grâce à cette option, nous appelons la classe &amp;quot;Screenshot_manager&amp;quot; que si elle a été sélectionnée.&lt;br /&gt;
&lt;br /&gt;
Nous nous également rendus compte que KinFu_App crée directement, à la fin du scan, un et un seul fichier .ply. Par conséquent les étapes nécessaires dans KinFu_LargeScale :&lt;br /&gt;
&lt;br /&gt;
 ./bin/pcl_kinfu_largeScale_mesh_output world.pcd  &lt;br /&gt;
 ./bin/pcl_kinfu_largeScale_texture_output KinFuSnapshots/merged_mesh.ply &lt;br /&gt;
&lt;br /&gt;
ne sont plus à réaliser dans notre situation. Par conséquent, l'utilisateur ne doit plus que réaliser la commande suivante (dans le dossier KinFuSnapshots/) : &lt;br /&gt;
 ../bin/pcl_kinfu_largeScale_texture_output mesh.ply &lt;br /&gt;
et son mesh possédera la couleur.&lt;br /&gt;
&lt;br /&gt;
=== Amélioration de la précision ===&lt;br /&gt;
&lt;br /&gt;
Suite à cela, nous nous sommes replongé dans le code pour essayer de trouver un moyen d'améliorer la précision du scan. En effet, nous nous étions rendus compte lors du &amp;quot;IT Day&amp;quot; que la précision était encore faible et que par exemple, les différents trous qu'il peut y avoir dans un casque n'était pas assez prononcés.&lt;br /&gt;
&lt;br /&gt;
Nous avons trouvé dans la classe kinfu_app.cpp de l'application le paramètre de la fonction setTsdfTruncDist(), qui nous permet en mètre de définir la distance de troncature à partir de laquelle la TSDF (outil qui permet d'assigner une valeur de profondeur à chaque pixel de la grille vue par la caméra, et la compare avec la grille de l’itération précédente) va corriger, approximer les erreurs de scan. Initialement, elle était à 30cm et c'est pour cette raison que la précision restait faible. Nous avons mis cette valeur à 3cm et voici ce que nous obtenons :&lt;br /&gt;
&lt;br /&gt;
[http://projets-ima.plil.net/mediawiki/index.php?title=Fichier:Casqueprecis.png Casque précis]&lt;br /&gt;
&lt;br /&gt;
On se rend bien compte que les trous du casque sont beaucoup plus prononcés et que la couleur a bien été ajoutée au mesh.&lt;br /&gt;
&lt;br /&gt;
=== Réunion du lundi 11 février avec Oxylane ===&lt;br /&gt;
&lt;br /&gt;
Suite à ces différentes avancées, nous avons décidé de fixer un rendez-vous avec Oxylane afin de leur montrer nos travaux. Cet entretien a eu lieu le lundi 11 février.&lt;br /&gt;
&lt;br /&gt;
Lors de ce dernier, Oxylane a pu constater avec joie que nous travaux avaient très bien avancés et ils semblaient de plus en plus satisfait par la qualité des différents scan que nous leur avons montrés. Lors de cette réunion, ils nous ont fournis un zoom Nyko et une Kinect For Windows afin que nous continuons d'essayer d'améliorer la précision.&lt;br /&gt;
&lt;br /&gt;
=== Test du zoom Nyko et de la Kinect For Windows ===&lt;br /&gt;
&lt;br /&gt;
=== Amélioration de notre interface graphique ===&lt;/div&gt;</summary>
		<author><name>Fsueur</name></author>	</entry>

	<entry>
		<id>https://projets-ima.plil.fr/mediawiki/index.php?title=Scan_3D&amp;diff=3740</id>
		<title>Scan 3D</title>
		<link rel="alternate" type="text/html" href="https://projets-ima.plil.fr/mediawiki/index.php?title=Scan_3D&amp;diff=3740"/>
				<updated>2012-11-28T11:03:38Z</updated>
		
		<summary type="html">&lt;p&gt;Fsueur : /* Utilisation de KinFu App */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Introduction==&lt;br /&gt;
&lt;br /&gt;
Dans le cadre de la cinquième année nous avons pour consigne de réaliser un projet en rapport avec notre formation. Nous avons choisi de travailler sur le projet du Scan 3D car nous sommes tous les deux intéressé par l'utilisation des capacités de la Kinect.&lt;br /&gt;
&lt;br /&gt;
Ce projet est un projet industriel en lien avec la société Oxylane. Au sein de cette dernière, beaucoup de prototypes ont été réalisés sans passer préalablement par une phase de conception 3D. Ce sont des prototypes uniques, des objets difficilement duplicables. De plus en plus de concepteurs, de designers et de chercheurs aimeraient pouvoir continuer à travailler sur ces objets physiques dans le monde virtuel. Oxylane cherche donc un moyen de scanner ces objets sans passer par des équipements très coûteux.&lt;br /&gt;
&lt;br /&gt;
== Présentation du projet ==&lt;br /&gt;
&lt;br /&gt;
Ce projet consiste donc de réaliser un prototype de scanner 3D en utilisant la Kinect, permettant de transformer des objets réels en forme 3D. Les besoins les plus forts concernent actuellement les casques de vélo et les chaussures. &lt;br /&gt;
&lt;br /&gt;
Cependant avant de se lancer directement dans le scan 3D, nous devons tout d'abord étudier ce qu'il est possible de faire actuellement avec la Kinect. De nombreux documents sont là pour nous aider ainsi qu'une base de logiciel permettant le scan 3D : Kinect Fusion (KinFu).&lt;br /&gt;
&lt;br /&gt;
== Etat de l'art ==&lt;br /&gt;
&lt;br /&gt;
De nos jours, la volonté de reconstruire la géométrie à l'aide de capteurs actifs, de caméras passives ou d'images en ligne sont des points très étudiés dans la recherche en informatique graphique et vision. L'utilisation de caméra à infrarouges est très étendue et de nombreuses sociétés créent leur propre caméra utilisant cette technologie (Microsoft avec la Kinect, Asus avec son Asus Xtion, ou encore Leap de Leap Motion). La Kinect de Microsoft fait donc partie de ce type de caméras et est l'une des plus populaires et des plus abordables. La Kinect et son programme KinectFusion se place dans ce contexte bien particulier. En effet, de nos jours de nombreuses personnes et/ou sociétés souhaitent utiliser les perfomances de scan en 3 dimensions qu'offre la Kinect grâce à sa capacité de fournir une carte de profondeur.&lt;br /&gt;
&lt;br /&gt;
Microsoft a eu la volonté d'améliorer les compétences de sa Kinect et il s'est attardé sur la possibilité, avec KinectFusion, de créer rapidement et en temps réel une reconstruction 3D d'une scène d'intérieur.&lt;br /&gt;
&lt;br /&gt;
== Installations, Découverte de Kinect Fusion ==&lt;br /&gt;
&lt;br /&gt;
Lors des 4 premières séances de projets que nous avons pu faire, nous nous sommes intéressé à l'installation et à l'utilisation des OpenSources de Kinect Fusion. Voici les différents outils que nous avons eu  besoin d'installer pour faire fonctionner la Kinect et l'Open Source sur un Linux.&lt;br /&gt;
&lt;br /&gt;
===Installation de OpenNi, Nite, SensorKinect===&lt;br /&gt;
&lt;br /&gt;
*Installer OpenNi Unstable&lt;br /&gt;
&lt;br /&gt;
**Pré-requis &lt;br /&gt;
&lt;br /&gt;
        Obligatoires :&lt;br /&gt;
                1) GCC 4.x&lt;br /&gt;
                  apt-get install g++&lt;br /&gt;
                2) Python 2.6+/3.x&lt;br /&gt;
                 apt-get install python&lt;br /&gt;
                3) LibUSB 1.0.x&lt;br /&gt;
                 apt-get install libusb-1.0-0-dev&lt;br /&gt;
                4) FreeGLUT3&lt;br /&gt;
                 apt-get install freeglut3-dev&lt;br /&gt;
                5) JDK 6.0&lt;br /&gt;
                 apt-get install openjdk-6-jdk&lt;br /&gt;
&lt;br /&gt;
        Optionel (Pour la documentation):&lt;br /&gt;
                1) Doxygen&lt;br /&gt;
                  apt-get install doxygen&lt;br /&gt;
                2) GraphViz&lt;br /&gt;
                   apt-get install graphviz&lt;br /&gt;
&lt;br /&gt;
**Installation&lt;br /&gt;
&lt;br /&gt;
        cd ~/OpenNi/Platform/Linux/CreateRedist&lt;br /&gt;
        chmod +x RedistMaker&lt;br /&gt;
        ./RedistMaker&lt;br /&gt;
        cd ~/OpenNi/Platform/Linux/Redist/OpenNI-Bin-Dev-Linux-x64-v1.5.4.0&lt;br /&gt;
        su&lt;br /&gt;
        ./install.sh&lt;br /&gt;
&lt;br /&gt;
*Installation de SensorKinect :&lt;br /&gt;
&lt;br /&gt;
        cd ~/SensorKinect/Platform/Linux/CreateRedist&lt;br /&gt;
        chmod +x RedistMaker&lt;br /&gt;
        ./RedistMaker&lt;br /&gt;
        cd ~/SensorKinect/Platform/Linux/Redist/Sensor-Bin-Linux-x64-v5.1.2.1&lt;br /&gt;
        ./install.sh&lt;br /&gt;
&lt;br /&gt;
===Installation de la PCL Expérimentale ===&lt;br /&gt;
&lt;br /&gt;
Obligatoire : &lt;br /&gt;
*cmake&lt;br /&gt;
 apt-get install cmake&lt;br /&gt;
&lt;br /&gt;
*Boost ≥ 1.46&lt;br /&gt;
 apt-get install libboost-all-dev&lt;br /&gt;
&lt;br /&gt;
*Eigen ≥ 3.0&lt;br /&gt;
 apt-get install libeigen3-dev&lt;br /&gt;
&lt;br /&gt;
*FLANN ≥ 1.7.1&lt;br /&gt;
 apt-get install libflann-dev&lt;br /&gt;
&lt;br /&gt;
*VTK ≥ 5.6&lt;br /&gt;
 apt-get install libvtk5-dev&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Installation&lt;br /&gt;
&lt;br /&gt;
 cd ~Pcl/trunk&lt;br /&gt;
 mkdir build &amp;amp;&amp;amp; cd build &amp;amp;&amp;amp; cmake ..&lt;br /&gt;
 make&lt;br /&gt;
 make install&lt;br /&gt;
&lt;br /&gt;
===Utilisation de KinFu LargeScale===&lt;br /&gt;
&lt;br /&gt;
*d'après le tutoriel :&lt;br /&gt;
http://pointclouds.org/documentation/tutorials/using_kinfu_large_scale.php&lt;br /&gt;
&lt;br /&gt;
*./bin/pcl_kinfu_largeScale -r -et&lt;br /&gt;
*./bin/pcl_kinfu_largeScale_mesh_output world.pcd &lt;br /&gt;
*Fusionner les mesh générés avec MeshLab et l'exporter dans KinFuSnapshots&lt;br /&gt;
*./bin/pcl_kinfu_largeScale_texture_output KinFuSnapshots/merged_mesh.ply&lt;br /&gt;
&lt;br /&gt;
===Utilisation de KinFu App===&lt;br /&gt;
&lt;br /&gt;
Nous nous sommes ensuite attardé sur cette partie de KinFu et nous nous sommes rendu-compte qu'elle permet de scanner un objet en 3 dimensions et d'en faire facilement le tour. Nous récupérons ensuite le scan dans un fichier .ply exploitable par le logiciel MeshLab. Voici les commandes que nous devons taper pour le faire fonctionner :&lt;br /&gt;
&lt;br /&gt;
* cd ~/trunk/build/bin&lt;br /&gt;
* ./kinfu_app&lt;br /&gt;
* Une fois le programme lancé, on peut observer dans la fenêtre View3D from ray tracing le mesh 3D en cours de la Kinect&lt;br /&gt;
* Appuyer succéssivement sur A dans la fenêtre Scene Cloud Viewer pour ajouter le mesh en cours au mesh que l'on souhaite exporter.&lt;br /&gt;
* Appuyer sur 7 pour exporter le mesh de la fenêtre Scene Cloud Viewer dans un fichier PLY&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Plusieurs options sont disponibles dans kinfu_app, notamment l'option -volume_size &amp;lt;size_in_meters&amp;gt; qui permet de réduire le champ de vision de la kinect en profondeur&lt;br /&gt;
&lt;br /&gt;
=== Réunion du 12 novembre avec Oxylane ===&lt;br /&gt;
&lt;br /&gt;
Nous avons rencontré lors de cette réunion le responsable du service innovation de Oxylane. Nous lui avons montré nos avancements dans les tests de Kinect Fusion et nous nous sommes mis d'accord sur les trois points d'études suivants :&lt;br /&gt;
&lt;br /&gt;
*'''''Etude des limites du programme Kinect Fusion (avantages, inconvénients, ajouts de fonctionnalités possibles).'''''&lt;br /&gt;
Etudier le principe de fonctionnement de l'Open Source KinFu de Kinect Fusion et se rendre compte de ce qu'il est possible de faire ou de ne pas faire avec le programme (textures, couleurs ...)&lt;br /&gt;
   &lt;br /&gt;
*'''''Tests avec la Kinect de bureau pour améliorer la précision.'''''&lt;br /&gt;
Pouvoir donner une idée de que l'on peut faire et ce que l'on peut améliorer avec une Kinect de bureau plutôt que la Kinect Xbox.&lt;br /&gt;
&lt;br /&gt;
*'''''Tests pour la création d'un scénario complet de scan d'un casque de vélo.'''''&lt;br /&gt;
Ce test permettrait de mettre l'accent sur les points bloquants lors d'un scan d'un objet quelconque (éventualité d'isoler l'objet de son environnement par exemple). Ce test nous permettra aussi de prendre du recul sur les outils disponibles et sur la réalité des compétences qu'ont besoin d'avoir ceux qui voudraient utiliser une kinect pour faire du scan 3D.&lt;br /&gt;
&lt;br /&gt;
== Réalisations ==&lt;br /&gt;
&lt;br /&gt;
=== Etude appronfondie du fonctionnment de Kinect Fusion ===&lt;br /&gt;
Une fois les différents premiers tests effectués, nous avons voulu savoir comment fonctionner KinFu. Pour cela, nous avons tout d'abord cherché sur Internet quelques recherches et nous sommes tombés sur ce site expliquant de manière globale le fonctionnement de Kinect Fusion : [http://www.tumblr.com/tagged/kinfu&lt;br /&gt;
]&lt;br /&gt;
&lt;br /&gt;
Afin de détecter la profondeur des objets présents dans la scène, Kinect Fusion utilise la caméra infra-rouge de la kinect. Un projecteur infrarouge projette une lumière invisible sur la scène. Il a été spécialement conçu pour projeter les points à la manière d'un laser de telle sorte que les points ne se dilatent pas avec la distance. Cette lumière est lu par la caméra infrarouge. Une fois que ce schéma est lu par la caméra infrarouge, le programme Kinect Fusion recherche des corrélations. Si il en trouve,le processeur dans le kinect est alors en mesure d'utiliser cette information pour trianguler la position 3D des points.&lt;/div&gt;</summary>
		<author><name>Fsueur</name></author>	</entry>

	<entry>
		<id>https://projets-ima.plil.fr/mediawiki/index.php?title=Scan_3D&amp;diff=3739</id>
		<title>Scan 3D</title>
		<link rel="alternate" type="text/html" href="https://projets-ima.plil.fr/mediawiki/index.php?title=Scan_3D&amp;diff=3739"/>
				<updated>2012-11-28T11:01:19Z</updated>
		
		<summary type="html">&lt;p&gt;Fsueur : /* Utilisation de KinFu App */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Introduction==&lt;br /&gt;
&lt;br /&gt;
Dans le cadre de la cinquième année nous avons pour consigne de réaliser un projet en rapport avec notre formation. Nous avons choisi de travailler sur le projet du Scan 3D car nous sommes tous les deux intéressé par l'utilisation des capacités de la Kinect.&lt;br /&gt;
&lt;br /&gt;
Ce projet est un projet industriel en lien avec la société Oxylane. Au sein de cette dernière, beaucoup de prototypes ont été réalisés sans passer préalablement par une phase de conception 3D. Ce sont des prototypes uniques, des objets difficilement duplicables. De plus en plus de concepteurs, de designers et de chercheurs aimeraient pouvoir continuer à travailler sur ces objets physiques dans le monde virtuel. Oxylane cherche donc un moyen de scanner ces objets sans passer par des équipements très coûteux.&lt;br /&gt;
&lt;br /&gt;
== Présentation du projet ==&lt;br /&gt;
&lt;br /&gt;
Ce projet consiste donc de réaliser un prototype de scanner 3D en utilisant la Kinect, permettant de transformer des objets réels en forme 3D. Les besoins les plus forts concernent actuellement les casques de vélo et les chaussures. &lt;br /&gt;
&lt;br /&gt;
Cependant avant de se lancer directement dans le scan 3D, nous devons tout d'abord étudier ce qu'il est possible de faire actuellement avec la Kinect. De nombreux documents sont là pour nous aider ainsi qu'une base de logiciel permettant le scan 3D : Kinect Fusion (KinFu).&lt;br /&gt;
&lt;br /&gt;
== Etat de l'art ==&lt;br /&gt;
&lt;br /&gt;
De nos jours, la volonté de reconstruire la géométrie à l'aide de capteurs actifs, de caméras passives ou d'images en ligne sont des points très étudiés dans la recherche en informatique graphique et vision. L'utilisation de caméra à infrarouges est très étendue et de nombreuses sociétés créent leur propre caméra utilisant cette technologie (Microsoft avec la Kinect, Asus avec son Asus Xtion, ou encore Leap de Leap Motion). La Kinect de Microsoft fait donc partie de ce type de caméras et est l'une des plus populaires et des plus abordables. La Kinect et son programme KinectFusion se place dans ce contexte bien particulier. En effet, de nos jours de nombreuses personnes et/ou sociétés souhaitent utiliser les perfomances de scan en 3 dimensions qu'offre la Kinect grâce à sa capacité de fournir une carte de profondeur.&lt;br /&gt;
&lt;br /&gt;
Microsoft a eu la volonté d'améliorer les compétences de sa Kinect et il s'est attardé sur la possibilité, avec KinectFusion, de créer rapidement et en temps réel une reconstruction 3D d'une scène d'intérieur.&lt;br /&gt;
&lt;br /&gt;
== Installations, Découverte de Kinect Fusion ==&lt;br /&gt;
&lt;br /&gt;
Lors des 4 premières séances de projets que nous avons pu faire, nous nous sommes intéressé à l'installation et à l'utilisation des OpenSources de Kinect Fusion. Voici les différents outils que nous avons eu  besoin d'installer pour faire fonctionner la Kinect et l'Open Source sur un Linux.&lt;br /&gt;
&lt;br /&gt;
===Installation de OpenNi, Nite, SensorKinect===&lt;br /&gt;
&lt;br /&gt;
*Installer OpenNi Unstable&lt;br /&gt;
&lt;br /&gt;
**Pré-requis &lt;br /&gt;
&lt;br /&gt;
        Obligatoires :&lt;br /&gt;
                1) GCC 4.x&lt;br /&gt;
                  apt-get install g++&lt;br /&gt;
                2) Python 2.6+/3.x&lt;br /&gt;
                 apt-get install python&lt;br /&gt;
                3) LibUSB 1.0.x&lt;br /&gt;
                 apt-get install libusb-1.0-0-dev&lt;br /&gt;
                4) FreeGLUT3&lt;br /&gt;
                 apt-get install freeglut3-dev&lt;br /&gt;
                5) JDK 6.0&lt;br /&gt;
                 apt-get install openjdk-6-jdk&lt;br /&gt;
&lt;br /&gt;
        Optionel (Pour la documentation):&lt;br /&gt;
                1) Doxygen&lt;br /&gt;
                  apt-get install doxygen&lt;br /&gt;
                2) GraphViz&lt;br /&gt;
                   apt-get install graphviz&lt;br /&gt;
&lt;br /&gt;
**Installation&lt;br /&gt;
&lt;br /&gt;
        cd ~/OpenNi/Platform/Linux/CreateRedist&lt;br /&gt;
        chmod +x RedistMaker&lt;br /&gt;
        ./RedistMaker&lt;br /&gt;
        cd ~/OpenNi/Platform/Linux/Redist/OpenNI-Bin-Dev-Linux-x64-v1.5.4.0&lt;br /&gt;
        su&lt;br /&gt;
        ./install.sh&lt;br /&gt;
&lt;br /&gt;
*Installation de SensorKinect :&lt;br /&gt;
&lt;br /&gt;
        cd ~/SensorKinect/Platform/Linux/CreateRedist&lt;br /&gt;
        chmod +x RedistMaker&lt;br /&gt;
        ./RedistMaker&lt;br /&gt;
        cd ~/SensorKinect/Platform/Linux/Redist/Sensor-Bin-Linux-x64-v5.1.2.1&lt;br /&gt;
        ./install.sh&lt;br /&gt;
&lt;br /&gt;
===Installation de la PCL Expérimentale ===&lt;br /&gt;
&lt;br /&gt;
Obligatoire : &lt;br /&gt;
*cmake&lt;br /&gt;
 apt-get install cmake&lt;br /&gt;
&lt;br /&gt;
*Boost ≥ 1.46&lt;br /&gt;
 apt-get install libboost-all-dev&lt;br /&gt;
&lt;br /&gt;
*Eigen ≥ 3.0&lt;br /&gt;
 apt-get install libeigen3-dev&lt;br /&gt;
&lt;br /&gt;
*FLANN ≥ 1.7.1&lt;br /&gt;
 apt-get install libflann-dev&lt;br /&gt;
&lt;br /&gt;
*VTK ≥ 5.6&lt;br /&gt;
 apt-get install libvtk5-dev&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Installation&lt;br /&gt;
&lt;br /&gt;
 cd ~Pcl/trunk&lt;br /&gt;
 mkdir build &amp;amp;&amp;amp; cd build &amp;amp;&amp;amp; cmake ..&lt;br /&gt;
 make&lt;br /&gt;
 make install&lt;br /&gt;
&lt;br /&gt;
===Utilisation de KinFu LargeScale===&lt;br /&gt;
&lt;br /&gt;
*d'après le tutoriel :&lt;br /&gt;
http://pointclouds.org/documentation/tutorials/using_kinfu_large_scale.php&lt;br /&gt;
&lt;br /&gt;
*./bin/pcl_kinfu_largeScale -r -et&lt;br /&gt;
*./bin/pcl_kinfu_largeScale_mesh_output world.pcd &lt;br /&gt;
*Fusionner les mesh générés avec MeshLab et l'exporter dans KinFuSnapshots&lt;br /&gt;
*./bin/pcl_kinfu_largeScale_texture_output KinFuSnapshots/merged_mesh.ply&lt;br /&gt;
&lt;br /&gt;
===Utilisation de KinFu App===&lt;br /&gt;
&lt;br /&gt;
Nous nous sommes ensuite attardé sur cette partie de KinFu et nous nous sommes rendu-compte qu'elle permet de scanner un objet en 3 dimensions et d'en faire facilement le tour. Nous récupérons ensuite le scan dans un fichier .ply exploitable par le logiciel MeshLab. Voici les commandes que nous devons taper pour le faire fonctionner :&lt;br /&gt;
&lt;br /&gt;
* cd ~/trunk/build/bin&lt;br /&gt;
* ./kinfu_app&lt;br /&gt;
* Une fois le programme lancé, on peut observer dans la fenêtre View3D from ray tracing le mesh 3D en cours de la Kinect&lt;br /&gt;
* Appuyer succéssivement sur A dans la fenêtre Scene Cloud Viewer pour ajouter le mesh en cours au mesh que l'on souhaite exporter.&lt;br /&gt;
* Appuyer sur 7 pour exporter le mesh de la fenêtre Scene Cloud Viewer dans un fichier PLY&lt;br /&gt;
&lt;br /&gt;
=== Réunion du 12 novembre avec Oxylane ===&lt;br /&gt;
&lt;br /&gt;
Nous avons rencontré lors de cette réunion le responsable du service innovation de Oxylane. Nous lui avons montré nos avancements dans les tests de Kinect Fusion et nous nous sommes mis d'accord sur les trois points d'études suivants :&lt;br /&gt;
&lt;br /&gt;
*'''''Etude des limites du programme Kinect Fusion (avantages, inconvénients, ajouts de fonctionnalités possibles).'''''&lt;br /&gt;
Etudier le principe de fonctionnement de l'Open Source KinFu de Kinect Fusion et se rendre compte de ce qu'il est possible de faire ou de ne pas faire avec le programme (textures, couleurs ...)&lt;br /&gt;
   &lt;br /&gt;
*'''''Tests avec la Kinect de bureau pour améliorer la précision.'''''&lt;br /&gt;
Pouvoir donner une idée de que l'on peut faire et ce que l'on peut améliorer avec une Kinect de bureau plutôt que la Kinect Xbox.&lt;br /&gt;
&lt;br /&gt;
*'''''Tests pour la création d'un scénario complet de scan d'un casque de vélo.'''''&lt;br /&gt;
Ce test permettrait de mettre l'accent sur les points bloquants lors d'un scan d'un objet quelconque (éventualité d'isoler l'objet de son environnement par exemple). Ce test nous permettra aussi de prendre du recul sur les outils disponibles et sur la réalité des compétences qu'ont besoin d'avoir ceux qui voudraient utiliser une kinect pour faire du scan 3D.&lt;br /&gt;
&lt;br /&gt;
== Réalisations ==&lt;br /&gt;
&lt;br /&gt;
=== Etude appronfondie du fonctionnment de Kinect Fusion ===&lt;br /&gt;
Une fois les différents premiers tests effectués, nous avons voulu savoir comment fonctionner KinFu. Pour cela, nous avons tout d'abord cherché sur Internet quelques recherches et nous sommes tombés sur ce site expliquant de manière globale le fonctionnement de Kinect Fusion : [http://www.tumblr.com/tagged/kinfu&lt;br /&gt;
]&lt;br /&gt;
&lt;br /&gt;
Afin de détecter la profondeur des objets présents dans la scène, Kinect Fusion utilise la caméra infra-rouge de la kinect. Un projecteur infrarouge projette une lumière invisible sur la scène. Il a été spécialement conçu pour projeter les points à la manière d'un laser de telle sorte que les points ne se dilatent pas avec la distance. Cette lumière est lu par la caméra infrarouge. Une fois que ce schéma est lu par la caméra infrarouge, le programme Kinect Fusion recherche des corrélations. Si il en trouve,le processeur dans le kinect est alors en mesure d'utiliser cette information pour trianguler la position 3D des points.&lt;/div&gt;</summary>
		<author><name>Fsueur</name></author>	</entry>

	<entry>
		<id>https://projets-ima.plil.fr/mediawiki/index.php?title=Scan_3D&amp;diff=3548</id>
		<title>Scan 3D</title>
		<link rel="alternate" type="text/html" href="https://projets-ima.plil.fr/mediawiki/index.php?title=Scan_3D&amp;diff=3548"/>
				<updated>2012-11-07T16:22:57Z</updated>
		
		<summary type="html">&lt;p&gt;Fsueur : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Introduction==&lt;br /&gt;
&lt;br /&gt;
Dans le cadre de la cinquième année nous avons pour consigne de réaliser un projet en rapport avec notre formation. Nous avons choisi de travailler sur le projet du Scan 3D car nous sommes tous les deux intéressé par l'utilisation des capacités de la Kinect.&lt;br /&gt;
&lt;br /&gt;
Ce projet est un projet industriel en lien avec la société Oxylane. Au sein de cette dernière, beaucoup de prototypes ont été réalisés sans passer préalablement par une phase de conception 3D. Ce sont des prototypes uniques, des objets difficilement duplicables. De plus en plus de concepteurs, de designers et de chercheurs aimeraient pouvoir continuer à travailler sur ces objets physiques dans le monde virtuel. Oxylane cherche donc un moyen de scanner ces objets sans passer par des équipements très coûteux.&lt;br /&gt;
&lt;br /&gt;
== Présentation du projet ==&lt;br /&gt;
&lt;br /&gt;
Ce projet consiste donc de réaliser un prototype de scanner 3D en utilisant la Kinect, permettant de transformer des objets réels en forme 3D. Les besoins les plus forts concernent actuellement les casques de vélo et les chaussures. &lt;br /&gt;
&lt;br /&gt;
Cependant avant de se lancer directement dans le scan 3D, nous devons tout d'abord étudier ce qu'il est possible de faire actuellement avec la Kinect. De nombreux documents sont là pour nous aider ainsi qu'une base de logiciel permettant le scan 3D : Kinect Fusion (KinFu).&lt;br /&gt;
&lt;br /&gt;
== Etat de l'art ==&lt;br /&gt;
&lt;br /&gt;
== Réalisation ==&lt;br /&gt;
&lt;br /&gt;
Lors des 4 premières séances de projets que nous avons pu faire, nous nous sommes intéressé à l'installation et à l'utilisation des OpenSources de Kinect Fusion.&lt;br /&gt;
&lt;br /&gt;
===Installation de OpenNi, Nite, SensorKinect===&lt;br /&gt;
&lt;br /&gt;
*Installer OpenNi Unstable&lt;br /&gt;
&lt;br /&gt;
**Pré-requis &lt;br /&gt;
&lt;br /&gt;
        Obligatoires :&lt;br /&gt;
                1) GCC 4.x&lt;br /&gt;
                  apt-get install g++&lt;br /&gt;
                2) Python 2.6+/3.x&lt;br /&gt;
                 apt-get install python&lt;br /&gt;
                3) LibUSB 1.0.x&lt;br /&gt;
                 apt-get install libusb-1.0-0-dev&lt;br /&gt;
                4) FreeGLUT3&lt;br /&gt;
                 apt-get install freeglut3-dev&lt;br /&gt;
                5) JDK 6.0&lt;br /&gt;
                 apt-get install openjdk-6-jdk&lt;br /&gt;
&lt;br /&gt;
        Optionel (Pour la documentation):&lt;br /&gt;
                1) Doxygen&lt;br /&gt;
                  apt-get install doxygen&lt;br /&gt;
                2) GraphViz&lt;br /&gt;
                   apt-get install graphviz&lt;br /&gt;
&lt;br /&gt;
**Installation&lt;br /&gt;
&lt;br /&gt;
        cd ~/OpenNi/Platform/Linux/CreateRedist&lt;br /&gt;
        chmod +x RedistMaker&lt;br /&gt;
        ./RedistMaker&lt;br /&gt;
        cd ~/OpenNi/Platform/Linux/Redist/OpenNI-Bin-Dev-Linux-x64-v1.5.4.0&lt;br /&gt;
        su&lt;br /&gt;
        ./install.sh&lt;br /&gt;
&lt;br /&gt;
*Installation de SensorKinect :&lt;br /&gt;
&lt;br /&gt;
        cd ~/SensorKinect/Platform/Linux/CreateRedist&lt;br /&gt;
        chmod +x RedistMaker&lt;br /&gt;
        ./RedistMaker&lt;br /&gt;
        cd ~/SensorKinect/Platform/Linux/Redist/Sensor-Bin-Linux-x64-v5.1.2.1&lt;br /&gt;
        ./install.sh&lt;br /&gt;
&lt;br /&gt;
===Installation de la PCL Expérimentale ===&lt;br /&gt;
&lt;br /&gt;
Obligatoire : &lt;br /&gt;
*cmake&lt;br /&gt;
 apt-get install cmake&lt;br /&gt;
&lt;br /&gt;
*Boost ≥ 1.46&lt;br /&gt;
 apt-get install libboost-all-dev&lt;br /&gt;
&lt;br /&gt;
*Eigen ≥ 3.0&lt;br /&gt;
 apt-get install libeigen3-dev&lt;br /&gt;
&lt;br /&gt;
*FLANN ≥ 1.7.1&lt;br /&gt;
 apt-get install libflann-dev&lt;br /&gt;
&lt;br /&gt;
*VTK ≥ 5.6&lt;br /&gt;
 apt-get install libvtk5-dev&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Installation&lt;br /&gt;
&lt;br /&gt;
 cd ~Pcl/trunk&lt;br /&gt;
 mkdir build &amp;amp;&amp;amp; cd build &amp;amp;&amp;amp; cmake ..&lt;br /&gt;
 make&lt;br /&gt;
 make install&lt;br /&gt;
&lt;br /&gt;
===Utilisation de KinFu LargeScale===&lt;br /&gt;
&lt;br /&gt;
*d'après le tutoriel :&lt;br /&gt;
http://pointclouds.org/documentation/tutorials/using_kinfu_large_scale.php&lt;br /&gt;
&lt;br /&gt;
*./bin/pcl_kinfu_largeScale -r -et&lt;br /&gt;
*./bin/pcl_kinfu_largeScale_mesh_output world.pcd &lt;br /&gt;
*Fusionner les mesh générés avec MeshLab et l'exporter dans KinFuSnapshots&lt;br /&gt;
*./bin/pcl_kinfu_largeScale_texture_output KinFuSnapshots/merged_mesh.ply&lt;/div&gt;</summary>
		<author><name>Fsueur</name></author>	</entry>

	<entry>
		<id>https://projets-ima.plil.fr/mediawiki/index.php?title=Scan_3D&amp;diff=3547</id>
		<title>Scan 3D</title>
		<link rel="alternate" type="text/html" href="https://projets-ima.plil.fr/mediawiki/index.php?title=Scan_3D&amp;diff=3547"/>
				<updated>2012-11-07T16:20:16Z</updated>
		
		<summary type="html">&lt;p&gt;Fsueur : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Introduction==&lt;br /&gt;
&lt;br /&gt;
Dans le cadre de la cinquième année nous avons pour consigne de réaliser un projet en rapport avec notre formation. Nous avons choisi de travailler sur le projet du Scan 3D car nous sommes tous les deux intéressé par l'utilisation des capacités de la Kinect.&lt;br /&gt;
&lt;br /&gt;
Ce projet est un projet industriel en lien avec la société Oxylane. Au sein de cette dernière, beaucoup de prototypes ont été réalisés sans passer préalablement par une phase de conception 3D. Ce sont des prototypes uniques, des objets difficilement duplicables. De plus en plus de concepteurs, de designers et de chercheurs aimeraient pouvoir continuer à travailler sur ces objets physiques dans le monde virtuel. Oxylane cherche donc un moyen de scanner ces objets sans passer par des équipements très coûteux.&lt;br /&gt;
&lt;br /&gt;
== Présentation du projet ==&lt;br /&gt;
&lt;br /&gt;
Ce projet consiste donc de réaliser un prototype de scanner 3D en utilisant la Kinect, permettant de transformer des objets réels en forme 3D. Les besoins les plus forts concernent actuellement les casques de vélo et les chaussures. &lt;br /&gt;
&lt;br /&gt;
Cependant avant de se lancer directement dans le scan 3D, nous devons tout d'abord étudier ce qu'il est possible de faire actuellement avec la Kinect. De nombreux documents sont là pour nous aider ainsi qu'une base de logiciel permettant le scan 3D : Kinect Fusion (KinFu).&lt;br /&gt;
&lt;br /&gt;
== Etat de l'art ==&lt;br /&gt;
&lt;br /&gt;
== Réalisation ==&lt;br /&gt;
&lt;br /&gt;
Lors des 4 premières séances de projets que nous avons pu faire, nous nous sommes intéressé à l'installation et à l'utilisation des OpenSources de Kinect Fusion.&lt;br /&gt;
&lt;br /&gt;
===Installation de OpenNi, Nite, SensorKinect===&lt;br /&gt;
&lt;br /&gt;
*Installer OpenNi Unstable&lt;br /&gt;
&lt;br /&gt;
**Pré-requis &lt;br /&gt;
&lt;br /&gt;
        Obligatoires :&lt;br /&gt;
                1) GCC 4.x&lt;br /&gt;
                  apt-get install g++&lt;br /&gt;
                2) Python 2.6+/3.x&lt;br /&gt;
                 apt-get install python&lt;br /&gt;
                3) LibUSB 1.0.x&lt;br /&gt;
                 apt-get install libusb-1.0-0-dev&lt;br /&gt;
                4) FreeGLUT3&lt;br /&gt;
                 apt-get install freeglut3-dev&lt;br /&gt;
                5) JDK 6.0&lt;br /&gt;
                 apt-get install openjdk-6-jdk&lt;br /&gt;
&lt;br /&gt;
        Optionel (Pour la documentation):&lt;br /&gt;
                1) Doxygen&lt;br /&gt;
                  apt-get install doxygen&lt;br /&gt;
                2) GraphViz&lt;br /&gt;
                   apt-get install graphviz&lt;br /&gt;
&lt;br /&gt;
**Installation&lt;br /&gt;
&lt;br /&gt;
        cd ~/OpenNi/Platform/Linux/CreateRedist&lt;br /&gt;
        chmod +x RedistMaker&lt;br /&gt;
        ./RedistMaker&lt;br /&gt;
        cd ~/OpenNi/Platform/Linux/Redist/OpenNI-Bin-Dev-Linux-x64-v1.5.4.0&lt;br /&gt;
        su&lt;br /&gt;
        ./install.sh&lt;br /&gt;
&lt;br /&gt;
*Installation de SensorKinect :&lt;br /&gt;
&lt;br /&gt;
        cd ~/SensorKinect/Platform/Linux/CreateRedist&lt;br /&gt;
        chmod +x RedistMaker&lt;br /&gt;
        ./RedistMaker&lt;br /&gt;
        cd ~/SensorKinect/Platform/Linux/Redist/Sensor-Bin-Linux-x64-v5.1.2.1&lt;br /&gt;
        ./install.sh&lt;br /&gt;
&lt;br /&gt;
===Installation de la PCL===&lt;br /&gt;
&lt;br /&gt;
===Installation de KinFu (Implémentation libre de Kinect Fusion)===&lt;br /&gt;
&lt;br /&gt;
===Utilisation de KinFu LargeScale===&lt;br /&gt;
&lt;br /&gt;
*d'après le tutoriel :&lt;br /&gt;
http://pointclouds.org/documentation/tutorials/using_kinfu_large_scale.php&lt;br /&gt;
&lt;br /&gt;
*./bin/pcl_kinfu_largeScale -r -et&lt;br /&gt;
*./bin/pcl_kinfu_largeScale_mesh_output world.pcd &lt;br /&gt;
*Fusionner les mesh générés avec MeshLab et l'exporter dans KinFuSnapshots&lt;br /&gt;
*./bin/pcl_kinfu_largeScale_texture_output KinFuSnapshots/merged_mesh.ply&lt;/div&gt;</summary>
		<author><name>Fsueur</name></author>	</entry>

	<entry>
		<id>https://projets-ima.plil.fr/mediawiki/index.php?title=Scan_3D&amp;diff=3546</id>
		<title>Scan 3D</title>
		<link rel="alternate" type="text/html" href="https://projets-ima.plil.fr/mediawiki/index.php?title=Scan_3D&amp;diff=3546"/>
				<updated>2012-11-05T09:02:59Z</updated>
		
		<summary type="html">&lt;p&gt;Fsueur : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Introduction==&lt;br /&gt;
&lt;br /&gt;
Dans le cadre de la cinquième année nous avons pour consigne de réaliser un projet en rapport avec notre formation. Nous avons choisi de travailler sur le projet du Scan 3D car nous sommes tous les deux intéressé par l'utilisation des capacités de la Kinect.&lt;br /&gt;
&lt;br /&gt;
Ce projet est un projet industriel en lien avec la société Oxylane. Au sein de cette dernière, beaucoup de prototypes ont été réalisés sans passer préalablement par une phase de conception 3D. Ce sont des prototypes uniques, des objets difficilement duplicables. De plus en plus de concepteurs, de designers et de chercheurs aimeraient pouvoir continuer à travailler sur ces objets physiques dans le monde virtuel. Oxylane cherche donc un moyen de scanner ces objets sans passer par des équipements très coûteux.&lt;br /&gt;
&lt;br /&gt;
== Présentation du projet ==&lt;br /&gt;
&lt;br /&gt;
Ce projet consiste donc de réaliser un prototype de scanner 3D en utilisant la Kinect, permettant de transformer des objets réels en forme 3D. Les besoins les plus forts concernent actuellement les casques de vélo et les chaussures. &lt;br /&gt;
&lt;br /&gt;
Cependant avant de se lancer directement dans le scan 3D, nous devons tout d'abord étudier ce qu'il est possible de faire actuellement avec la Kinect. De nombreux documents sont là pour nous aider ainsi qu'une base de logiciel permettant le scan 3D : Kinect Fusion (KinFu).&lt;br /&gt;
&lt;br /&gt;
== Etat de l'art ==&lt;br /&gt;
&lt;br /&gt;
== Réalisation ==&lt;br /&gt;
&lt;br /&gt;
Lors des 4 premières séances de projets que nous avons pu faire, nous nous sommes intéressé à l'installation et à l'utilisation des OpenSources de Kinect Fusion.&lt;br /&gt;
&lt;br /&gt;
===Installation de OpenNi, Nite, SensorKinect===&lt;br /&gt;
&lt;br /&gt;
===Installation de la PCL===&lt;br /&gt;
&lt;br /&gt;
===Installation de KinFu (Implémentation libre de Kinect Fusion)===&lt;br /&gt;
&lt;br /&gt;
===Utilisation de KinFu LargeScale===&lt;br /&gt;
&lt;br /&gt;
*d'après le tutoriel :&lt;br /&gt;
http://pointclouds.org/documentation/tutorials/using_kinfu_large_scale.php&lt;br /&gt;
&lt;br /&gt;
*./bin/pcl_kinfu_largeScale -r -et&lt;br /&gt;
*./bin/pcl_kinfu_largeScale_mesh_output world.pcd &lt;br /&gt;
*Fusionner les mesh générés avec MeshLab &lt;br /&gt;
* Allez dans Filters-&amp;gt;Remeshing,simplification and reconstruction&lt;br /&gt;
*l'exporter dans KinFuSnapshots&lt;br /&gt;
*./bin/pcl_kinfu_largeScale_texture_output KinFuSnapshots/merged_mesh.ply&lt;/div&gt;</summary>
		<author><name>Fsueur</name></author>	</entry>

	<entry>
		<id>https://projets-ima.plil.fr/mediawiki/index.php?title=Scan_3D&amp;diff=3545</id>
		<title>Scan 3D</title>
		<link rel="alternate" type="text/html" href="https://projets-ima.plil.fr/mediawiki/index.php?title=Scan_3D&amp;diff=3545"/>
				<updated>2012-11-05T08:29:25Z</updated>
		
		<summary type="html">&lt;p&gt;Fsueur : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Introduction==&lt;br /&gt;
&lt;br /&gt;
Dans le cadre de la cinquième année nous avons pour consigne de réaliser un projet en rapport avec notre formation. Nous avons choisi de travailler sur le projet du Scan 3D car nous sommes tous les deux intéressé par l'utilisation des capacités de la Kinect.&lt;br /&gt;
&lt;br /&gt;
Ce projet est un projet industriel en lien avec la société Oxylane. Au sein de cette dernière, beaucoup de prototypes ont été réalisés sans passer préalablement par une phase de conception 3D. Ce sont des prototypes uniques, des objets difficilement duplicables. De plus en plus de concepteurs, de designers et de chercheurs aimeraient pouvoir continuer à travailler sur ces objets physiques dans le monde virtuel. Oxylane cherche donc un moyen de scanner ces objets sans passer par des équipements très coûteux.&lt;br /&gt;
&lt;br /&gt;
== Présentation du projet ==&lt;br /&gt;
&lt;br /&gt;
Ce projet consiste donc de réaliser un prototype de scanner 3D en utilisant la Kinect, permettant de transformer des objets réels en forme 3D. Les besoins les plus forts concernent actuellement les casques de vélo et les chaussures. &lt;br /&gt;
&lt;br /&gt;
Cependant avant de se lancer directement dans le scan 3D, nous devons tout d'abord étudier ce qu'il est possible de faire actuellement avec la Kinect. De nombreux documents sont là pour nous aider ainsi qu'une base de logiciel permettant le scan 3D : Kinect Fusion (KinFu).&lt;br /&gt;
&lt;br /&gt;
== Etat de l'art ==&lt;br /&gt;
&lt;br /&gt;
== Réalisation ==&lt;br /&gt;
&lt;br /&gt;
Lors des 4 premières séances de projets que nous avons pu faire, nous nous sommes intéressé à l'installation et à l'utilisation des OpenSources de Kinect Fusion.&lt;br /&gt;
&lt;br /&gt;
===Installation de OpenNi, Nite, SensorKinect===&lt;br /&gt;
&lt;br /&gt;
===Installation de la PCL===&lt;br /&gt;
&lt;br /&gt;
===Installation de KinFu (Implémentation libre de Kinect Fusion)===&lt;br /&gt;
&lt;br /&gt;
===Utilisation de KinFu LargeScale===&lt;br /&gt;
&lt;br /&gt;
*d'après le tutoriel :&lt;br /&gt;
http://pointclouds.org/documentation/tutorials/using_kinfu_large_scale.php&lt;br /&gt;
&lt;br /&gt;
*./bin/pcl_kinfu_largeScale -r -et&lt;br /&gt;
*./bin/pcl_kinfu_largeScale_mesh_output world.pcd &lt;br /&gt;
*Fusionner les mesh générés avec MeshLab et l'exporter dans KinFuSnapshots&lt;br /&gt;
*./bin/pcl_kinfu_largeScale_texture_output KinFuSnapshots/merged_mesh.ply&lt;/div&gt;</summary>
		<author><name>Fsueur</name></author>	</entry>

	<entry>
		<id>https://projets-ima.plil.fr/mediawiki/index.php?title=Fichier:Rapport-Kinect2012.pdf&amp;diff=2563</id>
		<title>Fichier:Rapport-Kinect2012.pdf</title>
		<link rel="alternate" type="text/html" href="https://projets-ima.plil.fr/mediawiki/index.php?title=Fichier:Rapport-Kinect2012.pdf&amp;diff=2563"/>
				<updated>2012-05-13T18:09:52Z</updated>
		
		<summary type="html">&lt;p&gt;Fsueur : Interaction via kinect sur un rayon commercial

Rapport de projet de quatrième année
Département IMA

DELBERGHE Calvin	
SUEUR Florent&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Interaction via kinect sur un rayon commercial&lt;br /&gt;
&lt;br /&gt;
Rapport de projet de quatrième année&lt;br /&gt;
Département IMA&lt;br /&gt;
&lt;br /&gt;
DELBERGHE Calvin	&lt;br /&gt;
SUEUR Florent&lt;/div&gt;</summary>
		<author><name>Fsueur</name></author>	</entry>

	<entry>
		<id>https://projets-ima.plil.fr/mediawiki/index.php?title=Kinect2012&amp;diff=2562</id>
		<title>Kinect2012</title>
		<link rel="alternate" type="text/html" href="https://projets-ima.plil.fr/mediawiki/index.php?title=Kinect2012&amp;diff=2562"/>
				<updated>2012-05-13T18:07:46Z</updated>
		
		<summary type="html">&lt;p&gt;Fsueur : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;= Liste du matériel =&lt;br /&gt;
&lt;br /&gt;
== Présent == &lt;br /&gt;
&lt;br /&gt;
&amp;lt;ul&amp;gt;&lt;br /&gt;
   &amp;lt;li&amp;gt;Kinect&amp;lt;/li&amp;gt;&lt;br /&gt;
&amp;lt;/ul&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== A acheter ==&lt;br /&gt;
&lt;br /&gt;
= Présentation =&lt;br /&gt;
&lt;br /&gt;
Ce projet a pour objectif de mettre en place un système de choix d'appareil en espace commercial. Il s'agit, sur la base d'un système existant, d'améliorer le système de sélection des produits afin de le rendre plus ergonomique, de pouvoir le paramétrer plus simplement (par un vendeur), eventuellement d'augmenter le nombre de gestes reconnaissable. La situation d'usage pressentie est une catégorie de vente de produits difficilement déplacable par un client, pour des raisons de poids (par exemple un appareil de musculation) ou de taille (par exemple une tente).&lt;br /&gt;
&lt;br /&gt;
== Avancement du projet==&lt;br /&gt;
&lt;br /&gt;
=== Objectifs suggérés par les encadrants ===&lt;br /&gt;
&lt;br /&gt;
*Objectif principal : Améliorer un dispositif de sélection d'articles par gestes&lt;br /&gt;
&lt;br /&gt;
* Objectifs détaillés : &lt;br /&gt;
**Passer à la nouvelle version du SDK&lt;br /&gt;
**Enlever la calibration du squelette&lt;br /&gt;
**Interface pour un utilisateur lambda&lt;br /&gt;
&lt;br /&gt;
=== Réalisations concrètes ===&lt;br /&gt;
&lt;br /&gt;
=== Séances ===&lt;br /&gt;
&lt;br /&gt;
==== Séance du 08/02/2012 ==== &lt;br /&gt;
*Récupération des sources stables de OpenNI,PrimeSense Sensor Module for OpenNI et NITE &lt;br /&gt;
*Installation des dépendances requises pour installer OpenNI, PrimesSense et NITE d'après les README&lt;br /&gt;
*Compilation des sources&lt;br /&gt;
*Essais de compilation de quelques samples en java pour reconnaitre une personne ou une main&lt;br /&gt;
**Erreurs dans la compilation =&amp;gt; Manque de fichiers JAR ?&lt;br /&gt;
&lt;br /&gt;
==== Séance du 13/02/2012 ====&lt;br /&gt;
&lt;br /&gt;
*Installation terminé, la Kinect fonctionne et est reconnue.&lt;br /&gt;
*Installation de SensorKinect à la place de PrimeSense Sensor qui n’était pas le driver associé à la kinect (avin2-SensorKinect-faf4994)&lt;br /&gt;
*Test des samplesfournis avec OpenNi &lt;br /&gt;
&lt;br /&gt;
==== Séance du 15/02/2012 ====&lt;br /&gt;
&lt;br /&gt;
*Création d'un makefile pour compiler nos projet cpp&lt;br /&gt;
*Prise en main de Simpleread (profondeur, largeur, hauteur)&lt;br /&gt;
*Développement d'un petit soft &amp;quot;salut ça va&amp;quot; en fonction juste de la position en x,y,z qui marche entre  500 et 800 mm de profondeur&lt;br /&gt;
   (en dirigeant la main en haut à gauche, le terminal affiche &amp;quot;Salut !&amp;quot;, en dirigeant la main en haut à droite, le terminal affiche&amp;quot;ca va&amp;quot;)&lt;br /&gt;
&lt;br /&gt;
==== Séance du 20/02/2012 ====&lt;br /&gt;
&lt;br /&gt;
*Récupération du projet de l'an passé ainsi que le rapport rapport de l’an dernier&lt;br /&gt;
*Installation de librairie SDL&lt;br /&gt;
*Modification du Makefile afin de pouvoir compiler le projet sur un PC&lt;br /&gt;
*Test du programme =&amp;gt; fonctionne mis à part petit problème de résolution sur l’image d’instruction&lt;br /&gt;
*Regarder les exemples de NITE =&amp;gt; rien de concluant pour le moment&lt;br /&gt;
*Sur le projet de l’an dernier =&amp;gt; pas forcément besoin de psy pose pour calibration mais calibration néanmoins nécéssaire.&lt;br /&gt;
&lt;br /&gt;
==== Séance du 22/02/2012 ====&lt;br /&gt;
&lt;br /&gt;
*Résolution du problème d'affichage du programme de l’ancien projet, test du programme.&lt;br /&gt;
*Calibration automatique avec la nouvelle version de nite (doc, sans “psi” pose)&lt;br /&gt;
? comment intégrer Player-sample au projet ?&lt;br /&gt;
&lt;br /&gt;
==== Séance du 07/03/2012 ====&lt;br /&gt;
&lt;br /&gt;
*Réinstallation compléte de OpenNi, Nite, KinectSensor, ainsi que leurs dépendances respectives et des librairies nécessaires à l'ancien projet car changement d'ordinateur...&lt;br /&gt;
*Problème pour lancer les Sample de OpenNi : &lt;br /&gt;
''Open failed: Failed to set USB interface!&lt;br /&gt;
Press any key to continue . . .''&lt;br /&gt;
&lt;br /&gt;
  Résolution : rmmod gspca_kinect &lt;br /&gt;
&lt;br /&gt;
*Création du Makefile pour déveloper avec Nite (Makefile à executer dans Sample Tests du dossier de Nite)&lt;br /&gt;
*Aucune idée sur comment aborder l'intégration de NITE au projet de l'an dernier...&lt;br /&gt;
&lt;br /&gt;
==== Séance du 12/03/2012 ====&lt;br /&gt;
&lt;br /&gt;
*Fonction pour sauvegarder et charger des squelette vers / depuis un fichier trouvée et en attente de test faute de kinect accessible.&lt;br /&gt;
&lt;br /&gt;
==== Séance du 14/03/2012 ====&lt;br /&gt;
&lt;br /&gt;
*Ajout de la fonction permettant de sauvegarder un squelette&lt;br /&gt;
*La fonction de chargement d’un fichier de squelette nous retourne une erreur :&lt;br /&gt;
    Function was not implemented!&lt;br /&gt;
&lt;br /&gt;
==== Séance du 19/03/2012 ====&lt;br /&gt;
&lt;br /&gt;
*Bloqué à Loadcalibrationdatatofile&lt;br /&gt;
*Confirmation de Laurent Grisoni, ces fonctions ne sont plus implémenter. Il faut installer une version de NITE antérieur pour pouvoir les utiliser.&lt;br /&gt;
&lt;br /&gt;
==== Séance du 21/03/2012 ====&lt;br /&gt;
*Installation de libmagick++-dev pour manipuler des images&lt;br /&gt;
*Création du programme permettant de prendre une image et un fichier texte en paramètre&lt;br /&gt;
l’image peut être un article du magasin tel qu’une tente, le texte correspond à la description de l’article précédemment cité.&lt;br /&gt;
&lt;br /&gt;
Compilation et utilisation : &lt;br /&gt;
#gcc -o image image.cpp `Magick++-config --cppflags --cxxflags --ldflags --libs`&lt;br /&gt;
#./image&lt;br /&gt;
Impossible d'ouvrir le fichier !&lt;br /&gt;
Utilisation :&lt;br /&gt;
./image nomImage.xxx nomFichier.xxx&lt;br /&gt;
# ./image tente.JPG description_tente.txt&lt;br /&gt;
&lt;br /&gt;
==== Séance du 28/03/2012 ====&lt;br /&gt;
&lt;br /&gt;
Réflexions  quant à une réelle amélioration du projet : &lt;br /&gt;
&lt;br /&gt;
* Pouvoir calibrer la position d'un objet dans un environnement 3D. Pour l'instant les objets sont définis statiquement dans un tableau du programme. Si on veut changer l'objet de place, il faut que le développeur entre dans les sources et recompose le projet.&lt;br /&gt;
&lt;br /&gt;
* Faire une interface graphique simple en qt en partant un projet/exemple dans qt creator. Cette interface est surtout écrite en qml. Il s'agit d'une grille de rectangle contenant chacun une image. On pourrait ainsi faire un menu avec deux rectangle :&lt;br /&gt;
 •un menu catalogue&lt;br /&gt;
 •un menu qui lance le projet de l'an passé&lt;br /&gt;
&lt;br /&gt;
Dans le catalogue on aurait une liste de filtres : sport, randonné, camping etc et les images des objets à vendre par décathlon dans une grille de rectangle.&lt;br /&gt;
&lt;br /&gt;
L'exemple dont je parle plus haut est navigable entièrement avec les flèches du clavier.&lt;br /&gt;
Aussi, on pourrait simuler l'appui sur une touche directionnelle des qu'un mouvement spécifique est reconnu par nite.&lt;br /&gt;
&lt;br /&gt;
Travail réalisé lors de la séance : &lt;br /&gt;
&lt;br /&gt;
*Compréhension du placement des items et de comment le modifier dans le cadre du programme que nous voulons créer. (itemsset.cpp, itemsset.hpp)&lt;br /&gt;
&lt;br /&gt;
*Révision du programme de création des images (presque terminé)&lt;br /&gt;
&lt;br /&gt;
*Le vendeur pourra bientôt, depuis le programme principal de la Kinect, afficher ses 8 images/textes, qu'il aura au préalable placés dans un dossier spécifique. Le programme est appelé lors de de l'initialisation du tableau d'items &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==== Séance du 04/04/2012 ====&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Exemple pour utiliser la Kinect comme une souris trouvé&lt;br /&gt;
http://www.keyboardmods.com/2010/12/howto-use-kinect-as-mouse-in-linux.html&lt;br /&gt;
Ce programme permet de simuler le déplacement d'une souris sous linux via la librairie ioinput&lt;br /&gt;
&lt;br /&gt;
*Adaptation du code pour simuler les touches d’un clavier : &lt;br /&gt;
gestes reconnus : &lt;br /&gt;
** swipe left associé à la touche gauche&lt;br /&gt;
** swipe right associé à la touche droite&lt;br /&gt;
** swipe up associé à la touche haut&lt;br /&gt;
** swipe down associé à la touche bas&lt;br /&gt;
&lt;br /&gt;
Problème : dès qu’un mouvement est reconnu, exemple swipe left, alors le curseur se ballade vers la gauche sans s’arrêter.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Commencement de la programmation de l’interface à partir d’un exemple sur QTcreator en Qt Quick (focus), pour l’instant possibilité de mettre plusieurs noms rentrés a la main dans une liste, ainsi que différentes images nommées de la façon suivante: “&amp;lt;nom&amp;gt;+(index+1)+&amp;lt;.extension&amp;gt;”.&lt;br /&gt;
*En attente d’une solution pour associer une grille d’image différente pour chaque instance de cette liste.&lt;br /&gt;
Projet d’interface pouvant être lancé depuis n’importe quel ordinateur sur lequel QTCreator est installé.&lt;br /&gt;
&lt;br /&gt;
==== Séance du 05/04/2012 ====&lt;br /&gt;
&lt;br /&gt;
*Problème d’appui long sur les touches résolu, mais touche entrée (push) et steady toujours pas reconnus.&lt;br /&gt;
&lt;br /&gt;
==== Séance du 11/04/2012 ====&lt;br /&gt;
&lt;br /&gt;
*Le programme reconnait maintenant l’appui sur la touche entrée quand on fait le mouvement push.&lt;br /&gt;
*Tentative d’implémenter la combinaison de touche LEFTALT+TAB pour changer de fenêtre mais inefficace. Pourtant le mouvement Circle qui lui est associé est bien reconnu.&lt;br /&gt;
&lt;br /&gt;
==== Séance du 16/04/2012 ====&lt;br /&gt;
&lt;br /&gt;
*Interface opérationnelle sous linux. Problème : reconnaissance des gestes hasardeuse …&lt;br /&gt;
&lt;br /&gt;
*Le programme qui reconnaît les mouvements de la main est capable de lancer en tâche de fond l’interface graphique&lt;br /&gt;
&lt;br /&gt;
*A faire : &lt;br /&gt;
**Lier les 2 projets ainsi que le programme utilisant la librairie imagemagick&lt;br /&gt;
**Surtout : Comment revenir du projet de l’an passé à celui de cet année : dessiner un cercle avec la main qui enverrait un signal pour tuer le processus ?&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Le context menu : &lt;br /&gt;
**Aide sur comment utiliser l’interface ?&lt;br /&gt;
**Lancer le projet de l’an passé (javascript?)&lt;br /&gt;
&lt;br /&gt;
*Il faut étoffer aussi le catalogue car pour l’instant, il n’y a que 3 élement dans la liste =&amp;gt; télécharger et classer des articles depuis le site de décathlon (faute de base de donnée en ligne)&lt;br /&gt;
&lt;br /&gt;
=== Résultats ===&lt;br /&gt;
&lt;br /&gt;
*Le programme principal:&lt;br /&gt;
**On le lance et il lance l'interface graphique créée avec QT dans un fork et il gère la Kinect dans le même temps.&lt;br /&gt;
**En faisant un cercle avec la main, on peut passer au programme créé lors du projet de l'an dernier, lorsque l'on fait ce mouvement, le programme principal tue le processus de l'interface et lance celui de l'ancien projet à l'aide d'un nouveau fork.&lt;br /&gt;
**De même, lorsque le projet de l'an dernier est lancé, un mouvement circulaire de la main permet de revenir à l'interface.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Le programme de l'interface:&lt;br /&gt;
**On peut naviguer avec le clavier (Touches Haut,Bas,Droite,Gauche pour se déplacer et Tab pour valider) ou en faisant des mouvements avec la main reconnus par la Kinect et le programme(On pousse pour Tab(Push), on bouge la main dans la direction souhaitée pour se déplacer)&lt;br /&gt;
**Une aide sur l'utilisation peut être affichée si l'on va a gauche de la liste du catalogue.&lt;br /&gt;
**Le programme détecte lorsque l'utilisateur a fini un mouvement et est revenu dans sa position initiale en envoyant le signal de touche y pressée, autorise un autre mouvement et affiche le contour de l'objet selectionné en rouge lorsque c'est le cas.&lt;br /&gt;
&lt;br /&gt;
== Rapport ==&lt;br /&gt;
&lt;br /&gt;
[[media:rapport-Kinect2012.pdf]]&lt;/div&gt;</summary>
		<author><name>Fsueur</name></author>	</entry>

	<entry>
		<id>https://projets-ima.plil.fr/mediawiki/index.php?title=Kinect2012&amp;diff=1920</id>
		<title>Kinect2012</title>
		<link rel="alternate" type="text/html" href="https://projets-ima.plil.fr/mediawiki/index.php?title=Kinect2012&amp;diff=1920"/>
				<updated>2012-04-04T20:47:47Z</updated>
		
		<summary type="html">&lt;p&gt;Fsueur : /* Séance du 19/03/2012 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;= Liste du matériel =&lt;br /&gt;
&lt;br /&gt;
== Présent == &lt;br /&gt;
&lt;br /&gt;
&amp;lt;ul&amp;gt;&lt;br /&gt;
   &amp;lt;li&amp;gt;Kinect&amp;lt;/li&amp;gt;&lt;br /&gt;
&amp;lt;/ul&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== A acheter ==&lt;br /&gt;
&lt;br /&gt;
= Présentation =&lt;br /&gt;
&lt;br /&gt;
Ce projet a pour objectif de mettre en place un système de choix d'appareil en espace commercial. Il s'agit, sur la base d'un système existant, d'améliorer le système de sélection des produits afin de le rendre plus ergonomique, de pouvoir le paramétrer plus simplement (par un vendeur), eventuellement d'augmenter le nombre de gestes reconnaissable. La situation d'usage pressentie est une catégorie de vente de produits difficilement déplacable par un client, pour des raisons de poids (par exemple un appareil de musculation) ou de taille (par exemple une tente).&lt;br /&gt;
&lt;br /&gt;
== Avancement du projet==&lt;br /&gt;
&lt;br /&gt;
=== Objectifs suggérés par les encadrants ===&lt;br /&gt;
&lt;br /&gt;
*Objectif principal : Améliorer un dispositif de sélection d'articles par gestes&lt;br /&gt;
&lt;br /&gt;
* Objectifs détaillés : &lt;br /&gt;
**Passer à la nouvelle version du SDK&lt;br /&gt;
**Enlever la calibration du squelette&lt;br /&gt;
**Interface pour un utilisateur lambda&lt;br /&gt;
&lt;br /&gt;
=== Réalisations concrètes ===&lt;br /&gt;
&lt;br /&gt;
=== Séances ===&lt;br /&gt;
&lt;br /&gt;
==== Séance du 08/02/2012 ==== &lt;br /&gt;
*Récupération des sources stables de OpenNI,PrimeSense Sensor Module for OpenNI et NITE &lt;br /&gt;
*Installation des dépendances requises pour installer OpenNI, PrimesSense et NITE d'après les README&lt;br /&gt;
*Compilation des sources&lt;br /&gt;
*Essais de compilation de quelques samples en java pour reconnaitre une personne ou une main&lt;br /&gt;
**Erreurs dans la compilation =&amp;gt; Manque de fichiers JAR ?&lt;br /&gt;
&lt;br /&gt;
==== Séance du 13/02/2012 ====&lt;br /&gt;
&lt;br /&gt;
*Installation terminé, la Kinect fonctionne et est reconnue.&lt;br /&gt;
*Installation de SensorKinect à la place de PrimeSense Sensor qui n’était pas le driver associé à la kinect (avin2-SensorKinect-faf4994)&lt;br /&gt;
*Test des samplesfournis avec OpenNi &lt;br /&gt;
&lt;br /&gt;
==== Séance du 15/02/2012 ====&lt;br /&gt;
&lt;br /&gt;
*Création d'un makefile pour compiler nos projet cpp&lt;br /&gt;
*Prise en main de Simpleread (profondeur, largeur, hauteur)&lt;br /&gt;
*Développement d'un petit soft &amp;quot;salut ça va&amp;quot; en fonction juste de la position en x,y,z qui marche entre  500 et 800 mm de profondeur&lt;br /&gt;
   (en dirigeant la main en haut à gauche, le terminal affiche &amp;quot;Salut !&amp;quot;, en dirigeant la main en haut à droite, le terminal affiche&amp;quot;ca va&amp;quot;)&lt;br /&gt;
&lt;br /&gt;
==== Séance du 20/02/2012 ====&lt;br /&gt;
&lt;br /&gt;
*Récupération du projet de l'an passé ainsi que le rapport rapport de l’an dernier&lt;br /&gt;
*Installation de librairie SDL&lt;br /&gt;
*Modification du Makefile afin de pouvoir compiler le projet sur un PC&lt;br /&gt;
*Test du programme =&amp;gt; fonctionne mis à part petit problème de résolution sur l’image d’instruction&lt;br /&gt;
*Regarder les exemples de NITE =&amp;gt; rien de concluant pour le moment&lt;br /&gt;
*Sur le projet de l’an dernier =&amp;gt; pas forcément besoin de psy pose pour calibration mais calibration néanmoins nécéssaire.&lt;br /&gt;
&lt;br /&gt;
==== Séance du 22/02/2012 ====&lt;br /&gt;
&lt;br /&gt;
*Résolution du problème d'affichage du programme de l’ancien projet, test du programme.&lt;br /&gt;
*Calibration automatique avec la nouvelle version de nite (doc, sans “psi” pose)&lt;br /&gt;
? comment intégrer Player-sample au projet ?&lt;br /&gt;
&lt;br /&gt;
==== Séance du 07/03/2012 ====&lt;br /&gt;
&lt;br /&gt;
*Réinstallation compléte de OpenNi, Nite, KinectSensor, ainsi que leurs dépendances respectives et des librairies nécessaires à l'ancien projet car changement d'ordinateur...&lt;br /&gt;
*Problème pour lancer les Sample de OpenNi : &lt;br /&gt;
''Open failed: Failed to set USB interface!&lt;br /&gt;
Press any key to continue . . .''&lt;br /&gt;
&lt;br /&gt;
  Résolution : rmmod gspca_kinect &lt;br /&gt;
&lt;br /&gt;
*Création du Makefile pour déveloper avec Nite (Makefile à executer dans Sample Tests du dossier de Nite)&lt;br /&gt;
*Aucune idée sur comment aborder l'intégration de NITE au projet de l'an dernier...&lt;br /&gt;
&lt;br /&gt;
==== Séance du 12/03/2012 ====&lt;br /&gt;
&lt;br /&gt;
*Fonction pour sauvegarder et charger des squelette vers / depuis un fichier trouvée et en attente de test faute de kinect accessible.&lt;br /&gt;
&lt;br /&gt;
==== Séance du 14/03/2012 ====&lt;br /&gt;
&lt;br /&gt;
*Ajout de la fonction permettant de sauvegarder un squelette&lt;br /&gt;
*La fonction de chargement d’un fichier de squelette nous retourne une erreur :&lt;br /&gt;
    Function was not implemented!&lt;br /&gt;
&lt;br /&gt;
==== Séance du 19/03/2012 ====&lt;br /&gt;
&lt;br /&gt;
*Bloqué à Loadcalibrationdatatofile&lt;br /&gt;
*Confirmation de Laurent Grisoni, ces fonctions ne sont plus implémenter. Il faut installer une version de NITE antérieur pour pouvoir les utiliser.&lt;br /&gt;
&lt;br /&gt;
==== Séance du 21/03/2012 ====&lt;br /&gt;
*Installation de libmagick++-dev pour manipuler des images&lt;br /&gt;
*Création du programme permettant de prendre une image et un fichier texte en paramètre&lt;br /&gt;
l’image peut être un article du magasin tel qu’une tente, le texte correspond à la description de l’article précédemment cité.&lt;br /&gt;
&lt;br /&gt;
Compilation et utilisation : &lt;br /&gt;
#gcc -o image image.cpp `Magick++-config --cppflags --cxxflags --ldflags --libs`&lt;br /&gt;
#./image&lt;br /&gt;
Impossible d'ouvrir le fichier !&lt;br /&gt;
Utilisation :&lt;br /&gt;
./image nomImage.xxx nomFichier.xxx&lt;br /&gt;
# ./image tente.JPG description_tente.txt&lt;br /&gt;
&lt;br /&gt;
==== Séance du 28/03/2012 ====&lt;br /&gt;
&lt;br /&gt;
Réflexions  quant à une réelle amélioration du projet : &lt;br /&gt;
&lt;br /&gt;
* Pouvoir calibrer la position d'un objet dans un environnement 3D. Pour l'instant les objets sont définis statiquement dans un tableau du programme. Si on veut changer l'objet de place, il faut que le développeur entre dans les sources et recompose le projet.&lt;br /&gt;
&lt;br /&gt;
* Faire une interface graphique simple en qt en partant un projet/exemple dans qt creator. Cette interface est surtout écrite en qml. Il s'agit d'une grille de rectangle contenant chacun une image. On pourrait ainsi faire un menu avec deux rectangle :&lt;br /&gt;
 •un menu catalogue&lt;br /&gt;
 •un menu qui lance le projet de l'an passé&lt;br /&gt;
&lt;br /&gt;
Dans le catalogue on aurait une liste de filtres : sport, randonné, camping etc et les images des objets à vendre par décathlon dans une grille de rectangle.&lt;br /&gt;
&lt;br /&gt;
L'exemple dont je parle plus haut est navigable entièrement avec les flèches du clavier.&lt;br /&gt;
Aussi, on pourrait simuler l'appui sur une touche directionnelle des qu'un mouvement spécifique est reconnu par nite.&lt;br /&gt;
&lt;br /&gt;
Travail réalisé lors de la séance : &lt;br /&gt;
&lt;br /&gt;
*Compréhension du placement des items et de comment le modifier dans le cadre du programme que nous voulons créer. (itemsset.cpp, itemsset.hpp)&lt;br /&gt;
&lt;br /&gt;
*Révision du programme de création des images (presque terminé)&lt;br /&gt;
&lt;br /&gt;
*Le vendeur pourra bientôt, depuis le programme principal de la Kinect, afficher ses 8 images/textes, qu'il aura au préalable placés dans un dossier spécifique. Le programme est appelé lors de de l'initialisation du tableau d'items &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==== Séance du 04/04/2012 ====&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Exemple pour utiliser la Kinect comme une souris trouvé&lt;br /&gt;
http://www.keyboardmods.com/2010/12/howto-use-kinect-as-mouse-in-linux.html&lt;br /&gt;
Ce programme permet de simuler le déplacement d'une souris sous linux via la librairie ioinput&lt;br /&gt;
&lt;br /&gt;
*Adaptation du code pour simuler les touches d’un clavier : &lt;br /&gt;
gestes reconnus : &lt;br /&gt;
** swipe left associé à la touche gauche&lt;br /&gt;
** swipe right associé à la touche droite&lt;br /&gt;
** swipe up associé à la touche haut&lt;br /&gt;
** swipe down associé à la touche bas&lt;br /&gt;
&lt;br /&gt;
Problème : dès qu’un mouvement est reconnu, exemple swipe left, alors le curseur se ballade vers la gauche sans s’arrêter.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Commencement de la programmation de l’interface à partir d’un exemple sur QTcreator en Qt Quick (focus), pour l’instant possibilité de mettre plusieurs noms rentrés a la main dans une liste, ainsi que différentes images nommées de la façon suivante: “&amp;lt;nom&amp;gt;+(index+1)+&amp;lt;.extension&amp;gt;”.&lt;br /&gt;
*En attente d’une solution pour associer une grille d’image différente pour chaque instance de cette liste.&lt;br /&gt;
Projet d’interface pouvant être lancé depuis n’importe quel ordinateur sur lequel QTCreator est installé.&lt;br /&gt;
&lt;br /&gt;
=== Résultats ===&lt;/div&gt;</summary>
		<author><name>Fsueur</name></author>	</entry>

	<entry>
		<id>https://projets-ima.plil.fr/mediawiki/index.php?title=Kinect2012&amp;diff=1919</id>
		<title>Kinect2012</title>
		<link rel="alternate" type="text/html" href="https://projets-ima.plil.fr/mediawiki/index.php?title=Kinect2012&amp;diff=1919"/>
				<updated>2012-04-04T20:46:00Z</updated>
		
		<summary type="html">&lt;p&gt;Fsueur : /* Séance du 04/04/2012 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;= Liste du matériel =&lt;br /&gt;
&lt;br /&gt;
== Présent == &lt;br /&gt;
&lt;br /&gt;
&amp;lt;ul&amp;gt;&lt;br /&gt;
   &amp;lt;li&amp;gt;Kinect&amp;lt;/li&amp;gt;&lt;br /&gt;
&amp;lt;/ul&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== A acheter ==&lt;br /&gt;
&lt;br /&gt;
= Présentation =&lt;br /&gt;
&lt;br /&gt;
Ce projet a pour objectif de mettre en place un système de choix d'appareil en espace commercial. Il s'agit, sur la base d'un système existant, d'améliorer le système de sélection des produits afin de le rendre plus ergonomique, de pouvoir le paramétrer plus simplement (par un vendeur), eventuellement d'augmenter le nombre de gestes reconnaissable. La situation d'usage pressentie est une catégorie de vente de produits difficilement déplacable par un client, pour des raisons de poids (par exemple un appareil de musculation) ou de taille (par exemple une tente).&lt;br /&gt;
&lt;br /&gt;
== Avancement du projet==&lt;br /&gt;
&lt;br /&gt;
=== Objectifs suggérés par les encadrants ===&lt;br /&gt;
&lt;br /&gt;
*Objectif principal : Améliorer un dispositif de sélection d'articles par gestes&lt;br /&gt;
&lt;br /&gt;
* Objectifs détaillés : &lt;br /&gt;
**Passer à la nouvelle version du SDK&lt;br /&gt;
**Enlever la calibration du squelette&lt;br /&gt;
**Interface pour un utilisateur lambda&lt;br /&gt;
&lt;br /&gt;
=== Réalisations concrètes ===&lt;br /&gt;
&lt;br /&gt;
=== Séances ===&lt;br /&gt;
&lt;br /&gt;
==== Séance du 08/02/2012 ==== &lt;br /&gt;
*Récupération des sources stables de OpenNI,PrimeSense Sensor Module for OpenNI et NITE &lt;br /&gt;
*Installation des dépendances requises pour installer OpenNI, PrimesSense et NITE d'après les README&lt;br /&gt;
*Compilation des sources&lt;br /&gt;
*Essais de compilation de quelques samples en java pour reconnaitre une personne ou une main&lt;br /&gt;
**Erreurs dans la compilation =&amp;gt; Manque de fichiers JAR ?&lt;br /&gt;
&lt;br /&gt;
==== Séance du 13/02/2012 ====&lt;br /&gt;
&lt;br /&gt;
*Installation terminé, la Kinect fonctionne et est reconnue.&lt;br /&gt;
*Installation de SensorKinect à la place de PrimeSense Sensor qui n’était pas le driver associé à la kinect (avin2-SensorKinect-faf4994)&lt;br /&gt;
*Test des samplesfournis avec OpenNi &lt;br /&gt;
&lt;br /&gt;
==== Séance du 15/02/2012 ====&lt;br /&gt;
&lt;br /&gt;
*Création d'un makefile pour compiler nos projet cpp&lt;br /&gt;
*Prise en main de Simpleread (profondeur, largeur, hauteur)&lt;br /&gt;
*Développement d'un petit soft &amp;quot;salut ça va&amp;quot; en fonction juste de la position en x,y,z qui marche entre  500 et 800 mm de profondeur&lt;br /&gt;
   (en dirigeant la main en haut à gauche, le terminal affiche &amp;quot;Salut !&amp;quot;, en dirigeant la main en haut à droite, le terminal affiche&amp;quot;ca va&amp;quot;)&lt;br /&gt;
&lt;br /&gt;
==== Séance du 20/02/2012 ====&lt;br /&gt;
&lt;br /&gt;
*Récupération du projet de l'an passé ainsi que le rapport rapport de l’an dernier&lt;br /&gt;
*Installation de librairie SDL&lt;br /&gt;
*Modification du Makefile afin de pouvoir compiler le projet sur un PC&lt;br /&gt;
*Test du programme =&amp;gt; fonctionne mis à part petit problème de résolution sur l’image d’instruction&lt;br /&gt;
*Regarder les exemples de NITE =&amp;gt; rien de concluant pour le moment&lt;br /&gt;
*Sur le projet de l’an dernier =&amp;gt; pas forcément besoin de psy pose pour calibration mais calibration néanmoins nécéssaire.&lt;br /&gt;
&lt;br /&gt;
==== Séance du 22/02/2012 ====&lt;br /&gt;
&lt;br /&gt;
*Résolution du problème d'affichage du programme de l’ancien projet, test du programme.&lt;br /&gt;
*Calibration automatique avec la nouvelle version de nite (doc, sans “psi” pose)&lt;br /&gt;
? comment intégrer Player-sample au projet ?&lt;br /&gt;
&lt;br /&gt;
==== Séance du 07/03/2012 ====&lt;br /&gt;
&lt;br /&gt;
*Réinstallation compléte de OpenNi, Nite, KinectSensor, ainsi que leurs dépendances respectives et des librairies nécessaires à l'ancien projet car changement d'ordinateur...&lt;br /&gt;
*Problème pour lancer les Sample de OpenNi : &lt;br /&gt;
''Open failed: Failed to set USB interface!&lt;br /&gt;
Press any key to continue . . .''&lt;br /&gt;
&lt;br /&gt;
  Résolution : rmmod gspca_kinect &lt;br /&gt;
&lt;br /&gt;
*Création du Makefile pour déveloper avec Nite (Makefile à executer dans Sample Tests du dossier de Nite)&lt;br /&gt;
*Aucune idée sur comment aborder l'intégration de NITE au projet de l'an dernier...&lt;br /&gt;
&lt;br /&gt;
==== Séance du 12/03/2012 ====&lt;br /&gt;
&lt;br /&gt;
*Fonction pour sauvegarder et charger des squelette vers / depuis un fichier trouvée et en attente de test faute de kinect accessible.&lt;br /&gt;
&lt;br /&gt;
==== Séance du 14/03/2012 ====&lt;br /&gt;
&lt;br /&gt;
*Ajout de la fonction permettant de sauvegarder un squelette&lt;br /&gt;
*La fonction de chargement d’un fichier de squelette nous retourne une erreur :&lt;br /&gt;
    Function was not implemented!&lt;br /&gt;
&lt;br /&gt;
==== Séance du 19/03/2012 ====&lt;br /&gt;
&lt;br /&gt;
bloqué à Loadcalibrationdatatofile&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==== Séance du 21/03/2012 ====&lt;br /&gt;
*Installation de libmagick++-dev pour manipuler des images&lt;br /&gt;
*Création du programme permettant de prendre une image et un fichier texte en paramètre&lt;br /&gt;
l’image peut être un article du magasin tel qu’une tente, le texte correspond à la description de l’article précédemment cité.&lt;br /&gt;
&lt;br /&gt;
Compilation et utilisation : &lt;br /&gt;
#gcc -o image image.cpp `Magick++-config --cppflags --cxxflags --ldflags --libs`&lt;br /&gt;
#./image&lt;br /&gt;
Impossible d'ouvrir le fichier !&lt;br /&gt;
Utilisation :&lt;br /&gt;
./image nomImage.xxx nomFichier.xxx&lt;br /&gt;
# ./image tente.JPG description_tente.txt&lt;br /&gt;
&lt;br /&gt;
==== Séance du 28/03/2012 ====&lt;br /&gt;
&lt;br /&gt;
Réflexions  quant à une réelle amélioration du projet : &lt;br /&gt;
&lt;br /&gt;
* Pouvoir calibrer la position d'un objet dans un environnement 3D. Pour l'instant les objets sont définis statiquement dans un tableau du programme. Si on veut changer l'objet de place, il faut que le développeur entre dans les sources et recompose le projet.&lt;br /&gt;
&lt;br /&gt;
* Faire une interface graphique simple en qt en partant un projet/exemple dans qt creator. Cette interface est surtout écrite en qml. Il s'agit d'une grille de rectangle contenant chacun une image. On pourrait ainsi faire un menu avec deux rectangle :&lt;br /&gt;
 •un menu catalogue&lt;br /&gt;
 •un menu qui lance le projet de l'an passé&lt;br /&gt;
&lt;br /&gt;
Dans le catalogue on aurait une liste de filtres : sport, randonné, camping etc et les images des objets à vendre par décathlon dans une grille de rectangle.&lt;br /&gt;
&lt;br /&gt;
L'exemple dont je parle plus haut est navigable entièrement avec les flèches du clavier.&lt;br /&gt;
Aussi, on pourrait simuler l'appui sur une touche directionnelle des qu'un mouvement spécifique est reconnu par nite.&lt;br /&gt;
&lt;br /&gt;
Travail réalisé lors de la séance : &lt;br /&gt;
&lt;br /&gt;
*Compréhension du placement des items et de comment le modifier dans le cadre du programme que nous voulons créer. (itemsset.cpp, itemsset.hpp)&lt;br /&gt;
&lt;br /&gt;
*Révision du programme de création des images (presque terminé)&lt;br /&gt;
&lt;br /&gt;
*Le vendeur pourra bientôt, depuis le programme principal de la Kinect, afficher ses 8 images/textes, qu'il aura au préalable placés dans un dossier spécifique. Le programme est appelé lors de de l'initialisation du tableau d'items &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==== Séance du 04/04/2012 ====&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Exemple pour utiliser la Kinect comme une souris trouvé&lt;br /&gt;
http://www.keyboardmods.com/2010/12/howto-use-kinect-as-mouse-in-linux.html&lt;br /&gt;
Ce programme permet de simuler le déplacement d'une souris sous linux via la librairie ioinput&lt;br /&gt;
&lt;br /&gt;
*Adaptation du code pour simuler les touches d’un clavier : &lt;br /&gt;
gestes reconnus : &lt;br /&gt;
** swipe left associé à la touche gauche&lt;br /&gt;
** swipe right associé à la touche droite&lt;br /&gt;
** swipe up associé à la touche haut&lt;br /&gt;
** swipe down associé à la touche bas&lt;br /&gt;
&lt;br /&gt;
Problème : dès qu’un mouvement est reconnu, exemple swipe left, alors le curseur se ballade vers la gauche sans s’arrêter.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Commencement de la programmation de l’interface à partir d’un exemple sur QTcreator en Qt Quick (focus), pour l’instant possibilité de mettre plusieurs noms rentrés a la main dans une liste, ainsi que différentes images nommées de la façon suivante: “&amp;lt;nom&amp;gt;+(index+1)+&amp;lt;.extension&amp;gt;”.&lt;br /&gt;
*En attente d’une solution pour associer une grille d’image différente pour chaque instance de cette liste.&lt;br /&gt;
Projet d’interface pouvant être lancé depuis n’importe quel ordinateur sur lequel QTCreator est installé.&lt;br /&gt;
&lt;br /&gt;
=== Résultats ===&lt;/div&gt;</summary>
		<author><name>Fsueur</name></author>	</entry>

	<entry>
		<id>https://projets-ima.plil.fr/mediawiki/index.php?title=Kinect2012&amp;diff=1918</id>
		<title>Kinect2012</title>
		<link rel="alternate" type="text/html" href="https://projets-ima.plil.fr/mediawiki/index.php?title=Kinect2012&amp;diff=1918"/>
				<updated>2012-04-04T20:43:41Z</updated>
		
		<summary type="html">&lt;p&gt;Fsueur : /* Séances */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;= Liste du matériel =&lt;br /&gt;
&lt;br /&gt;
== Présent == &lt;br /&gt;
&lt;br /&gt;
&amp;lt;ul&amp;gt;&lt;br /&gt;
   &amp;lt;li&amp;gt;Kinect&amp;lt;/li&amp;gt;&lt;br /&gt;
&amp;lt;/ul&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== A acheter ==&lt;br /&gt;
&lt;br /&gt;
= Présentation =&lt;br /&gt;
&lt;br /&gt;
Ce projet a pour objectif de mettre en place un système de choix d'appareil en espace commercial. Il s'agit, sur la base d'un système existant, d'améliorer le système de sélection des produits afin de le rendre plus ergonomique, de pouvoir le paramétrer plus simplement (par un vendeur), eventuellement d'augmenter le nombre de gestes reconnaissable. La situation d'usage pressentie est une catégorie de vente de produits difficilement déplacable par un client, pour des raisons de poids (par exemple un appareil de musculation) ou de taille (par exemple une tente).&lt;br /&gt;
&lt;br /&gt;
== Avancement du projet==&lt;br /&gt;
&lt;br /&gt;
=== Objectifs suggérés par les encadrants ===&lt;br /&gt;
&lt;br /&gt;
*Objectif principal : Améliorer un dispositif de sélection d'articles par gestes&lt;br /&gt;
&lt;br /&gt;
* Objectifs détaillés : &lt;br /&gt;
**Passer à la nouvelle version du SDK&lt;br /&gt;
**Enlever la calibration du squelette&lt;br /&gt;
**Interface pour un utilisateur lambda&lt;br /&gt;
&lt;br /&gt;
=== Réalisations concrètes ===&lt;br /&gt;
&lt;br /&gt;
=== Séances ===&lt;br /&gt;
&lt;br /&gt;
==== Séance du 08/02/2012 ==== &lt;br /&gt;
*Récupération des sources stables de OpenNI,PrimeSense Sensor Module for OpenNI et NITE &lt;br /&gt;
*Installation des dépendances requises pour installer OpenNI, PrimesSense et NITE d'après les README&lt;br /&gt;
*Compilation des sources&lt;br /&gt;
*Essais de compilation de quelques samples en java pour reconnaitre une personne ou une main&lt;br /&gt;
**Erreurs dans la compilation =&amp;gt; Manque de fichiers JAR ?&lt;br /&gt;
&lt;br /&gt;
==== Séance du 13/02/2012 ====&lt;br /&gt;
&lt;br /&gt;
*Installation terminé, la Kinect fonctionne et est reconnue.&lt;br /&gt;
*Installation de SensorKinect à la place de PrimeSense Sensor qui n’était pas le driver associé à la kinect (avin2-SensorKinect-faf4994)&lt;br /&gt;
*Test des samplesfournis avec OpenNi &lt;br /&gt;
&lt;br /&gt;
==== Séance du 15/02/2012 ====&lt;br /&gt;
&lt;br /&gt;
*Création d'un makefile pour compiler nos projet cpp&lt;br /&gt;
*Prise en main de Simpleread (profondeur, largeur, hauteur)&lt;br /&gt;
*Développement d'un petit soft &amp;quot;salut ça va&amp;quot; en fonction juste de la position en x,y,z qui marche entre  500 et 800 mm de profondeur&lt;br /&gt;
   (en dirigeant la main en haut à gauche, le terminal affiche &amp;quot;Salut !&amp;quot;, en dirigeant la main en haut à droite, le terminal affiche&amp;quot;ca va&amp;quot;)&lt;br /&gt;
&lt;br /&gt;
==== Séance du 20/02/2012 ====&lt;br /&gt;
&lt;br /&gt;
*Récupération du projet de l'an passé ainsi que le rapport rapport de l’an dernier&lt;br /&gt;
*Installation de librairie SDL&lt;br /&gt;
*Modification du Makefile afin de pouvoir compiler le projet sur un PC&lt;br /&gt;
*Test du programme =&amp;gt; fonctionne mis à part petit problème de résolution sur l’image d’instruction&lt;br /&gt;
*Regarder les exemples de NITE =&amp;gt; rien de concluant pour le moment&lt;br /&gt;
*Sur le projet de l’an dernier =&amp;gt; pas forcément besoin de psy pose pour calibration mais calibration néanmoins nécéssaire.&lt;br /&gt;
&lt;br /&gt;
==== Séance du 22/02/2012 ====&lt;br /&gt;
&lt;br /&gt;
*Résolution du problème d'affichage du programme de l’ancien projet, test du programme.&lt;br /&gt;
*Calibration automatique avec la nouvelle version de nite (doc, sans “psi” pose)&lt;br /&gt;
? comment intégrer Player-sample au projet ?&lt;br /&gt;
&lt;br /&gt;
==== Séance du 07/03/2012 ====&lt;br /&gt;
&lt;br /&gt;
*Réinstallation compléte de OpenNi, Nite, KinectSensor, ainsi que leurs dépendances respectives et des librairies nécessaires à l'ancien projet car changement d'ordinateur...&lt;br /&gt;
*Problème pour lancer les Sample de OpenNi : &lt;br /&gt;
''Open failed: Failed to set USB interface!&lt;br /&gt;
Press any key to continue . . .''&lt;br /&gt;
&lt;br /&gt;
  Résolution : rmmod gspca_kinect &lt;br /&gt;
&lt;br /&gt;
*Création du Makefile pour déveloper avec Nite (Makefile à executer dans Sample Tests du dossier de Nite)&lt;br /&gt;
*Aucune idée sur comment aborder l'intégration de NITE au projet de l'an dernier...&lt;br /&gt;
&lt;br /&gt;
==== Séance du 12/03/2012 ====&lt;br /&gt;
&lt;br /&gt;
*Fonction pour sauvegarder et charger des squelette vers / depuis un fichier trouvée et en attente de test faute de kinect accessible.&lt;br /&gt;
&lt;br /&gt;
==== Séance du 14/03/2012 ====&lt;br /&gt;
&lt;br /&gt;
*Ajout de la fonction permettant de sauvegarder un squelette&lt;br /&gt;
*La fonction de chargement d’un fichier de squelette nous retourne une erreur :&lt;br /&gt;
    Function was not implemented!&lt;br /&gt;
&lt;br /&gt;
==== Séance du 19/03/2012 ====&lt;br /&gt;
&lt;br /&gt;
bloqué à Loadcalibrationdatatofile&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==== Séance du 21/03/2012 ====&lt;br /&gt;
*Installation de libmagick++-dev pour manipuler des images&lt;br /&gt;
*Création du programme permettant de prendre une image et un fichier texte en paramètre&lt;br /&gt;
l’image peut être un article du magasin tel qu’une tente, le texte correspond à la description de l’article précédemment cité.&lt;br /&gt;
&lt;br /&gt;
Compilation et utilisation : &lt;br /&gt;
#gcc -o image image.cpp `Magick++-config --cppflags --cxxflags --ldflags --libs`&lt;br /&gt;
#./image&lt;br /&gt;
Impossible d'ouvrir le fichier !&lt;br /&gt;
Utilisation :&lt;br /&gt;
./image nomImage.xxx nomFichier.xxx&lt;br /&gt;
# ./image tente.JPG description_tente.txt&lt;br /&gt;
&lt;br /&gt;
==== Séance du 28/03/2012 ====&lt;br /&gt;
&lt;br /&gt;
Réflexions  quant à une réelle amélioration du projet : &lt;br /&gt;
&lt;br /&gt;
* Pouvoir calibrer la position d'un objet dans un environnement 3D. Pour l'instant les objets sont définis statiquement dans un tableau du programme. Si on veut changer l'objet de place, il faut que le développeur entre dans les sources et recompose le projet.&lt;br /&gt;
&lt;br /&gt;
* Faire une interface graphique simple en qt en partant un projet/exemple dans qt creator. Cette interface est surtout écrite en qml. Il s'agit d'une grille de rectangle contenant chacun une image. On pourrait ainsi faire un menu avec deux rectangle :&lt;br /&gt;
 •un menu catalogue&lt;br /&gt;
 •un menu qui lance le projet de l'an passé&lt;br /&gt;
&lt;br /&gt;
Dans le catalogue on aurait une liste de filtres : sport, randonné, camping etc et les images des objets à vendre par décathlon dans une grille de rectangle.&lt;br /&gt;
&lt;br /&gt;
L'exemple dont je parle plus haut est navigable entièrement avec les flèches du clavier.&lt;br /&gt;
Aussi, on pourrait simuler l'appui sur une touche directionnelle des qu'un mouvement spécifique est reconnu par nite.&lt;br /&gt;
&lt;br /&gt;
Travail réalisé lors de la séance : &lt;br /&gt;
&lt;br /&gt;
*Compréhension du placement des items et de comment le modifier dans le cadre du programme que nous voulons créer. (itemsset.cpp, itemsset.hpp)&lt;br /&gt;
&lt;br /&gt;
*Révision du programme de création des images (presque terminé)&lt;br /&gt;
&lt;br /&gt;
*Le vendeur pourra bientôt, depuis le programme principal de la Kinect, afficher ses 8 images/textes, qu'il aura au préalable placés dans un dossier spécifique. Le programme est appelé lors de de l'initialisation du tableau d'items &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==== Séance du 04/04/2012 ====&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Exemple pour utiliser la Kinect comme une souris trouvé&lt;br /&gt;
http://www.keyboardmods.com/2010/12/howto-use-kinect-as-mouse-in-linux.html&lt;br /&gt;
Ce programme permet de simuler le déplacement d'une souris sous linux via la librairie ioinput&lt;br /&gt;
&lt;br /&gt;
*Adaptation du code pour simuler les touches d’un clavier : &lt;br /&gt;
gestes reconnus : &lt;br /&gt;
	- swipe left associé à la touche gauche&lt;br /&gt;
	- swipe right associé à la touche droite&lt;br /&gt;
	- swipe up associé à la touche haut&lt;br /&gt;
	- swipe down associé à la touche bas&lt;br /&gt;
&lt;br /&gt;
Problème : dès qu’un mouvement est reconnu, exemple swipe left, alors le curseur se ballade vers la gauche sans s’arrêter.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Commencement de la programmation de l’interface à partir d’un exemple sur QTcreator en Qt Quick (focus), pour l’instant possibilité de mettre plusieurs noms rentrés a la main dans une liste, ainsi que différentes images nommées de la façon suivante: “&amp;lt;nom&amp;gt;+(index+1)+&amp;lt;.extension&amp;gt;”.&lt;br /&gt;
*En attente d’une solution pour associer une grille d’image différente pour chaque instance de cette liste.&lt;br /&gt;
Projet d’interface pouvant être lancé depuis n’importe quel ordinateur sur lequel QTCreator est installé.&lt;br /&gt;
&lt;br /&gt;
=== Résultats ===&lt;/div&gt;</summary>
		<author><name>Fsueur</name></author>	</entry>

	<entry>
		<id>https://projets-ima.plil.fr/mediawiki/index.php?title=Kinect2012&amp;diff=1752</id>
		<title>Kinect2012</title>
		<link rel="alternate" type="text/html" href="https://projets-ima.plil.fr/mediawiki/index.php?title=Kinect2012&amp;diff=1752"/>
				<updated>2012-03-14T17:48:11Z</updated>
		
		<summary type="html">&lt;p&gt;Fsueur : /* Séance du 22/02/2012 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;= Liste du matériel =&lt;br /&gt;
&lt;br /&gt;
== Présent == &lt;br /&gt;
&lt;br /&gt;
&amp;lt;ul&amp;gt;&lt;br /&gt;
   &amp;lt;li&amp;gt;Kinect&amp;lt;/li&amp;gt;&lt;br /&gt;
&amp;lt;/ul&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== A acheter ==&lt;br /&gt;
&lt;br /&gt;
= Présentation =&lt;br /&gt;
&lt;br /&gt;
Ce projet a pour objectif de mettre en place un système de choix d'appareil en espace commercial. Il s'agit, sur la base d'un système existant, d'améliorer le système de sélection des produits afin de le rendre plus ergonomique, de pouvoir le paramétrer plus simplement (par un vendeur), eventuellement d'augmenter le nombre de gestes reconnaissable. La situation d'usage pressentie est une catégorie de vente de produits difficilement déplacable par un client, pour des raisons de poids (par exemple un appareil de musculation) ou de taille (par exemple une tente).&lt;br /&gt;
&lt;br /&gt;
== Avancement du projet==&lt;br /&gt;
&lt;br /&gt;
=== Objectifs suggérés par les encadrants ===&lt;br /&gt;
&lt;br /&gt;
*Objectif principal : Améliorer un dispositif de sélection d'articles par gestes&lt;br /&gt;
&lt;br /&gt;
* Objectifs détaillés : &lt;br /&gt;
**Passer à la nouvelle version du SDK&lt;br /&gt;
**Enlever la calibration du squelette&lt;br /&gt;
**Interface pour un utilisateur lambda&lt;br /&gt;
&lt;br /&gt;
=== Réalisations concrètes ===&lt;br /&gt;
&lt;br /&gt;
=== Séances ===&lt;br /&gt;
&lt;br /&gt;
==== Séance du 08/02/2012 ==== &lt;br /&gt;
*Récupération des sources stables de OpenNI,PrimeSense Sensor Module for OpenNI et NITE &lt;br /&gt;
*Installation des dépendances requises pour installer OpenNI, PrimesSense et NITE d'après les README&lt;br /&gt;
*Compilation des sources&lt;br /&gt;
*Essais de compilation de quelques samples en java pour reconnaitre une personne ou une main&lt;br /&gt;
**Erreurs dans la compilation =&amp;gt; Manque de fichiers JAR ?&lt;br /&gt;
&lt;br /&gt;
==== Séance du 13/02/2012 ====&lt;br /&gt;
&lt;br /&gt;
*Installation terminé, la Kinect fonctionne et est reconnue.&lt;br /&gt;
*Installation de SensorKinect à la place de PrimeSense Sensor qui n’était pas le driver associé à la kinect (avin2-SensorKinect-faf4994)&lt;br /&gt;
*Test des samplesfournis avec OpenNi &lt;br /&gt;
&lt;br /&gt;
==== Séance du 15/02/2012 ====&lt;br /&gt;
&lt;br /&gt;
*Création d'un makefile pour compiler nos projet cpp&lt;br /&gt;
*Prise en main de Simpleread (profondeur, largeur, hauteur)&lt;br /&gt;
*Développement d'un petit soft &amp;quot;salut ça va&amp;quot; en fonction juste de la position en x,y,z qui marche entre  500 et 800 mm de profondeur&lt;br /&gt;
   (en dirigeant la main en haut à gauche, le terminal affiche &amp;quot;Salut !&amp;quot;, en dirigeant la main en haut à droite, le terminal affiche&amp;quot;ca va&amp;quot;)&lt;br /&gt;
&lt;br /&gt;
==== Séance du 20/02/2012 ====&lt;br /&gt;
&lt;br /&gt;
*Récupération du projet de l'an passé ainsi que le rapport rapport de l’an dernier&lt;br /&gt;
*Installation de librairie SDL&lt;br /&gt;
*Modification du Makefile afin de pouvoir compiler le projet sur un PC&lt;br /&gt;
*Test du programme =&amp;gt; fonctionne mis à part petit problème de résolution sur l’image d’instruction&lt;br /&gt;
*Regarder les exemples de NITE =&amp;gt; rien de concluant pour le moment&lt;br /&gt;
*Sur le projet de l’an dernier =&amp;gt; pas forcément besoin de psy pose pour calibration mais calibration néanmoins nécéssaire.&lt;br /&gt;
&lt;br /&gt;
==== Séance du 22/02/2012 ====&lt;br /&gt;
&lt;br /&gt;
*Résolution du problème d'affichage du programme de l’ancien projet, test du programme.&lt;br /&gt;
*Calibration automatique avec la nouvelle version de nite (doc, sans “psi” pose)&lt;br /&gt;
? comment intégrer Player-sample au projet ?&lt;br /&gt;
&lt;br /&gt;
==== Séance du 07/03/2012 ====&lt;br /&gt;
&lt;br /&gt;
*Réinstallation compléte de OpenNi, Nite, KinectSensor, ainsi que leurs dépendances respectives et des librairies nécessaires à l'ancien projet car changement d'ordinateur...&lt;br /&gt;
*Problème pour lancer les Sample de OpenNi : &lt;br /&gt;
''Open failed: Failed to set USB interface!&lt;br /&gt;
Press any key to continue . . .''&lt;br /&gt;
&lt;br /&gt;
  Résolution : rmmod gspca_kinect &lt;br /&gt;
&lt;br /&gt;
*Création du Makefile pour déveloper avec Nite (Makefile à executer dans Sample Tests du dossier de Nite)&lt;br /&gt;
*Aucune idée sur comment aborder l'intégration de NITE au projet de l'an dernier...&lt;br /&gt;
&lt;br /&gt;
==== Séance du 12/03/2012 ====&lt;br /&gt;
&lt;br /&gt;
*Fonction pour sauvegarder et charger des squelette vers / depuis un fichier trouvée et en attente de test faute de kinect accessible.&lt;br /&gt;
&lt;br /&gt;
==== Séance du 14/03/2012 ====&lt;br /&gt;
&lt;br /&gt;
*Ajout de la fonction permettant de sauvegarder un squelette&lt;br /&gt;
*La fonction de chargement d’un fichier de squelette nous retourne une erreur :&lt;br /&gt;
    Function was not implemented!&lt;br /&gt;
&lt;br /&gt;
=== Résultats ===&lt;/div&gt;</summary>
		<author><name>Fsueur</name></author>	</entry>

	<entry>
		<id>https://projets-ima.plil.fr/mediawiki/index.php?title=Kinect2012&amp;diff=1751</id>
		<title>Kinect2012</title>
		<link rel="alternate" type="text/html" href="https://projets-ima.plil.fr/mediawiki/index.php?title=Kinect2012&amp;diff=1751"/>
				<updated>2012-03-14T17:47:15Z</updated>
		
		<summary type="html">&lt;p&gt;Fsueur : /* Séances */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;= Liste du matériel =&lt;br /&gt;
&lt;br /&gt;
== Présent == &lt;br /&gt;
&lt;br /&gt;
&amp;lt;ul&amp;gt;&lt;br /&gt;
   &amp;lt;li&amp;gt;Kinect&amp;lt;/li&amp;gt;&lt;br /&gt;
&amp;lt;/ul&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== A acheter ==&lt;br /&gt;
&lt;br /&gt;
= Présentation =&lt;br /&gt;
&lt;br /&gt;
Ce projet a pour objectif de mettre en place un système de choix d'appareil en espace commercial. Il s'agit, sur la base d'un système existant, d'améliorer le système de sélection des produits afin de le rendre plus ergonomique, de pouvoir le paramétrer plus simplement (par un vendeur), eventuellement d'augmenter le nombre de gestes reconnaissable. La situation d'usage pressentie est une catégorie de vente de produits difficilement déplacable par un client, pour des raisons de poids (par exemple un appareil de musculation) ou de taille (par exemple une tente).&lt;br /&gt;
&lt;br /&gt;
== Avancement du projet==&lt;br /&gt;
&lt;br /&gt;
=== Objectifs suggérés par les encadrants ===&lt;br /&gt;
&lt;br /&gt;
*Objectif principal : Améliorer un dispositif de sélection d'articles par gestes&lt;br /&gt;
&lt;br /&gt;
* Objectifs détaillés : &lt;br /&gt;
**Passer à la nouvelle version du SDK&lt;br /&gt;
**Enlever la calibration du squelette&lt;br /&gt;
**Interface pour un utilisateur lambda&lt;br /&gt;
&lt;br /&gt;
=== Réalisations concrètes ===&lt;br /&gt;
&lt;br /&gt;
=== Séances ===&lt;br /&gt;
&lt;br /&gt;
==== Séance du 08/02/2012 ==== &lt;br /&gt;
*Récupération des sources stables de OpenNI,PrimeSense Sensor Module for OpenNI et NITE &lt;br /&gt;
*Installation des dépendances requises pour installer OpenNI, PrimesSense et NITE d'après les README&lt;br /&gt;
*Compilation des sources&lt;br /&gt;
*Essais de compilation de quelques samples en java pour reconnaitre une personne ou une main&lt;br /&gt;
**Erreurs dans la compilation =&amp;gt; Manque de fichiers JAR ?&lt;br /&gt;
&lt;br /&gt;
==== Séance du 13/02/2012 ====&lt;br /&gt;
&lt;br /&gt;
*Installation terminé, la Kinect fonctionne et est reconnue.&lt;br /&gt;
*Installation de SensorKinect à la place de PrimeSense Sensor qui n’était pas le driver associé à la kinect (avin2-SensorKinect-faf4994)&lt;br /&gt;
*Test des samplesfournis avec OpenNi &lt;br /&gt;
&lt;br /&gt;
==== Séance du 15/02/2012 ====&lt;br /&gt;
&lt;br /&gt;
*Création d'un makefile pour compiler nos projet cpp&lt;br /&gt;
*Prise en main de Simpleread (profondeur, largeur, hauteur)&lt;br /&gt;
*Développement d'un petit soft &amp;quot;salut ça va&amp;quot; en fonction juste de la position en x,y,z qui marche entre  500 et 800 mm de profondeur&lt;br /&gt;
   (en dirigeant la main en haut à gauche, le terminal affiche &amp;quot;Salut !&amp;quot;, en dirigeant la main en haut à droite, le terminal affiche&amp;quot;ca va&amp;quot;)&lt;br /&gt;
&lt;br /&gt;
==== Séance du 20/02/2012 ====&lt;br /&gt;
&lt;br /&gt;
*Récupération du projet de l'an passé ainsi que le rapport rapport de l’an dernier&lt;br /&gt;
*Installation de librairie SDL&lt;br /&gt;
*Modification du Makefile afin de pouvoir compiler le projet sur un PC&lt;br /&gt;
*Test du programme =&amp;gt; fonctionne mis à part petit problème de résolution sur l’image d’instruction&lt;br /&gt;
*Regarder les exemples de NITE =&amp;gt; rien de concluant pour le moment&lt;br /&gt;
*Sur le projet de l’an dernier =&amp;gt; pas forcément besoin de psy pose pour calibration mais calibration néanmoins nécéssaire.&lt;br /&gt;
&lt;br /&gt;
==== Séance du 22/02/2012 ====&lt;br /&gt;
&lt;br /&gt;
*Résolution du problème d'affichage du programme de l’ancien projet, test du programme.&lt;br /&gt;
*Calibration automatique avec la nouvelle version de nite (doc, sans “psi” pose)&lt;br /&gt;
? comment intégrer Player-sample au projet ?&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==== Séance du 07/03/2012 ====&lt;br /&gt;
&lt;br /&gt;
*Réinstallation compléte de OpenNi, Nite, KinectSensor, ainsi que leurs dépendances respectives et des librairies nécessaires à l'ancien projet car changement d'ordinateur...&lt;br /&gt;
*Problème pour lancer les Sample de OpenNi : &lt;br /&gt;
''Open failed: Failed to set USB interface!&lt;br /&gt;
Press any key to continue . . .''&lt;br /&gt;
&lt;br /&gt;
  Résolution : rmmod gspca_kinect &lt;br /&gt;
&lt;br /&gt;
*Création du Makefile pour déveloper avec Nite (Makefile à executer dans Sample Tests du dossier de Nite)&lt;br /&gt;
*Aucune idée sur comment aborder l'intégration de NITE au projet de l'an dernier...&lt;br /&gt;
&lt;br /&gt;
==== Séance du 12/03/2012 ====&lt;br /&gt;
&lt;br /&gt;
*Fonction pour sauvegarder et charger des squelette vers / depuis un fichier trouvée et en attente de test faute de kinect accessible.&lt;br /&gt;
&lt;br /&gt;
==== Séance du 14/03/2012 ====&lt;br /&gt;
&lt;br /&gt;
*Ajout de la fonction permettant de sauvegarder un squelette&lt;br /&gt;
*La fonction de chargement d’un fichier de squelette nous retourne une erreur :&lt;br /&gt;
    Function was not implemented!&lt;br /&gt;
&lt;br /&gt;
=== Résultats ===&lt;/div&gt;</summary>
		<author><name>Fsueur</name></author>	</entry>

	<entry>
		<id>https://projets-ima.plil.fr/mediawiki/index.php?title=Kinect2012&amp;diff=1693</id>
		<title>Kinect2012</title>
		<link rel="alternate" type="text/html" href="https://projets-ima.plil.fr/mediawiki/index.php?title=Kinect2012&amp;diff=1693"/>
				<updated>2012-03-07T18:59:55Z</updated>
		
		<summary type="html">&lt;p&gt;Fsueur : /* Séance du 07/03 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;= Liste du matériel =&lt;br /&gt;
&lt;br /&gt;
== Présent == &lt;br /&gt;
&lt;br /&gt;
&amp;lt;ul&amp;gt;&lt;br /&gt;
   &amp;lt;li&amp;gt;Kinect&amp;lt;/li&amp;gt;&lt;br /&gt;
&amp;lt;/ul&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== A acheter ==&lt;br /&gt;
&lt;br /&gt;
= Présentation =&lt;br /&gt;
&lt;br /&gt;
Ce projet a pour objectif de mettre en place un système de choix d'appareil en espace commercial. Il s'agit, sur la base d'un système existant, d'améliorer le système de sélection des produits afin de le rendre plus ergonomique, de pouvoir le paramétrer plus simplement (par un vendeur), eventuellement d'augmenter le nombre de gestes reconnaissable. La situation d'usage pressentie est une catégorie de vente de produits difficilement déplacable par un client, pour des raisons de poids (par exemple un appareil de musculation) ou de taille (par exemple une tente).&lt;br /&gt;
&lt;br /&gt;
== Avancement du projet==&lt;br /&gt;
&lt;br /&gt;
=== Objectifs suggérés par les encadrants ===&lt;br /&gt;
&lt;br /&gt;
*Objectif principal : Améliorer un dispositif de sélection d'articles par gestes&lt;br /&gt;
&lt;br /&gt;
* Objectifs détaillés : &lt;br /&gt;
**Passer à la nouvelle version du SDK&lt;br /&gt;
**Enlever la calibration du squelette&lt;br /&gt;
**Interface pour un utilisateur lambda&lt;br /&gt;
&lt;br /&gt;
=== Réalisations concrètes ===&lt;br /&gt;
&lt;br /&gt;
=== Séances ===&lt;br /&gt;
&lt;br /&gt;
==== Séance du 08/02/2012 ==== &lt;br /&gt;
*Récupération des sources stables de OpenNI,PrimeSense Sensor Module for OpenNI et NITE &lt;br /&gt;
*Installation des dépendances requises pour installer OpenNI, PrimesSense et NITE d'après les README&lt;br /&gt;
*Compilation des sources&lt;br /&gt;
*Essais de compilation de quelques samples en java pour reconnaitre une personne ou une main&lt;br /&gt;
**Erreurs dans la compilation =&amp;gt; Manque de fichiers JAR ?&lt;br /&gt;
&lt;br /&gt;
==== Séance du 13/02/2012 ====&lt;br /&gt;
&lt;br /&gt;
*Installation terminé, la Kinect fonctionne et est reconnue.&lt;br /&gt;
*Installation de SensorKinect à la place de PrimeSense Sensor qui n’était pas le driver associé à la kinect (avin2-SensorKinect-faf4994)&lt;br /&gt;
*Test des samplesfournis avec OpenNi &lt;br /&gt;
&lt;br /&gt;
==== Séance du 15/02/2012 ====&lt;br /&gt;
&lt;br /&gt;
*Création d'un makefile pour compiler nos projet cpp&lt;br /&gt;
*Prise en main de Simpleread (profondeur, largeur, hauteur)&lt;br /&gt;
*Développement d'un petit soft &amp;quot;salut ça va&amp;quot; en fonction juste de la position en x,y,z qui marche entre  500 et 800 mm de profondeur&lt;br /&gt;
   (en dirigeant la main en haut à gauche, le terminal affiche &amp;quot;Salut !&amp;quot;, en dirigeant la main en haut à droite, le terminal affiche&amp;quot;ca va&amp;quot;)&lt;br /&gt;
&lt;br /&gt;
==== Séance du 20/02/2012 ====&lt;br /&gt;
&lt;br /&gt;
*Récupération du projet de l'an passé ainsi que le rapport rapport de l’an dernier&lt;br /&gt;
*Installation de librairie SDL&lt;br /&gt;
*Modification du Makefile afin de pouvoir compiler le projet sur un PC&lt;br /&gt;
*Test du programme =&amp;gt; fonctionne mis à part petit problème de résolution sur l’image d’instruction&lt;br /&gt;
*Regarder les exemples de NITE =&amp;gt; rien de concluant pour le moment&lt;br /&gt;
*Sur le projet de l’an dernier =&amp;gt; pas forcément besoin de psy pose pour calibration mais calibration néanmoins nécéssaire.&lt;br /&gt;
&lt;br /&gt;
==== Séance du 22/02/2012 ====&lt;br /&gt;
&lt;br /&gt;
*Résolution du problème d'affichage du programme de l’ancien projet, test du programme.&lt;br /&gt;
*Calibration automatique avec la nouvelle version de nite (doc, sans “psi” pose)&lt;br /&gt;
? comment intégrer Player-sample au projet ?&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==== Séance du 07/03/2012 ====&lt;br /&gt;
&lt;br /&gt;
*Réinstallation compléte de OpenNi, Nite, KinectSensor, ainsi que leurs dépendances respectives et des librairies nécessaires à l'ancien projet car changement d'ordinateur...&lt;br /&gt;
*Problème pour lancer les Sample de OpenNi : &lt;br /&gt;
''Open failed: Failed to set USB interface!&lt;br /&gt;
Press any key to continue . . .''&lt;br /&gt;
&lt;br /&gt;
  Résolution : rmmod gspca_kinect &lt;br /&gt;
&lt;br /&gt;
*Création du Makefile pour déveloper avec Nite (Makefile à executer dans Sample Tests du dossier de Nite)&lt;br /&gt;
*Aucune idée sur comment aborder l'intégration de NITE au projet de l'an dernier...&lt;br /&gt;
&lt;br /&gt;
=== Résultats ===&lt;/div&gt;</summary>
		<author><name>Fsueur</name></author>	</entry>

	<entry>
		<id>https://projets-ima.plil.fr/mediawiki/index.php?title=Kinect2012&amp;diff=1692</id>
		<title>Kinect2012</title>
		<link rel="alternate" type="text/html" href="https://projets-ima.plil.fr/mediawiki/index.php?title=Kinect2012&amp;diff=1692"/>
				<updated>2012-03-07T18:57:44Z</updated>
		
		<summary type="html">&lt;p&gt;Fsueur : /* Séance du 07/03 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;= Liste du matériel =&lt;br /&gt;
&lt;br /&gt;
== Présent == &lt;br /&gt;
&lt;br /&gt;
&amp;lt;ul&amp;gt;&lt;br /&gt;
   &amp;lt;li&amp;gt;Kinect&amp;lt;/li&amp;gt;&lt;br /&gt;
&amp;lt;/ul&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== A acheter ==&lt;br /&gt;
&lt;br /&gt;
= Présentation =&lt;br /&gt;
&lt;br /&gt;
Ce projet a pour objectif de mettre en place un système de choix d'appareil en espace commercial. Il s'agit, sur la base d'un système existant, d'améliorer le système de sélection des produits afin de le rendre plus ergonomique, de pouvoir le paramétrer plus simplement (par un vendeur), eventuellement d'augmenter le nombre de gestes reconnaissable. La situation d'usage pressentie est une catégorie de vente de produits difficilement déplacable par un client, pour des raisons de poids (par exemple un appareil de musculation) ou de taille (par exemple une tente).&lt;br /&gt;
&lt;br /&gt;
== Avancement du projet==&lt;br /&gt;
&lt;br /&gt;
=== Objectifs suggérés par les encadrants ===&lt;br /&gt;
&lt;br /&gt;
*Objectif principal : Améliorer un dispositif de sélection d'articles par gestes&lt;br /&gt;
&lt;br /&gt;
* Objectifs détaillés : &lt;br /&gt;
**Passer à la nouvelle version du SDK&lt;br /&gt;
**Enlever la calibration du squelette&lt;br /&gt;
**Interface pour un utilisateur lambda&lt;br /&gt;
&lt;br /&gt;
=== Réalisations concrètes ===&lt;br /&gt;
&lt;br /&gt;
=== Séances ===&lt;br /&gt;
&lt;br /&gt;
==== Séance du 08/02/2012 ==== &lt;br /&gt;
*Récupération des sources stables de OpenNI,PrimeSense Sensor Module for OpenNI et NITE &lt;br /&gt;
*Installation des dépendances requises pour installer OpenNI, PrimesSense et NITE d'après les README&lt;br /&gt;
*Compilation des sources&lt;br /&gt;
*Essais de compilation de quelques samples en java pour reconnaitre une personne ou une main&lt;br /&gt;
**Erreurs dans la compilation =&amp;gt; Manque de fichiers JAR ?&lt;br /&gt;
&lt;br /&gt;
==== Séance du 13/02/2012 ====&lt;br /&gt;
&lt;br /&gt;
*Installation terminé, la Kinect fonctionne et est reconnue.&lt;br /&gt;
*Installation de SensorKinect à la place de PrimeSense Sensor qui n’était pas le driver associé à la kinect (avin2-SensorKinect-faf4994)&lt;br /&gt;
*Test des samplesfournis avec OpenNi &lt;br /&gt;
&lt;br /&gt;
==== Séance du 15/02/2012 ====&lt;br /&gt;
&lt;br /&gt;
*Création d'un makefile pour compiler nos projet cpp&lt;br /&gt;
*Prise en main de Simpleread (profondeur, largeur, hauteur)&lt;br /&gt;
*Développement d'un petit soft &amp;quot;salut ça va&amp;quot; en fonction juste de la position en x,y,z qui marche entre  500 et 800 mm de profondeur&lt;br /&gt;
   (en dirigeant la main en haut à gauche, le terminal affiche &amp;quot;Salut !&amp;quot;, en dirigeant la main en haut à droite, le terminal affiche&amp;quot;ca va&amp;quot;)&lt;br /&gt;
&lt;br /&gt;
==== Séance du 20/02/2012 ====&lt;br /&gt;
&lt;br /&gt;
*Récupération du projet de l'an passé ainsi que le rapport rapport de l’an dernier&lt;br /&gt;
*Installation de librairie SDL&lt;br /&gt;
*Modification du Makefile afin de pouvoir compiler le projet sur un PC&lt;br /&gt;
*Test du programme =&amp;gt; fonctionne mis à part petit problème de résolution sur l’image d’instruction&lt;br /&gt;
*Regarder les exemples de NITE =&amp;gt; rien de concluant pour le moment&lt;br /&gt;
*Sur le projet de l’an dernier =&amp;gt; pas forcément besoin de psy pose pour calibration mais calibration néanmoins nécéssaire.&lt;br /&gt;
&lt;br /&gt;
==== Séance du 22/02/2012 ====&lt;br /&gt;
&lt;br /&gt;
*Résolution du problème d'affichage du programme de l’ancien projet, test du programme.&lt;br /&gt;
*Calibration automatique avec la nouvelle version de nite (doc, sans “psi” pose)&lt;br /&gt;
? comment intégrer Player-sample au projet ?&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==== Séance du 07/03 ====&lt;br /&gt;
&lt;br /&gt;
Réinstallation compléte de OpenNi, Nite, KinectSensor, ainsi que leurs dépendances respectives et des librairies nécessaires à l'anciean projet car changement d'ordinateur...&lt;br /&gt;
*Problème pour lancer les Sample de OpenNi : &lt;br /&gt;
''Open failed: Failed to set USB interface!&lt;br /&gt;
Press any key to continue . . .''&lt;br /&gt;
&lt;br /&gt;
  Résolution : rmmod gspca_kinect &lt;br /&gt;
&lt;br /&gt;
*Création du Makefile pour déveloper avec Nite (Makefile à executer dans Sample Tests du dossier de Nite)&lt;br /&gt;
*Aucune idée sur comment aborder l'intégration de NITE au projet de l'an dernier...&lt;br /&gt;
&lt;br /&gt;
=== Résultats ===&lt;/div&gt;</summary>
		<author><name>Fsueur</name></author>	</entry>

	<entry>
		<id>https://projets-ima.plil.fr/mediawiki/index.php?title=Kinect2012&amp;diff=1691</id>
		<title>Kinect2012</title>
		<link rel="alternate" type="text/html" href="https://projets-ima.plil.fr/mediawiki/index.php?title=Kinect2012&amp;diff=1691"/>
				<updated>2012-03-07T18:57:06Z</updated>
		
		<summary type="html">&lt;p&gt;Fsueur : /* Première séance */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;= Liste du matériel =&lt;br /&gt;
&lt;br /&gt;
== Présent == &lt;br /&gt;
&lt;br /&gt;
&amp;lt;ul&amp;gt;&lt;br /&gt;
   &amp;lt;li&amp;gt;Kinect&amp;lt;/li&amp;gt;&lt;br /&gt;
&amp;lt;/ul&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== A acheter ==&lt;br /&gt;
&lt;br /&gt;
= Présentation =&lt;br /&gt;
&lt;br /&gt;
Ce projet a pour objectif de mettre en place un système de choix d'appareil en espace commercial. Il s'agit, sur la base d'un système existant, d'améliorer le système de sélection des produits afin de le rendre plus ergonomique, de pouvoir le paramétrer plus simplement (par un vendeur), eventuellement d'augmenter le nombre de gestes reconnaissable. La situation d'usage pressentie est une catégorie de vente de produits difficilement déplacable par un client, pour des raisons de poids (par exemple un appareil de musculation) ou de taille (par exemple une tente).&lt;br /&gt;
&lt;br /&gt;
== Avancement du projet==&lt;br /&gt;
&lt;br /&gt;
=== Objectifs suggérés par les encadrants ===&lt;br /&gt;
&lt;br /&gt;
*Objectif principal : Améliorer un dispositif de sélection d'articles par gestes&lt;br /&gt;
&lt;br /&gt;
* Objectifs détaillés : &lt;br /&gt;
**Passer à la nouvelle version du SDK&lt;br /&gt;
**Enlever la calibration du squelette&lt;br /&gt;
**Interface pour un utilisateur lambda&lt;br /&gt;
&lt;br /&gt;
=== Réalisations concrètes ===&lt;br /&gt;
&lt;br /&gt;
=== Séances ===&lt;br /&gt;
&lt;br /&gt;
==== Séance du 08/02/2012 ==== &lt;br /&gt;
*Récupération des sources stables de OpenNI,PrimeSense Sensor Module for OpenNI et NITE &lt;br /&gt;
*Installation des dépendances requises pour installer OpenNI, PrimesSense et NITE d'après les README&lt;br /&gt;
*Compilation des sources&lt;br /&gt;
*Essais de compilation de quelques samples en java pour reconnaitre une personne ou une main&lt;br /&gt;
**Erreurs dans la compilation =&amp;gt; Manque de fichiers JAR ?&lt;br /&gt;
&lt;br /&gt;
==== Séance du 13/02/2012 ====&lt;br /&gt;
&lt;br /&gt;
*Installation terminé, la Kinect fonctionne et est reconnue.&lt;br /&gt;
*Installation de SensorKinect à la place de PrimeSense Sensor qui n’était pas le driver associé à la kinect (avin2-SensorKinect-faf4994)&lt;br /&gt;
*Test des samplesfournis avec OpenNi &lt;br /&gt;
&lt;br /&gt;
==== Séance du 15/02/2012 ====&lt;br /&gt;
&lt;br /&gt;
*Création d'un makefile pour compiler nos projet cpp&lt;br /&gt;
*Prise en main de Simpleread (profondeur, largeur, hauteur)&lt;br /&gt;
*Développement d'un petit soft &amp;quot;salut ça va&amp;quot; en fonction juste de la position en x,y,z qui marche entre  500 et 800 mm de profondeur&lt;br /&gt;
   (en dirigeant la main en haut à gauche, le terminal affiche &amp;quot;Salut !&amp;quot;, en dirigeant la main en haut à droite, le terminal affiche&amp;quot;ca va&amp;quot;)&lt;br /&gt;
&lt;br /&gt;
==== Séance du 20/02/2012 ====&lt;br /&gt;
&lt;br /&gt;
*Récupération du projet de l'an passé ainsi que le rapport rapport de l’an dernier&lt;br /&gt;
*Installation de librairie SDL&lt;br /&gt;
*Modification du Makefile afin de pouvoir compiler le projet sur un PC&lt;br /&gt;
*Test du programme =&amp;gt; fonctionne mis à part petit problème de résolution sur l’image d’instruction&lt;br /&gt;
*Regarder les exemples de NITE =&amp;gt; rien de concluant pour le moment&lt;br /&gt;
*Sur le projet de l’an dernier =&amp;gt; pas forcément besoin de psy pose pour calibration mais calibration néanmoins nécéssaire.&lt;br /&gt;
&lt;br /&gt;
==== Séance du 22/02/2012 ====&lt;br /&gt;
&lt;br /&gt;
*Résolution du problème d'affichage du programme de l’ancien projet, test du programme.&lt;br /&gt;
*Calibration automatique avec la nouvelle version de nite (doc, sans “psi” pose)&lt;br /&gt;
? comment intégrer Player-sample au projet ?&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==== Séance du 07/03 ====&lt;br /&gt;
&lt;br /&gt;
Réinstallation compléte de OpenNi, Nite, KinectSensor, ainsi que leurs dépendances respectives et des librairies nécessaires à l'anciean projet car changement d'ordinateur...&lt;br /&gt;
*Problème pour lancer les Sample de OpenNi : &lt;br /&gt;
''Open failed: Failed to set USB interface!&lt;br /&gt;
Press any key to continue . . .''&lt;br /&gt;
&lt;br /&gt;
  Résolution : rmmod gspca_kinect &lt;br /&gt;
&lt;br /&gt;
*Création du Makefile pour déveloper avec Nite (Makefile à executer dans Sample Tests du dossier de Nite)&lt;br /&gt;
*Aucune idée pour aborder l'intégration de NITE au projet de l'an dernier...&lt;br /&gt;
&lt;br /&gt;
=== Résultats ===&lt;/div&gt;</summary>
		<author><name>Fsueur</name></author>	</entry>

	<entry>
		<id>https://projets-ima.plil.fr/mediawiki/index.php?title=Kinect2012&amp;diff=1589</id>
		<title>Kinect2012</title>
		<link rel="alternate" type="text/html" href="https://projets-ima.plil.fr/mediawiki/index.php?title=Kinect2012&amp;diff=1589"/>
				<updated>2012-02-08T22:25:38Z</updated>
		
		<summary type="html">&lt;p&gt;Fsueur : /* Première séance */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;= Liste du matériel =&lt;br /&gt;
&lt;br /&gt;
== Présent == &lt;br /&gt;
&lt;br /&gt;
&amp;lt;ul&amp;gt;&lt;br /&gt;
   &amp;lt;li&amp;gt;Kinect&amp;lt;/li&amp;gt;&lt;br /&gt;
&amp;lt;/ul&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== A acheter ==&lt;br /&gt;
&lt;br /&gt;
= Présentation =&lt;br /&gt;
&lt;br /&gt;
Ce projet s'incrit en collaboration avec Oxylane (branche recherche et développement de Décathlon) pour mettre en place un système de choix d'appareil en espace commercial. Il s'agit, sur la base d'un système existant, d'améliorer le système de sélection des produits afin de le rendre plus ergonomique, de pouvoir le paramétrer plus simplement (par un vendeur), eventuellement d'augmenter le nombre de gestes reconnaissable. La situation d'usage pressentie est une catégorie de vente de produitsvdifficilement déplacable par un client, pour des raisons de poids (par exemple un appareil de musculation) ou de taille (par exemple une tente).&lt;br /&gt;
&lt;br /&gt;
== Avancement du projet==&lt;br /&gt;
&lt;br /&gt;
=== Objectifs suggérés par les encadrants ===&lt;br /&gt;
&lt;br /&gt;
*Objectif principal : Améliorer un dispositif de sélection d'articles par gestes&lt;br /&gt;
&lt;br /&gt;
* Objectifs détaillés : &lt;br /&gt;
**Passer à la nouvelle version du SDK&lt;br /&gt;
**Enlever la calibration du squelette&lt;br /&gt;
**Interface pour un utilisateur lambda&lt;br /&gt;
&lt;br /&gt;
=== Réalisations concrètes ===&lt;br /&gt;
&lt;br /&gt;
=== Séances ===&lt;br /&gt;
&lt;br /&gt;
==== Première séance ==== &lt;br /&gt;
''Le 08/02/2012''&lt;br /&gt;
*Récupération des sources stables de OpenNI,PrimeSense Sensor Module for OpenNI et NITE &lt;br /&gt;
*Installation des dépendances requises pour installer OpenNI, PrimesSense et NITE d'après les README&lt;br /&gt;
*Compilation des sources&lt;br /&gt;
*Essais de compilation de quelques samples en java pour reconnaitre une personne ou une main&lt;br /&gt;
**Erreurs dans la compilation =&amp;gt; Manque de fichiers JAR ?&lt;br /&gt;
&lt;br /&gt;
=== Résultats ===&lt;/div&gt;</summary>
		<author><name>Fsueur</name></author>	</entry>

	<entry>
		<id>https://projets-ima.plil.fr/mediawiki/index.php?title=Kinect2012&amp;diff=1588</id>
		<title>Kinect2012</title>
		<link rel="alternate" type="text/html" href="https://projets-ima.plil.fr/mediawiki/index.php?title=Kinect2012&amp;diff=1588"/>
				<updated>2012-02-08T22:25:06Z</updated>
		
		<summary type="html">&lt;p&gt;Fsueur : /* Première séance */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;= Liste du matériel =&lt;br /&gt;
&lt;br /&gt;
== Présent == &lt;br /&gt;
&lt;br /&gt;
&amp;lt;ul&amp;gt;&lt;br /&gt;
   &amp;lt;li&amp;gt;Kinect&amp;lt;/li&amp;gt;&lt;br /&gt;
&amp;lt;/ul&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== A acheter ==&lt;br /&gt;
&lt;br /&gt;
= Présentation =&lt;br /&gt;
&lt;br /&gt;
Ce projet s'incrit en collaboration avec Oxylane (branche recherche et développement de Décathlon) pour mettre en place un système de choix d'appareil en espace commercial. Il s'agit, sur la base d'un système existant, d'améliorer le système de sélection des produits afin de le rendre plus ergonomique, de pouvoir le paramétrer plus simplement (par un vendeur), eventuellement d'augmenter le nombre de gestes reconnaissable. La situation d'usage pressentie est une catégorie de vente de produitsvdifficilement déplacable par un client, pour des raisons de poids (par exemple un appareil de musculation) ou de taille (par exemple une tente).&lt;br /&gt;
&lt;br /&gt;
== Avancement du projet==&lt;br /&gt;
&lt;br /&gt;
=== Objectifs suggérés par les encadrants ===&lt;br /&gt;
&lt;br /&gt;
*Objectif principal : Améliorer un dispositif de sélection d'articles par gestes&lt;br /&gt;
&lt;br /&gt;
* Objectifs détaillés : &lt;br /&gt;
**Passer à la nouvelle version du SDK&lt;br /&gt;
**Enlever la calibration du squelette&lt;br /&gt;
**Interface pour un utilisateur lambda&lt;br /&gt;
&lt;br /&gt;
=== Réalisations concrètes ===&lt;br /&gt;
&lt;br /&gt;
=== Séances ===&lt;br /&gt;
&lt;br /&gt;
==== Première séance ==== &lt;br /&gt;
''Le 08/02/2012''&lt;br /&gt;
*Récupération des sources stables de OpenNI,PrimeSense Sensor Module for OpenNI et NITE &lt;br /&gt;
*Installation des dépendances requises pour installer OpenNI, PrimesSense et NITE d'après les README&lt;br /&gt;
*Compilation des sources&lt;br /&gt;
*Compilation d'un sample en java pour reconnaitre une personne ou une main&lt;br /&gt;
**Erreurs dans la compilation =&amp;gt; Manque de fichiers JAR ?&lt;br /&gt;
&lt;br /&gt;
=== Résultats ===&lt;/div&gt;</summary>
		<author><name>Fsueur</name></author>	</entry>

	<entry>
		<id>https://projets-ima.plil.fr/mediawiki/index.php?title=Kinect2012&amp;diff=1587</id>
		<title>Kinect2012</title>
		<link rel="alternate" type="text/html" href="https://projets-ima.plil.fr/mediawiki/index.php?title=Kinect2012&amp;diff=1587"/>
				<updated>2012-02-08T22:24:36Z</updated>
		
		<summary type="html">&lt;p&gt;Fsueur : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;= Liste du matériel =&lt;br /&gt;
&lt;br /&gt;
== Présent == &lt;br /&gt;
&lt;br /&gt;
&amp;lt;ul&amp;gt;&lt;br /&gt;
   &amp;lt;li&amp;gt;Kinect&amp;lt;/li&amp;gt;&lt;br /&gt;
&amp;lt;/ul&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== A acheter ==&lt;br /&gt;
&lt;br /&gt;
= Présentation =&lt;br /&gt;
&lt;br /&gt;
Ce projet s'incrit en collaboration avec Oxylane (branche recherche et développement de Décathlon) pour mettre en place un système de choix d'appareil en espace commercial. Il s'agit, sur la base d'un système existant, d'améliorer le système de sélection des produits afin de le rendre plus ergonomique, de pouvoir le paramétrer plus simplement (par un vendeur), eventuellement d'augmenter le nombre de gestes reconnaissable. La situation d'usage pressentie est une catégorie de vente de produitsvdifficilement déplacable par un client, pour des raisons de poids (par exemple un appareil de musculation) ou de taille (par exemple une tente).&lt;br /&gt;
&lt;br /&gt;
== Avancement du projet==&lt;br /&gt;
&lt;br /&gt;
=== Objectifs suggérés par les encadrants ===&lt;br /&gt;
&lt;br /&gt;
*Objectif principal : Améliorer un dispositif de sélection d'articles par gestes&lt;br /&gt;
&lt;br /&gt;
* Objectifs détaillés : &lt;br /&gt;
**Passer à la nouvelle version du SDK&lt;br /&gt;
**Enlever la calibration du squelette&lt;br /&gt;
**Interface pour un utilisateur lambda&lt;br /&gt;
&lt;br /&gt;
=== Réalisations concrètes ===&lt;br /&gt;
&lt;br /&gt;
=== Séances ===&lt;br /&gt;
&lt;br /&gt;
==== Première séance ==== &lt;br /&gt;
''Le 08/02/2012''&lt;br /&gt;
*Récupération des sources stables de OpenNI,PrimeSense Sensor Module for OpenNI et NITE &lt;br /&gt;
*Installation des dépendances requises pour installer OpenNI, PrimesSense et NITE d'après les README&lt;br /&gt;
*Compilation des sources&lt;br /&gt;
*Compilation d'un sample en java pour reconnaitre une personne ou une main&lt;br /&gt;
**Erreurs dans la compilation =&amp;gt; Manque de fichier JAR ?&lt;br /&gt;
&lt;br /&gt;
=== Résultats ===&lt;/div&gt;</summary>
		<author><name>Fsueur</name></author>	</entry>

	<entry>
		<id>https://projets-ima.plil.fr/mediawiki/index.php?title=Kinect2012&amp;diff=1586</id>
		<title>Kinect2012</title>
		<link rel="alternate" type="text/html" href="https://projets-ima.plil.fr/mediawiki/index.php?title=Kinect2012&amp;diff=1586"/>
				<updated>2012-02-08T22:13:16Z</updated>
		
		<summary type="html">&lt;p&gt;Fsueur : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;= Liste du matériel =&lt;br /&gt;
&lt;br /&gt;
== Présent == &lt;br /&gt;
&lt;br /&gt;
&amp;lt;ul&amp;gt;&lt;br /&gt;
   &amp;lt;li&amp;gt;Kinect&amp;lt;/li&amp;gt;&lt;br /&gt;
&amp;lt;/ul&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== A acheter ==&lt;br /&gt;
&lt;br /&gt;
= Présentation =&lt;br /&gt;
&lt;br /&gt;
Ce projet s'incrit en collaboration avec Oxylane (branche recherche et développement de Décathlon) pour mettre en place un système de choix d'appareil en espace commercial. Il s'agit, sur la base d'un système existant, d'améliorer le système de sélection des produits afin de le rendre plus ergonomique, de pouvoir le paramétrer plus simplement (par un vendeur), eventuellement d'augmenter le nombre de gestes reconnaissable. La situation d'usage pressentie est une catégorie de vente de produitsvdifficilement déplacable par un client, pour des raisons de poids (par exemple un appareil de musculation) ou de taille (par exemple une tente).&lt;br /&gt;
&lt;br /&gt;
== Avancement du projet==&lt;br /&gt;
&lt;br /&gt;
=== Objectifs suggérés par les encadrants ===&lt;br /&gt;
&lt;br /&gt;
*Objectif principal : Améliorer un dispositif de sélection d'articles par gestes&lt;br /&gt;
&lt;br /&gt;
* Objectifs détaillés : &lt;br /&gt;
**&lt;br /&gt;
&lt;br /&gt;
=== Réalisations concrètes ===&lt;br /&gt;
&lt;br /&gt;
=== Séances ===&lt;br /&gt;
&lt;br /&gt;
==== Première séance ====&lt;br /&gt;
&lt;br /&gt;
=== Résultats ===&lt;/div&gt;</summary>
		<author><name>Fsueur</name></author>	</entry>

	<entry>
		<id>https://projets-ima.plil.fr/mediawiki/index.php?title=Kinect2012&amp;diff=1585</id>
		<title>Kinect2012</title>
		<link rel="alternate" type="text/html" href="https://projets-ima.plil.fr/mediawiki/index.php?title=Kinect2012&amp;diff=1585"/>
				<updated>2012-02-08T22:10:38Z</updated>
		
		<summary type="html">&lt;p&gt;Fsueur : /* Présentation */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;= Liste du matériel =&lt;br /&gt;
&lt;br /&gt;
== Présent == &lt;br /&gt;
&lt;br /&gt;
&amp;lt;ul&amp;gt;&lt;br /&gt;
   &amp;lt;li&amp;gt;Kinect&amp;lt;/li&amp;gt;&lt;br /&gt;
&amp;lt;/ul&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== A acheter ==&lt;br /&gt;
&lt;br /&gt;
= Présentation =&lt;br /&gt;
&lt;br /&gt;
Ce projet s'incrit en collaboration avec Oxylane (branche recherche et développement de Décathlon) pour mettre en place un système de choix d'appareil en espace commercial. Il s'agit, sur la base d'un système existant, d'améliorer le système de sélection des produits afin de le rendre plus ergonomique, de pouvoir le paramétrer plus simplement (par un vendeur), eventuellement d'augmenter le nombre de gestes reconnaissable. La situation d'usage pressentie est une catégorie de vente de produitsvdifficilement déplacable par un client, pour des raisons de poids (par exemple un appareil de musculation) ou de taille (par exemple une tente).&lt;br /&gt;
&lt;br /&gt;
== Avancement du projet==&lt;br /&gt;
&lt;br /&gt;
=== Objectifs suggérés par les encadrants ===&lt;br /&gt;
&lt;br /&gt;
=== Réalisations concrètes ===&lt;br /&gt;
&lt;br /&gt;
=== Séances ===&lt;br /&gt;
&lt;br /&gt;
==== Première séance ====&lt;br /&gt;
&lt;br /&gt;
=== Résultats ===&lt;/div&gt;</summary>
		<author><name>Fsueur</name></author>	</entry>

	<entry>
		<id>https://projets-ima.plil.fr/mediawiki/index.php?title=Kinect2012&amp;diff=1584</id>
		<title>Kinect2012</title>
		<link rel="alternate" type="text/html" href="https://projets-ima.plil.fr/mediawiki/index.php?title=Kinect2012&amp;diff=1584"/>
				<updated>2012-02-08T21:41:26Z</updated>
		
		<summary type="html">&lt;p&gt;Fsueur : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;= Liste du matériel =&lt;br /&gt;
&lt;br /&gt;
== Présent == &lt;br /&gt;
&lt;br /&gt;
&amp;lt;ul&amp;gt;&lt;br /&gt;
   &amp;lt;li&amp;gt;Kinect&amp;lt;/li&amp;gt;&lt;br /&gt;
&amp;lt;/ul&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== A acheter ==&lt;br /&gt;
&lt;br /&gt;
= Présentation =&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Avancement du projet==&lt;br /&gt;
&lt;br /&gt;
=== Objectifs suggérés par les encadrants ===&lt;br /&gt;
&lt;br /&gt;
=== Réalisations concrètes ===&lt;br /&gt;
&lt;br /&gt;
=== Séances ===&lt;br /&gt;
&lt;br /&gt;
==== Première séance ====&lt;br /&gt;
&lt;br /&gt;
=== Résultats ===&lt;/div&gt;</summary>
		<author><name>Fsueur</name></author>	</entry>

	<entry>
		<id>https://projets-ima.plil.fr/mediawiki/index.php?title=Controle_de_sonar&amp;diff=1048</id>
		<title>Controle de sonar</title>
		<link rel="alternate" type="text/html" href="https://projets-ima.plil.fr/mediawiki/index.php?title=Controle_de_sonar&amp;diff=1048"/>
				<updated>2011-05-16T18:00:10Z</updated>
		
		<summary type="html">&lt;p&gt;Fsueur : /* Rapport */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;= Sujet =&lt;br /&gt;
&lt;br /&gt;
Le sujet se trouve à la page [http://rex.plil.fr/Enseignement/Systeme/Projet.IMA3/systeme009.html http://rex.plil.fr/Enseignement/Systeme/Projet.IMA3/systeme009.html]&lt;br /&gt;
&lt;br /&gt;
=Avancement du projet =&lt;br /&gt;
&lt;br /&gt;
==Première Séance (06/05/2011)==&lt;br /&gt;
&lt;br /&gt;
===Objectifs :=== &lt;br /&gt;
* établir le cahier des charges technique&lt;br /&gt;
* répartir les tâches au sein du binôme&lt;br /&gt;
* brainstorming&lt;br /&gt;
&lt;br /&gt;
===Réalisations concrètes :===&lt;br /&gt;
&lt;br /&gt;
* Tutoriel Altium effectué&lt;br /&gt;
* Elaboration du compteur mesurant le temps sous Altium&lt;br /&gt;
&lt;br /&gt;
==Deuxième Séance (11/05/2011)==&lt;br /&gt;
&lt;br /&gt;
===Objectifs :=== &lt;br /&gt;
* Continuer la partie électronique en résolvant les derniers problémes&lt;br /&gt;
* Commencer la partie informatique en élaborant la structure du programme et sous programmes&lt;br /&gt;
&lt;br /&gt;
===Réalisations concrètes :===&lt;br /&gt;
Partie informatique : &lt;br /&gt;
* Installation des librairies nécessaires pour piloter le servo moteur&lt;br /&gt;
* Modification du programme c pour pouvoir entrer un angle en paramétre et ainsi placer le sonar à l'angle indiqué&lt;br /&gt;
* Création du site Web 2.0 avec un champ texte pour entrer un angle et placer le sonar au bon angle, grâce à une intéraction entre le javascript et le programme c précédemment créé.&lt;br /&gt;
&lt;br /&gt;
Partie électronique :&lt;br /&gt;
&lt;br /&gt;
== Troisième Séance (13/05/2011)==&lt;br /&gt;
&lt;br /&gt;
===Objectifs :=== &lt;br /&gt;
* Avant la séance, avancer la partie informatique en continuant sur le site web : &lt;br /&gt;
** Élaboration de la requête Ajax envoyée vers un script PHP qui récupère la distance mesurée par le sonar par scrutation et les renvoie vers la page Web 2.0(donnees.php)&lt;br /&gt;
** Élaboration de la page Affichage.php qui récupère une série de distance et un angle. Cette page utilise GD en affichant un cercle vert ainsi que les axes X et Y en coordonnées cartésienne&lt;br /&gt;
** Modification de la page Web 2.0 avec l'ajout un script sous javascript qui lance Affichage.php par une requête Ajax en ajoutant à l'adresse de l'url, les valeurs mesurées par le radar ainsi que l'angle associé&lt;br /&gt;
* Test de toutes les pages créées chez nous et résolution des bugs si nécessaire&lt;br /&gt;
===Réalisations concrètes :===&lt;br /&gt;
Partie informatique :&lt;br /&gt;
* Compilation du programme permettant de lire les données renvoyées par le sonar par la liaison série &lt;br /&gt;
* Modification des pages Web 2.0 et donnees.php pour récupérer les données du sonar&lt;br /&gt;
* Modification de la page Web 2.0 et affichage.php qui pour résoudre le problème de l'affiche de l'image permettant d'afficher la cible du radar qui ne s'affichait pas&lt;br /&gt;
&lt;br /&gt;
Malheureusement, afficher le point devant indiqué la distance de l'obstacle par rapport au sonar a été plus difficile que l'on ne pensait et faute de temps, nous n'avons pas réussi à finir cette partie.&lt;br /&gt;
&lt;br /&gt;
Partie électronique :&lt;br /&gt;
* Réalisation des différentes horloges utiles&lt;br /&gt;
* Création du signal pilotant le Module à ultrasons&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=Partie informatique =&lt;br /&gt;
* Machine utilisée : TUTUR01&lt;br /&gt;
* /home/pifou/sonar/ contient entre autre fileaccess2.c qui selon un angle fait faire une rotation au robot de l'angle en question&lt;br /&gt;
* /var/www contient :&lt;br /&gt;
**web2.html : Page principale Web 2.0&lt;br /&gt;
**prototype.js&lt;br /&gt;
**donnes.php&lt;br /&gt;
**affichage.php&lt;br /&gt;
&lt;br /&gt;
* Les commandes :&lt;br /&gt;
** su (mdp : glopglop) : Mode superutilisateur &lt;br /&gt;
** su www-data   : Permet de prendre l’identité de www-data&lt;br /&gt;
** /root/serie : permet de lancer la liaison série&lt;br /&gt;
&lt;br /&gt;
* lancer correctement la page Web 2.0 :&lt;br /&gt;
# su www-data&lt;br /&gt;
# /root/serie&lt;br /&gt;
# lancer un navigateur internet et lancer la page [http://localhost/web2.html http://localhost/web2.html]&lt;br /&gt;
# entrer un angle&lt;br /&gt;
# l'image de la distance se lance&lt;br /&gt;
&lt;br /&gt;
=Partie électronique =&lt;br /&gt;
* Réalisation  du bit de sortie permettant l'envois de l'octet&lt;br /&gt;
* Réalisation du rafraîchissement toutes les secondes&lt;br /&gt;
* Réalisation de la parte analogique + tests effectués&lt;br /&gt;
&lt;br /&gt;
Schéma :&lt;br /&gt;
[[Fichier:Schema.png]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
= Rapport =&lt;br /&gt;
I) Cahier des charges&lt;br /&gt;
&lt;br /&gt;
La carte FPGA mesure en permanence la distance avec l'obstacle le plus proche. La mesure de distance est basée sur la mesure du décalage entre l'émission d'un signal ultrason et sa réception, après rebond sur l'obstacle. La valeur de ce temps sera codée sur huit bits (1 octet). Le taux de rafraîchissement de la mesure sera fixé à 1 seconde. La vitesse du son sera considérée comme égale à 340 m/s.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
II) Résolution du CDC partie numérique&lt;br /&gt;
&lt;br /&gt;
	1)Les différentes horloges&lt;br /&gt;
&lt;br /&gt;
Nous avons décidé pour faciliter le câblage des différents composant du FPGA et de la propreté du signal de sortie de la partie analogique d’avoir une distance maximale de mesure de 1,80 m pour un mot de 254, en cas d’absence d’objet nous prendrons la valeur 255.&lt;br /&gt;
Ainsi nous avons les relations suivantes:&lt;br /&gt;
&lt;br /&gt;
                                  f=1/T&lt;br /&gt;
                                          &lt;br /&gt;
&lt;br /&gt;
                                  v=d/t&lt;br /&gt;
&lt;br /&gt;
                          D’où    t=d/v=(2×1,8)/340=10,588 ms&lt;br /&gt;
&lt;br /&gt;
Où t est le temps totale que met l’onde pour faire l’aller-retour à une distance de 1,80m  &lt;br /&gt;
Donc on a une résolution de (10,588×〖10〗^(-3))/255 =41.52 µs qui correspond a 7mm pour un bit d’écart&lt;br /&gt;
Ainsi on a la fréquence d’entrée du compteur 8 bits qui nous donnera le mot image de la distance.&lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
                               f=1/T=1/(41.52 µs )≈2400&lt;br /&gt;
&lt;br /&gt;
Nous allons donc divisé la fréquence par 2400 (U3, U4 et U6)&lt;br /&gt;
Les autres diviseurs (U7, U8, U13 et U14) sont présents pour avoir une période 40khz pour le signal d’entrée de la partie analogique pour le module à ultrasons. &lt;br /&gt;
Le compteur (U1) permet de diviser la fréquence pour avoir une période de 1s avec un petit temps à l’état haut.&lt;br /&gt;
&lt;br /&gt;
	2)liaison entre le MU et la nanobord&lt;br /&gt;
&lt;br /&gt;
Le compteur (U11) permet de compter le nombre de période envoyé au MU est de s’arrêter à dix grâce aux NANDs et ANDs (U10, U12 et U15) information appelé « fin  transmission »  puis repart dans un OR avec l’information de « réinitialisation nouvelle séquence » la sortie commande la remise a zéro du compteur mais aussi dans la commande de la bascule  JK qui commande le blocage du compteur &lt;br /&gt;
Table de vérité du blocage du compteur.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Tableverite.png]]&lt;br /&gt;
&lt;br /&gt;
Quand CE=1 alors le compteur est bloqué et arrête d’envoyer la transmission sinon il continu de compter. &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
J= Réinitialisation nouvelle séquence&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Fichier:Formule.png]]&lt;br /&gt;
&lt;br /&gt;
Le signal provenant de l’émetteur MU entre dans une bascule D qui sera remis à zéro lors de l’information « réinitialisation nouvelle séquence » et la sortie commandera le blocage du compteur qui donne l’image de la distance en pilotant le bit CE.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Fichier:Chronogramme.png]]&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
III) Résolution du CDC partie analogique&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
La partie analogique est divisée en deux parties :&lt;br /&gt;
-	L’émission du signal&lt;br /&gt;
-	La réception du signal&lt;br /&gt;
&lt;br /&gt;
1)	L’émission du signal&lt;br /&gt;
&lt;br /&gt;
Nous avons choisi de prendre un AOP en montage suiveur pour évité de demander trop de courant de la carte vers le MU (voir schéma)&lt;br /&gt;
&lt;br /&gt;
2)	La réception du signal&lt;br /&gt;
&lt;br /&gt;
Pour la réception du signal dans un premier temps le signal est d’abord amplifier grâce a un non inverseur avec un gain de 101 puis ce signal est comparé à une tension de 4V pour éliminer touts les parasites qui ont été trop amplifiés.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Analogique.png]]&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;/div&gt;</summary>
		<author><name>Fsueur</name></author>	</entry>

	<entry>
		<id>https://projets-ima.plil.fr/mediawiki/index.php?title=Controle_de_sonar&amp;diff=1019</id>
		<title>Controle de sonar</title>
		<link rel="alternate" type="text/html" href="https://projets-ima.plil.fr/mediawiki/index.php?title=Controle_de_sonar&amp;diff=1019"/>
				<updated>2011-05-15T15:34:59Z</updated>
		
		<summary type="html">&lt;p&gt;Fsueur : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;= Sujet =&lt;br /&gt;
&lt;br /&gt;
Le sujet se trouve à la page [http://rex.plil.fr/Enseignement/Systeme/Projet.IMA3/systeme009.html http://rex.plil.fr/Enseignement/Systeme/Projet.IMA3/systeme009.html]&lt;br /&gt;
&lt;br /&gt;
=Avancement du projet =&lt;br /&gt;
&lt;br /&gt;
==Première Séance (06/05/2011)==&lt;br /&gt;
&lt;br /&gt;
===Objectifs :=== &lt;br /&gt;
* établir le cahier des charges technique&lt;br /&gt;
* répartir les tâches au sein du binôme&lt;br /&gt;
* brainstorming&lt;br /&gt;
&lt;br /&gt;
===Réalisations concrètes :===&lt;br /&gt;
&lt;br /&gt;
* Tutoriel Altium effectué&lt;br /&gt;
* Elaboration du compteur mesurant le temps sous Altium&lt;br /&gt;
&lt;br /&gt;
==Deuxième Séance (11/05/2011)==&lt;br /&gt;
&lt;br /&gt;
===Objectifs :=== &lt;br /&gt;
* Continuer la partie électronique en résolvant les derniers problémes&lt;br /&gt;
* Commencer la partie informatique en élaborant la structure du programme et sous programmes&lt;br /&gt;
&lt;br /&gt;
===Réalisations concrètes :===&lt;br /&gt;
Partie informatique : &lt;br /&gt;
* Installation des librairies nécessaires pour piloter le servo moteur&lt;br /&gt;
* Modification du programme c pour pouvoir entrer un angle en paramétre et ainsi placer le sonar à l'angle indiqué&lt;br /&gt;
* Création du site Web 2.0 avec un champ texte pour entrer un angle et placer le sonar au bon angle, grâce à une intéraction entre le javascript et le programme c précédemment créé.&lt;br /&gt;
&lt;br /&gt;
Partie électronique :&lt;br /&gt;
&lt;br /&gt;
== Troisième Séance (13/05/2011)==&lt;br /&gt;
&lt;br /&gt;
===Objectifs :=== &lt;br /&gt;
* Avant la séance, avancer la partie informatique en continuant sur le site web : &lt;br /&gt;
** Élaboration de la requête Ajax envoyée vers un script PHP qui récupère la distance mesurée par le sonar par scrutation et les renvoie vers la page Web 2.0(donnees.php)&lt;br /&gt;
** Élaboration de la page Affichage.php qui récupère une série de distance et un angle. Cette page utilise GD en affichant un cercle vert ainsi que les axes X et Y en coordonnées cartésienne&lt;br /&gt;
** Modification de la page Web 2.0 avec l'ajout un script sous javascript qui lance Affichage.php par une requête Ajax en ajoutant à l'adresse de l'url, les valeurs mesurées par le radar ainsi que l'angle associé&lt;br /&gt;
* Test de toutes les pages créées chez nous et résolution des bugs si nécessaire&lt;br /&gt;
===Réalisations concrètes :===&lt;br /&gt;
Partie informatique :&lt;br /&gt;
* Compilation du programme permettant de lire les données renvoyées par le sonar par la liaison série &lt;br /&gt;
* Modification des pages Web 2.0 et donnees.php pour récupérer les données du sonar&lt;br /&gt;
* Modification de la page Web 2.0 et affichage.php qui pour résoudre le problème de l'affiche de l'image permettant d'afficher la cible du radar qui ne s'affichait pas&lt;br /&gt;
&lt;br /&gt;
Malheureusement, afficher le point devant indiqué la distance de l'obstacle par rapport au sonar a été plus difficile que l'on ne pensait et faute de temps, nous n'avons pas réussi à finir cette partie.&lt;br /&gt;
&lt;br /&gt;
Partie électronique :&lt;br /&gt;
&lt;br /&gt;
=Partie informatique =&lt;br /&gt;
* Machine utilisée : TUTUR01&lt;br /&gt;
* /home/pifou/sonar/ contient entre autre fileaccess2.c qui selon un angle fait faire une rotation au robot de l'angle en question&lt;br /&gt;
* /var/www contient :&lt;br /&gt;
**web2.html : Page principale Web 2.0&lt;br /&gt;
**prototype.js&lt;br /&gt;
**donnes.php&lt;br /&gt;
**affichage.php&lt;br /&gt;
&lt;br /&gt;
* Les commandes :&lt;br /&gt;
** su (mdp : glopglop) : Mode superutilisateur &lt;br /&gt;
** su www-data   : Permet de prendre l’identité de www-data&lt;br /&gt;
** /root/serie : permet de lancer la liaison série&lt;br /&gt;
&lt;br /&gt;
* lancer correctement la page Web 2.0 :&lt;br /&gt;
# su www-data&lt;br /&gt;
# /root/serie&lt;br /&gt;
# lancer un navigateur internet et lancer la page [http://localhost/web2.html http://localhost/web2.html]&lt;br /&gt;
# entrer un angle&lt;br /&gt;
# l'image de la distance se lance&lt;br /&gt;
&lt;br /&gt;
=Partie électronique =&lt;br /&gt;
Schéma :&lt;/div&gt;</summary>
		<author><name>Fsueur</name></author>	</entry>

	<entry>
		<id>https://projets-ima.plil.fr/mediawiki/index.php?title=Controle_de_sonar&amp;diff=1018</id>
		<title>Controle de sonar</title>
		<link rel="alternate" type="text/html" href="https://projets-ima.plil.fr/mediawiki/index.php?title=Controle_de_sonar&amp;diff=1018"/>
				<updated>2011-05-15T15:34:31Z</updated>
		
		<summary type="html">&lt;p&gt;Fsueur : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;= Sujet =&lt;br /&gt;
&lt;br /&gt;
Le sujet se trouve à la page [http://rex.plil.fr/Enseignement/Systeme/Projet.IMA3/systeme009.html]&lt;br /&gt;
&lt;br /&gt;
=Avancement du projet =&lt;br /&gt;
&lt;br /&gt;
==Première Séance (06/05/2011)==&lt;br /&gt;
&lt;br /&gt;
===Objectifs :=== &lt;br /&gt;
* établir le cahier des charges technique&lt;br /&gt;
* répartir les tâches au sein du binôme&lt;br /&gt;
* brainstorming&lt;br /&gt;
&lt;br /&gt;
===Réalisations concrètes :===&lt;br /&gt;
&lt;br /&gt;
* Tutoriel Altium effectué&lt;br /&gt;
* Elaboration du compteur mesurant le temps sous Altium&lt;br /&gt;
&lt;br /&gt;
==Deuxième Séance (11/05/2011)==&lt;br /&gt;
&lt;br /&gt;
===Objectifs :=== &lt;br /&gt;
* Continuer la partie électronique en résolvant les derniers problémes&lt;br /&gt;
* Commencer la partie informatique en élaborant la structure du programme et sous programmes&lt;br /&gt;
&lt;br /&gt;
===Réalisations concrètes :===&lt;br /&gt;
Partie informatique : &lt;br /&gt;
* Installation des librairies nécessaires pour piloter le servo moteur&lt;br /&gt;
* Modification du programme c pour pouvoir entrer un angle en paramétre et ainsi placer le sonar à l'angle indiqué&lt;br /&gt;
* Création du site Web 2.0 avec un champ texte pour entrer un angle et placer le sonar au bon angle, grâce à une intéraction entre le javascript et le programme c précédemment créé.&lt;br /&gt;
&lt;br /&gt;
Partie électronique :&lt;br /&gt;
&lt;br /&gt;
== Troisième Séance (13/05/2011)==&lt;br /&gt;
&lt;br /&gt;
===Objectifs :=== &lt;br /&gt;
* Avant la séance, avancer la partie informatique en continuant sur le site web : &lt;br /&gt;
** Élaboration de la requête Ajax envoyée vers un script PHP qui récupère la distance mesurée par le sonar par scrutation et les renvoie vers la page Web 2.0(donnees.php)&lt;br /&gt;
** Élaboration de la page Affichage.php qui récupère une série de distance et un angle. Cette page utilise GD en affichant un cercle vert ainsi que les axes X et Y en coordonnées cartésienne&lt;br /&gt;
** Modification de la page Web 2.0 avec l'ajout un script sous javascript qui lance Affichage.php par une requête Ajax en ajoutant à l'adresse de l'url, les valeurs mesurées par le radar ainsi que l'angle associé&lt;br /&gt;
* Test de toutes les pages créées chez nous et résolution des bugs si nécessaire&lt;br /&gt;
===Réalisations concrètes :===&lt;br /&gt;
Partie informatique :&lt;br /&gt;
* Compilation du programme permettant de lire les données renvoyées par le sonar par la liaison série &lt;br /&gt;
* Modification des pages Web 2.0 et donnees.php pour récupérer les données du sonar&lt;br /&gt;
* Modification de la page Web 2.0 et affichage.php qui pour résoudre le problème de l'affiche de l'image permettant d'afficher la cible du radar qui ne s'affichait pas&lt;br /&gt;
&lt;br /&gt;
Malheureusement, afficher le point devant indiqué la distance de l'obstacle par rapport au sonar a été plus difficile que l'on ne pensait et faute de temps, nous n'avons pas réussi à finir cette partie.&lt;br /&gt;
&lt;br /&gt;
Partie électronique :&lt;br /&gt;
&lt;br /&gt;
=Partie informatique =&lt;br /&gt;
* Machine utilisée : TUTUR01&lt;br /&gt;
* /home/pifou/sonar/ contient entre autre fileaccess2.c qui selon un angle fait faire une rotation au robot de l'angle en question&lt;br /&gt;
* /var/www contient :&lt;br /&gt;
**web2.html : Page principale Web 2.0&lt;br /&gt;
**prototype.js&lt;br /&gt;
**donnes.php&lt;br /&gt;
**affichage.php&lt;br /&gt;
&lt;br /&gt;
* Les commandes :&lt;br /&gt;
** su (mdp : glopglop) : Mode superutilisateur &lt;br /&gt;
** su www-data   : Permet de prendre l’identité de www-data&lt;br /&gt;
** /root/serie : permet de lancer la liaison série&lt;br /&gt;
&lt;br /&gt;
* lancer correctement la page Web 2.0 :&lt;br /&gt;
# su www-data&lt;br /&gt;
# /root/serie&lt;br /&gt;
# lancer un navigateur internet et lancer la page [http://localhost/web2.html http://localhost/web2.html]&lt;br /&gt;
# entrer un angle&lt;br /&gt;
# l'image de la distance se lance&lt;br /&gt;
&lt;br /&gt;
=Partie électronique =&lt;br /&gt;
Schéma :&lt;/div&gt;</summary>
		<author><name>Fsueur</name></author>	</entry>

	<entry>
		<id>https://projets-ima.plil.fr/mediawiki/index.php?title=Controle_de_sonar&amp;diff=1017</id>
		<title>Controle de sonar</title>
		<link rel="alternate" type="text/html" href="https://projets-ima.plil.fr/mediawiki/index.php?title=Controle_de_sonar&amp;diff=1017"/>
				<updated>2011-05-15T15:32:14Z</updated>
		
		<summary type="html">&lt;p&gt;Fsueur : /* Partie électronique : */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;=Avancement du projet =&lt;br /&gt;
&lt;br /&gt;
==Première Séance (06/05/2011)==&lt;br /&gt;
&lt;br /&gt;
===Objectifs :=== &lt;br /&gt;
* établir le cahier des charges technique&lt;br /&gt;
* répartir les tâches au sein du binôme&lt;br /&gt;
* brainstorming&lt;br /&gt;
&lt;br /&gt;
===Réalisations concrètes :===&lt;br /&gt;
&lt;br /&gt;
* Tutoriel Altium effectué&lt;br /&gt;
* Elaboration du compteur mesurant le temps sous Altium&lt;br /&gt;
&lt;br /&gt;
==Deuxième Séance (11/05/2011)==&lt;br /&gt;
&lt;br /&gt;
===Objectifs :=== &lt;br /&gt;
* Continuer la partie électronique en résolvant les derniers problémes&lt;br /&gt;
* Commencer la partie informatique en élaborant la structure du programme et sous programmes&lt;br /&gt;
&lt;br /&gt;
===Réalisations concrètes :===&lt;br /&gt;
Partie informatique : &lt;br /&gt;
* Installation des librairies nécessaires pour piloter le servo moteur&lt;br /&gt;
* Modification du programme c pour pouvoir entrer un angle en paramétre et ainsi placer le sonar à l'angle indiqué&lt;br /&gt;
* Création du site Web 2.0 avec un champ texte pour entrer un angle et placer le sonar au bon angle, grâce à une intéraction entre le javascript et le programme c précédemment créé.&lt;br /&gt;
&lt;br /&gt;
Partie électronique :&lt;br /&gt;
&lt;br /&gt;
== Troisième Séance (13/05/2011)==&lt;br /&gt;
&lt;br /&gt;
===Objectifs :=== &lt;br /&gt;
* Avant la séance, avancer la partie informatique en continuant sur le site web : &lt;br /&gt;
** Élaboration de la requête Ajax envoyée vers un script PHP qui récupère la distance mesurée par le sonar par scrutation et les renvoie vers la page Web 2.0(donnees.php)&lt;br /&gt;
** Élaboration de la page Affichage.php qui récupère une série de distance et un angle. Cette page utilise GD en affichant un cercle vert ainsi que les axes X et Y en coordonnées cartésienne&lt;br /&gt;
** Modification de la page Web 2.0 avec l'ajout un script sous javascript qui lance Affichage.php par une requête Ajax en ajoutant à l'adresse de l'url, les valeurs mesurées par le radar ainsi que l'angle associé&lt;br /&gt;
* Test de toutes les pages créées chez nous et résolution des bugs si nécessaire&lt;br /&gt;
===Réalisations concrètes :===&lt;br /&gt;
Partie informatique :&lt;br /&gt;
* Compilation du programme permettant de lire les données renvoyées par le sonar par la liaison série &lt;br /&gt;
* Modification des pages Web 2.0 et donnees.php pour récupérer les données du sonar&lt;br /&gt;
* Modification de la page Web 2.0 et affichage.php qui pour résoudre le problème de l'affiche de l'image permettant d'afficher la cible du radar qui ne s'affichait pas&lt;br /&gt;
&lt;br /&gt;
Malheureusement, afficher le point devant indiqué la distance de l'obstacle par rapport au sonar a été plus difficile que l'on ne pensait et faute de temps, nous n'avons pas réussi à finir cette partie.&lt;br /&gt;
&lt;br /&gt;
Partie électronique :&lt;br /&gt;
&lt;br /&gt;
=Partie informatique =&lt;br /&gt;
* Machine utilisée : TUTUR01&lt;br /&gt;
* /home/pifou/sonar/ contient fileaccess2.c qui selon un angle fait faire une rotation au robot de l'angle en question&lt;br /&gt;
* /var/www contient :&lt;br /&gt;
**web2.html : Page principale Web 2.0&lt;br /&gt;
**prototype.js&lt;br /&gt;
**donnes.php&lt;br /&gt;
**affichage.php&lt;br /&gt;
&lt;br /&gt;
* Les commandes :&lt;br /&gt;
** su (mdp : glopglop) : Mode superutilisateur &lt;br /&gt;
** su www-data   : Permet de prendre l’identité de www-data&lt;br /&gt;
** /root/sonar/serie : permet de lancer la liaison série&lt;br /&gt;
&lt;br /&gt;
* lancer correctement la page Web 2.0 :&lt;br /&gt;
# su www-data&lt;br /&gt;
# /root/sonar/serie&lt;br /&gt;
# lancer un navigateur internet et lancer la page [http://localhost/web2.html http://localhost/web2.html]&lt;br /&gt;
# entrer un angle&lt;br /&gt;
# l'image de la distance se lance&lt;br /&gt;
&lt;br /&gt;
=Partie électronique =&lt;br /&gt;
Schéma :&lt;/div&gt;</summary>
		<author><name>Fsueur</name></author>	</entry>

	<entry>
		<id>https://projets-ima.plil.fr/mediawiki/index.php?title=Controle_de_sonar&amp;diff=1016</id>
		<title>Controle de sonar</title>
		<link rel="alternate" type="text/html" href="https://projets-ima.plil.fr/mediawiki/index.php?title=Controle_de_sonar&amp;diff=1016"/>
				<updated>2011-05-15T15:32:01Z</updated>
		
		<summary type="html">&lt;p&gt;Fsueur : /* Partie informatique : */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;=Avancement du projet =&lt;br /&gt;
&lt;br /&gt;
==Première Séance (06/05/2011)==&lt;br /&gt;
&lt;br /&gt;
===Objectifs :=== &lt;br /&gt;
* établir le cahier des charges technique&lt;br /&gt;
* répartir les tâches au sein du binôme&lt;br /&gt;
* brainstorming&lt;br /&gt;
&lt;br /&gt;
===Réalisations concrètes :===&lt;br /&gt;
&lt;br /&gt;
* Tutoriel Altium effectué&lt;br /&gt;
* Elaboration du compteur mesurant le temps sous Altium&lt;br /&gt;
&lt;br /&gt;
==Deuxième Séance (11/05/2011)==&lt;br /&gt;
&lt;br /&gt;
===Objectifs :=== &lt;br /&gt;
* Continuer la partie électronique en résolvant les derniers problémes&lt;br /&gt;
* Commencer la partie informatique en élaborant la structure du programme et sous programmes&lt;br /&gt;
&lt;br /&gt;
===Réalisations concrètes :===&lt;br /&gt;
Partie informatique : &lt;br /&gt;
* Installation des librairies nécessaires pour piloter le servo moteur&lt;br /&gt;
* Modification du programme c pour pouvoir entrer un angle en paramétre et ainsi placer le sonar à l'angle indiqué&lt;br /&gt;
* Création du site Web 2.0 avec un champ texte pour entrer un angle et placer le sonar au bon angle, grâce à une intéraction entre le javascript et le programme c précédemment créé.&lt;br /&gt;
&lt;br /&gt;
Partie électronique :&lt;br /&gt;
&lt;br /&gt;
== Troisième Séance (13/05/2011)==&lt;br /&gt;
&lt;br /&gt;
===Objectifs :=== &lt;br /&gt;
* Avant la séance, avancer la partie informatique en continuant sur le site web : &lt;br /&gt;
** Élaboration de la requête Ajax envoyée vers un script PHP qui récupère la distance mesurée par le sonar par scrutation et les renvoie vers la page Web 2.0(donnees.php)&lt;br /&gt;
** Élaboration de la page Affichage.php qui récupère une série de distance et un angle. Cette page utilise GD en affichant un cercle vert ainsi que les axes X et Y en coordonnées cartésienne&lt;br /&gt;
** Modification de la page Web 2.0 avec l'ajout un script sous javascript qui lance Affichage.php par une requête Ajax en ajoutant à l'adresse de l'url, les valeurs mesurées par le radar ainsi que l'angle associé&lt;br /&gt;
* Test de toutes les pages créées chez nous et résolution des bugs si nécessaire&lt;br /&gt;
===Réalisations concrètes :===&lt;br /&gt;
Partie informatique :&lt;br /&gt;
* Compilation du programme permettant de lire les données renvoyées par le sonar par la liaison série &lt;br /&gt;
* Modification des pages Web 2.0 et donnees.php pour récupérer les données du sonar&lt;br /&gt;
* Modification de la page Web 2.0 et affichage.php qui pour résoudre le problème de l'affiche de l'image permettant d'afficher la cible du radar qui ne s'affichait pas&lt;br /&gt;
&lt;br /&gt;
Malheureusement, afficher le point devant indiqué la distance de l'obstacle par rapport au sonar a été plus difficile que l'on ne pensait et faute de temps, nous n'avons pas réussi à finir cette partie.&lt;br /&gt;
&lt;br /&gt;
Partie électronique :&lt;br /&gt;
&lt;br /&gt;
=Partie informatique =&lt;br /&gt;
* Machine utilisée : TUTUR01&lt;br /&gt;
* /home/pifou/sonar/ contient fileaccess2.c qui selon un angle fait faire une rotation au robot de l'angle en question&lt;br /&gt;
* /var/www contient :&lt;br /&gt;
**web2.html : Page principale Web 2.0&lt;br /&gt;
**prototype.js&lt;br /&gt;
**donnes.php&lt;br /&gt;
**affichage.php&lt;br /&gt;
&lt;br /&gt;
* Les commandes :&lt;br /&gt;
** su (mdp : glopglop) : Mode superutilisateur &lt;br /&gt;
** su www-data   : Permet de prendre l’identité de www-data&lt;br /&gt;
** /root/sonar/serie : permet de lancer la liaison série&lt;br /&gt;
&lt;br /&gt;
* lancer correctement la page Web 2.0 :&lt;br /&gt;
# su www-data&lt;br /&gt;
# /root/sonar/serie&lt;br /&gt;
# lancer un navigateur internet et lancer la page [http://localhost/web2.html http://localhost/web2.html]&lt;br /&gt;
# entrer un angle&lt;br /&gt;
# l'image de la distance se lance&lt;br /&gt;
&lt;br /&gt;
=Partie électronique :=&lt;br /&gt;
Schéma :&lt;/div&gt;</summary>
		<author><name>Fsueur</name></author>	</entry>

	<entry>
		<id>https://projets-ima.plil.fr/mediawiki/index.php?title=Controle_de_sonar&amp;diff=1015</id>
		<title>Controle de sonar</title>
		<link rel="alternate" type="text/html" href="https://projets-ima.plil.fr/mediawiki/index.php?title=Controle_de_sonar&amp;diff=1015"/>
				<updated>2011-05-15T15:31:45Z</updated>
		
		<summary type="html">&lt;p&gt;Fsueur : /* Avancement du projet : */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;=Avancement du projet =&lt;br /&gt;
&lt;br /&gt;
==Première Séance (06/05/2011)==&lt;br /&gt;
&lt;br /&gt;
===Objectifs :=== &lt;br /&gt;
* établir le cahier des charges technique&lt;br /&gt;
* répartir les tâches au sein du binôme&lt;br /&gt;
* brainstorming&lt;br /&gt;
&lt;br /&gt;
===Réalisations concrètes :===&lt;br /&gt;
&lt;br /&gt;
* Tutoriel Altium effectué&lt;br /&gt;
* Elaboration du compteur mesurant le temps sous Altium&lt;br /&gt;
&lt;br /&gt;
==Deuxième Séance (11/05/2011)==&lt;br /&gt;
&lt;br /&gt;
===Objectifs :=== &lt;br /&gt;
* Continuer la partie électronique en résolvant les derniers problémes&lt;br /&gt;
* Commencer la partie informatique en élaborant la structure du programme et sous programmes&lt;br /&gt;
&lt;br /&gt;
===Réalisations concrètes :===&lt;br /&gt;
Partie informatique : &lt;br /&gt;
* Installation des librairies nécessaires pour piloter le servo moteur&lt;br /&gt;
* Modification du programme c pour pouvoir entrer un angle en paramétre et ainsi placer le sonar à l'angle indiqué&lt;br /&gt;
* Création du site Web 2.0 avec un champ texte pour entrer un angle et placer le sonar au bon angle, grâce à une intéraction entre le javascript et le programme c précédemment créé.&lt;br /&gt;
&lt;br /&gt;
Partie électronique :&lt;br /&gt;
&lt;br /&gt;
== Troisième Séance (13/05/2011)==&lt;br /&gt;
&lt;br /&gt;
===Objectifs :=== &lt;br /&gt;
* Avant la séance, avancer la partie informatique en continuant sur le site web : &lt;br /&gt;
** Élaboration de la requête Ajax envoyée vers un script PHP qui récupère la distance mesurée par le sonar par scrutation et les renvoie vers la page Web 2.0(donnees.php)&lt;br /&gt;
** Élaboration de la page Affichage.php qui récupère une série de distance et un angle. Cette page utilise GD en affichant un cercle vert ainsi que les axes X et Y en coordonnées cartésienne&lt;br /&gt;
** Modification de la page Web 2.0 avec l'ajout un script sous javascript qui lance Affichage.php par une requête Ajax en ajoutant à l'adresse de l'url, les valeurs mesurées par le radar ainsi que l'angle associé&lt;br /&gt;
* Test de toutes les pages créées chez nous et résolution des bugs si nécessaire&lt;br /&gt;
===Réalisations concrètes :===&lt;br /&gt;
Partie informatique :&lt;br /&gt;
* Compilation du programme permettant de lire les données renvoyées par le sonar par la liaison série &lt;br /&gt;
* Modification des pages Web 2.0 et donnees.php pour récupérer les données du sonar&lt;br /&gt;
* Modification de la page Web 2.0 et affichage.php qui pour résoudre le problème de l'affiche de l'image permettant d'afficher la cible du radar qui ne s'affichait pas&lt;br /&gt;
&lt;br /&gt;
Malheureusement, afficher le point devant indiqué la distance de l'obstacle par rapport au sonar a été plus difficile que l'on ne pensait et faute de temps, nous n'avons pas réussi à finir cette partie.&lt;br /&gt;
&lt;br /&gt;
Partie électronique :&lt;br /&gt;
&lt;br /&gt;
=Partie informatique :=&lt;br /&gt;
* Machine utilisée : TUTUR01&lt;br /&gt;
* /home/pifou/sonar/ contient fileaccess2.c qui selon un angle fait faire une rotation au robot de l'angle en question&lt;br /&gt;
* /var/www contient :&lt;br /&gt;
**web2.html : Page principale Web 2.0&lt;br /&gt;
**prototype.js&lt;br /&gt;
**donnes.php&lt;br /&gt;
**affichage.php&lt;br /&gt;
&lt;br /&gt;
* Les commandes :&lt;br /&gt;
** su (mdp : glopglop) : Mode superutilisateur &lt;br /&gt;
** su www-data   : Permet de prendre l’identité de www-data&lt;br /&gt;
** /root/sonar/serie : permet de lancer la liaison série&lt;br /&gt;
&lt;br /&gt;
* lancer correctement la page Web 2.0 :&lt;br /&gt;
# su www-data&lt;br /&gt;
# /root/sonar/serie&lt;br /&gt;
# lancer un navigateur internet et lancer la page [http://localhost/web2.html http://localhost/web2.html]&lt;br /&gt;
# entrer un angle&lt;br /&gt;
# l'image de la distance se lance&lt;br /&gt;
&lt;br /&gt;
=Partie électronique :=&lt;br /&gt;
Schéma :&lt;/div&gt;</summary>
		<author><name>Fsueur</name></author>	</entry>

	<entry>
		<id>https://projets-ima.plil.fr/mediawiki/index.php?title=Controle_de_sonar&amp;diff=1014</id>
		<title>Controle de sonar</title>
		<link rel="alternate" type="text/html" href="https://projets-ima.plil.fr/mediawiki/index.php?title=Controle_de_sonar&amp;diff=1014"/>
				<updated>2011-05-15T15:31:03Z</updated>
		
		<summary type="html">&lt;p&gt;Fsueur : /* Partie informatique : */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;=Avancement du projet :=&lt;br /&gt;
&lt;br /&gt;
==Première Séance (06/05/2011)==&lt;br /&gt;
&lt;br /&gt;
===Objectifs :=== &lt;br /&gt;
* établir le cahier des charges technique&lt;br /&gt;
* répartir les tâches au sein du binôme&lt;br /&gt;
* brainstorming&lt;br /&gt;
&lt;br /&gt;
===Réalisations concrètes :===&lt;br /&gt;
&lt;br /&gt;
* Tutoriel Altium effectué&lt;br /&gt;
* Elaboration du compteur mesurant le temps sous Altium&lt;br /&gt;
&lt;br /&gt;
==Deuxième Séance (11/05/2011)==&lt;br /&gt;
&lt;br /&gt;
===Objectifs :=== &lt;br /&gt;
* Continuer la partie électronique en résolvant les derniers problémes&lt;br /&gt;
* Commencer la partie informatique en élaborant la structure du programme et sous programmes&lt;br /&gt;
&lt;br /&gt;
===Réalisations concrètes :===&lt;br /&gt;
Partie informatique : &lt;br /&gt;
* Installation des librairies nécessaires pour piloter le servo moteur&lt;br /&gt;
* Modification du programme c pour pouvoir entrer un angle en paramétre et ainsi placer le sonar à l'angle indiqué&lt;br /&gt;
* Création du site Web 2.0 avec un champ texte pour entrer un angle et placer le sonar au bon angle, grâce à une intéraction entre le javascript et le programme c précédemment créé.&lt;br /&gt;
&lt;br /&gt;
Partie électronique :&lt;br /&gt;
&lt;br /&gt;
== Troisième Séance (13/05/2011)==&lt;br /&gt;
&lt;br /&gt;
===Objectifs :=== &lt;br /&gt;
* Avant la séance, avancer la partie informatique en continuant sur le site web : &lt;br /&gt;
** Élaboration de la requête Ajax envoyée vers un script PHP qui récupère la distance mesurée par le sonar par scrutation et les renvoie vers la page Web 2.0(donnees.php)&lt;br /&gt;
** Élaboration de la page Affichage.php qui récupère une série de distance et un angle. Cette page utilise GD en affichant un cercle vert ainsi que les axes X et Y en coordonnées cartésienne&lt;br /&gt;
** Modification de la page Web 2.0 avec l'ajout un script sous javascript qui lance Affichage.php par une requête Ajax en ajoutant à l'adresse de l'url, les valeurs mesurées par le radar ainsi que l'angle associé&lt;br /&gt;
* Test de toutes les pages créées chez nous et résolution des bugs si nécessaire&lt;br /&gt;
===Réalisations concrètes :===&lt;br /&gt;
Partie informatique :&lt;br /&gt;
* Compilation du programme permettant de lire les données renvoyées par le sonar par la liaison série &lt;br /&gt;
* Modification des pages Web 2.0 et donnees.php pour récupérer les données du sonar&lt;br /&gt;
* Modification de la page Web 2.0 et affichage.php qui pour résoudre le problème de l'affiche de l'image permettant d'afficher la cible du radar qui ne s'affichait pas&lt;br /&gt;
&lt;br /&gt;
Malheureusement, afficher le point devant indiqué la distance de l'obstacle par rapport au sonar a été plus difficile que l'on ne pensait et faute de temps, nous n'avons pas réussi à finir cette partie.&lt;br /&gt;
&lt;br /&gt;
Partie électronique :&lt;br /&gt;
&lt;br /&gt;
=Partie informatique :=&lt;br /&gt;
* Machine utilisée : TUTUR01&lt;br /&gt;
* /home/pifou/sonar/ contient fileaccess2.c qui selon un angle fait faire une rotation au robot de l'angle en question&lt;br /&gt;
* /var/www contient :&lt;br /&gt;
**web2.html : Page principale Web 2.0&lt;br /&gt;
**prototype.js&lt;br /&gt;
**donnes.php&lt;br /&gt;
**affichage.php&lt;br /&gt;
&lt;br /&gt;
* Les commandes :&lt;br /&gt;
** su (mdp : glopglop) : Mode superutilisateur &lt;br /&gt;
** su www-data   : Permet de prendre l’identité de www-data&lt;br /&gt;
** /root/sonar/serie : permet de lancer la liaison série&lt;br /&gt;
&lt;br /&gt;
* lancer correctement la page Web 2.0 :&lt;br /&gt;
# su www-data&lt;br /&gt;
# /root/sonar/serie&lt;br /&gt;
# lancer un navigateur internet et lancer la page [http://localhost/web2.html http://localhost/web2.html]&lt;br /&gt;
# entrer un angle&lt;br /&gt;
# l'image de la distance se lance&lt;br /&gt;
&lt;br /&gt;
=Partie électronique :=&lt;br /&gt;
Schéma :&lt;/div&gt;</summary>
		<author><name>Fsueur</name></author>	</entry>

	<entry>
		<id>https://projets-ima.plil.fr/mediawiki/index.php?title=Controle_de_sonar&amp;diff=1013</id>
		<title>Controle de sonar</title>
		<link rel="alternate" type="text/html" href="https://projets-ima.plil.fr/mediawiki/index.php?title=Controle_de_sonar&amp;diff=1013"/>
				<updated>2011-05-15T15:28:14Z</updated>
		
		<summary type="html">&lt;p&gt;Fsueur : /* Partie informatique : */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;=Avancement du projet :=&lt;br /&gt;
&lt;br /&gt;
==Première Séance (06/05/2011)==&lt;br /&gt;
&lt;br /&gt;
===Objectifs :=== &lt;br /&gt;
* établir le cahier des charges technique&lt;br /&gt;
* répartir les tâches au sein du binôme&lt;br /&gt;
* brainstorming&lt;br /&gt;
&lt;br /&gt;
===Réalisations concrètes :===&lt;br /&gt;
&lt;br /&gt;
* Tutoriel Altium effectué&lt;br /&gt;
* Elaboration du compteur mesurant le temps sous Altium&lt;br /&gt;
&lt;br /&gt;
==Deuxième Séance (11/05/2011)==&lt;br /&gt;
&lt;br /&gt;
===Objectifs :=== &lt;br /&gt;
* Continuer la partie électronique en résolvant les derniers problémes&lt;br /&gt;
* Commencer la partie informatique en élaborant la structure du programme et sous programmes&lt;br /&gt;
&lt;br /&gt;
===Réalisations concrètes :===&lt;br /&gt;
Partie informatique : &lt;br /&gt;
* Installation des librairies nécessaires pour piloter le servo moteur&lt;br /&gt;
* Modification du programme c pour pouvoir entrer un angle en paramétre et ainsi placer le sonar à l'angle indiqué&lt;br /&gt;
* Création du site Web 2.0 avec un champ texte pour entrer un angle et placer le sonar au bon angle, grâce à une intéraction entre le javascript et le programme c précédemment créé.&lt;br /&gt;
&lt;br /&gt;
Partie électronique :&lt;br /&gt;
&lt;br /&gt;
== Troisième Séance (13/05/2011)==&lt;br /&gt;
&lt;br /&gt;
===Objectifs :=== &lt;br /&gt;
* Avant la séance, avancer la partie informatique en continuant sur le site web : &lt;br /&gt;
** Élaboration de la requête Ajax envoyée vers un script PHP qui récupère la distance mesurée par le sonar par scrutation et les renvoie vers la page Web 2.0(donnees.php)&lt;br /&gt;
** Élaboration de la page Affichage.php qui récupère une série de distance et un angle. Cette page utilise GD en affichant un cercle vert ainsi que les axes X et Y en coordonnées cartésienne&lt;br /&gt;
** Modification de la page Web 2.0 avec l'ajout un script sous javascript qui lance Affichage.php par une requête Ajax en ajoutant à l'adresse de l'url, les valeurs mesurées par le radar ainsi que l'angle associé&lt;br /&gt;
* Test de toutes les pages créées chez nous et résolution des bugs si nécessaire&lt;br /&gt;
===Réalisations concrètes :===&lt;br /&gt;
Partie informatique :&lt;br /&gt;
* Compilation du programme permettant de lire les données renvoyées par le sonar par la liaison série &lt;br /&gt;
* Modification des pages Web 2.0 et donnees.php pour récupérer les données du sonar&lt;br /&gt;
* Modification de la page Web 2.0 et affichage.php qui pour résoudre le problème de l'affiche de l'image permettant d'afficher la cible du radar qui ne s'affichait pas&lt;br /&gt;
&lt;br /&gt;
Malheureusement, afficher le point devant indiqué la distance de l'obstacle par rapport au sonar a été plus difficile que l'on ne pensait et faute de temps, nous n'avons pas réussi à finir cette partie.&lt;br /&gt;
&lt;br /&gt;
Partie électronique :&lt;br /&gt;
&lt;br /&gt;
=Partie informatique :=&lt;br /&gt;
* Machine utilisée : TUTUR01&lt;br /&gt;
* /home/pifou/sonar/&lt;br /&gt;
* /var/www contient :&lt;br /&gt;
**web2.html : Page principale Web 2.0&lt;br /&gt;
**prototype.js&lt;br /&gt;
**donnes.php&lt;br /&gt;
**affichage.php&lt;br /&gt;
&lt;br /&gt;
* Les commandes :&lt;br /&gt;
** su (mdp : glopglop) : Mode superutilisateur &lt;br /&gt;
** su www-data   : Permet de prendre l’identité de www-data&lt;br /&gt;
** /root/sonar/serie : permet de lancer la liaison série&lt;br /&gt;
&lt;br /&gt;
* lancer correctement la page Web 2.0 :&lt;br /&gt;
# su www-data&lt;br /&gt;
# /root/sonar/serie&lt;br /&gt;
# lancer un navigateur internet et lancer la page [http://localhost/web2.html http://localhost/web2.html]&lt;br /&gt;
# entrer un angle&lt;br /&gt;
# l'image de la distance se lance&lt;br /&gt;
&lt;br /&gt;
=Partie électronique :=&lt;br /&gt;
Schéma :&lt;/div&gt;</summary>
		<author><name>Fsueur</name></author>	</entry>

	<entry>
		<id>https://projets-ima.plil.fr/mediawiki/index.php?title=Controle_de_sonar&amp;diff=1012</id>
		<title>Controle de sonar</title>
		<link rel="alternate" type="text/html" href="https://projets-ima.plil.fr/mediawiki/index.php?title=Controle_de_sonar&amp;diff=1012"/>
				<updated>2011-05-15T15:27:32Z</updated>
		
		<summary type="html">&lt;p&gt;Fsueur : /* Partie informatique : */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;=Avancement du projet :=&lt;br /&gt;
&lt;br /&gt;
==Première Séance (06/05/2011)==&lt;br /&gt;
&lt;br /&gt;
===Objectifs :=== &lt;br /&gt;
* établir le cahier des charges technique&lt;br /&gt;
* répartir les tâches au sein du binôme&lt;br /&gt;
* brainstorming&lt;br /&gt;
&lt;br /&gt;
===Réalisations concrètes :===&lt;br /&gt;
&lt;br /&gt;
* Tutoriel Altium effectué&lt;br /&gt;
* Elaboration du compteur mesurant le temps sous Altium&lt;br /&gt;
&lt;br /&gt;
==Deuxième Séance (11/05/2011)==&lt;br /&gt;
&lt;br /&gt;
===Objectifs :=== &lt;br /&gt;
* Continuer la partie électronique en résolvant les derniers problémes&lt;br /&gt;
* Commencer la partie informatique en élaborant la structure du programme et sous programmes&lt;br /&gt;
&lt;br /&gt;
===Réalisations concrètes :===&lt;br /&gt;
Partie informatique : &lt;br /&gt;
* Installation des librairies nécessaires pour piloter le servo moteur&lt;br /&gt;
* Modification du programme c pour pouvoir entrer un angle en paramétre et ainsi placer le sonar à l'angle indiqué&lt;br /&gt;
* Création du site Web 2.0 avec un champ texte pour entrer un angle et placer le sonar au bon angle, grâce à une intéraction entre le javascript et le programme c précédemment créé.&lt;br /&gt;
&lt;br /&gt;
Partie électronique :&lt;br /&gt;
&lt;br /&gt;
== Troisième Séance (13/05/2011)==&lt;br /&gt;
&lt;br /&gt;
===Objectifs :=== &lt;br /&gt;
* Avant la séance, avancer la partie informatique en continuant sur le site web : &lt;br /&gt;
** Élaboration de la requête Ajax envoyée vers un script PHP qui récupère la distance mesurée par le sonar par scrutation et les renvoie vers la page Web 2.0(donnees.php)&lt;br /&gt;
** Élaboration de la page Affichage.php qui récupère une série de distance et un angle. Cette page utilise GD en affichant un cercle vert ainsi que les axes X et Y en coordonnées cartésienne&lt;br /&gt;
** Modification de la page Web 2.0 avec l'ajout un script sous javascript qui lance Affichage.php par une requête Ajax en ajoutant à l'adresse de l'url, les valeurs mesurées par le radar ainsi que l'angle associé&lt;br /&gt;
* Test de toutes les pages créées chez nous et résolution des bugs si nécessaire&lt;br /&gt;
===Réalisations concrètes :===&lt;br /&gt;
Partie informatique :&lt;br /&gt;
* Compilation du programme permettant de lire les données renvoyées par le sonar par la liaison série &lt;br /&gt;
* Modification des pages Web 2.0 et donnees.php pour récupérer les données du sonar&lt;br /&gt;
* Modification de la page Web 2.0 et affichage.php qui pour résoudre le problème de l'affiche de l'image permettant d'afficher la cible du radar qui ne s'affichait pas&lt;br /&gt;
&lt;br /&gt;
Malheureusement, afficher le point devant indiqué la distance de l'obstacle par rapport au sonar a été plus difficile que l'on ne pensait et faute de temps, nous n'avons pas réussi à finir cette partie.&lt;br /&gt;
&lt;br /&gt;
Partie électronique :&lt;br /&gt;
&lt;br /&gt;
=Partie informatique :=&lt;br /&gt;
* Machine utilisée : TUTUR01&lt;br /&gt;
* /home/pifou/sonar/&lt;br /&gt;
* /var/www contient :&lt;br /&gt;
**web2.html : Page principale Web 2.0&lt;br /&gt;
**prototype.js&lt;br /&gt;
**donnes.php&lt;br /&gt;
**affichage.php&lt;br /&gt;
&lt;br /&gt;
* Les commandes :&lt;br /&gt;
** su (mdp : glopglop) : Mode superutilisateur &lt;br /&gt;
** su www-data   : Permet de prendre l’identité de www-data&lt;br /&gt;
** /root/sonar/serie : permet de lancer la liaison série&lt;br /&gt;
&lt;br /&gt;
* lancer correctement la page Web 2.0 :&lt;br /&gt;
# su www-data&lt;br /&gt;
# /root/sonar/serie&lt;br /&gt;
# lancer un navigateur internet et lancer la page [http://localhost/web2.html http://localhost/web2.html]&lt;br /&gt;
# entrer un angle&lt;br /&gt;
# l'image de la distance se lance&lt;/div&gt;</summary>
		<author><name>Fsueur</name></author>	</entry>

	<entry>
		<id>https://projets-ima.plil.fr/mediawiki/index.php?title=Controle_de_sonar&amp;diff=1011</id>
		<title>Controle de sonar</title>
		<link rel="alternate" type="text/html" href="https://projets-ima.plil.fr/mediawiki/index.php?title=Controle_de_sonar&amp;diff=1011"/>
				<updated>2011-05-15T15:26:53Z</updated>
		
		<summary type="html">&lt;p&gt;Fsueur : /* Partie informatique : */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;=Avancement du projet :=&lt;br /&gt;
&lt;br /&gt;
==Première Séance (06/05/2011)==&lt;br /&gt;
&lt;br /&gt;
===Objectifs :=== &lt;br /&gt;
* établir le cahier des charges technique&lt;br /&gt;
* répartir les tâches au sein du binôme&lt;br /&gt;
* brainstorming&lt;br /&gt;
&lt;br /&gt;
===Réalisations concrètes :===&lt;br /&gt;
&lt;br /&gt;
* Tutoriel Altium effectué&lt;br /&gt;
* Elaboration du compteur mesurant le temps sous Altium&lt;br /&gt;
&lt;br /&gt;
==Deuxième Séance (11/05/2011)==&lt;br /&gt;
&lt;br /&gt;
===Objectifs :=== &lt;br /&gt;
* Continuer la partie électronique en résolvant les derniers problémes&lt;br /&gt;
* Commencer la partie informatique en élaborant la structure du programme et sous programmes&lt;br /&gt;
&lt;br /&gt;
===Réalisations concrètes :===&lt;br /&gt;
Partie informatique : &lt;br /&gt;
* Installation des librairies nécessaires pour piloter le servo moteur&lt;br /&gt;
* Modification du programme c pour pouvoir entrer un angle en paramétre et ainsi placer le sonar à l'angle indiqué&lt;br /&gt;
* Création du site Web 2.0 avec un champ texte pour entrer un angle et placer le sonar au bon angle, grâce à une intéraction entre le javascript et le programme c précédemment créé.&lt;br /&gt;
&lt;br /&gt;
Partie électronique :&lt;br /&gt;
&lt;br /&gt;
== Troisième Séance (13/05/2011)==&lt;br /&gt;
&lt;br /&gt;
===Objectifs :=== &lt;br /&gt;
* Avant la séance, avancer la partie informatique en continuant sur le site web : &lt;br /&gt;
** Élaboration de la requête Ajax envoyée vers un script PHP qui récupère la distance mesurée par le sonar par scrutation et les renvoie vers la page Web 2.0(donnees.php)&lt;br /&gt;
** Élaboration de la page Affichage.php qui récupère une série de distance et un angle. Cette page utilise GD en affichant un cercle vert ainsi que les axes X et Y en coordonnées cartésienne&lt;br /&gt;
** Modification de la page Web 2.0 avec l'ajout un script sous javascript qui lance Affichage.php par une requête Ajax en ajoutant à l'adresse de l'url, les valeurs mesurées par le radar ainsi que l'angle associé&lt;br /&gt;
* Test de toutes les pages créées chez nous et résolution des bugs si nécessaire&lt;br /&gt;
===Réalisations concrètes :===&lt;br /&gt;
Partie informatique :&lt;br /&gt;
* Compilation du programme permettant de lire les données renvoyées par le sonar par la liaison série &lt;br /&gt;
* Modification des pages Web 2.0 et donnees.php pour récupérer les données du sonar&lt;br /&gt;
* Modification de la page Web 2.0 et affichage.php qui pour résoudre le problème de l'affiche de l'image permettant d'afficher la cible du radar qui ne s'affichait pas&lt;br /&gt;
&lt;br /&gt;
Malheureusement, afficher le point devant indiqué la distance de l'obstacle par rapport au sonar a été plus difficile que l'on ne pensait et faute de temps, nous n'avons pas réussi à finir cette partie.&lt;br /&gt;
&lt;br /&gt;
Partie électronique :&lt;br /&gt;
&lt;br /&gt;
=Partie informatique :=&lt;br /&gt;
* Machine utilisée : TUTUR01&lt;br /&gt;
* /home/pifou/sonar/&lt;br /&gt;
* /var/www contient :&lt;br /&gt;
**web2.html : Page principale Web 2.0&lt;br /&gt;
**prototype.js&lt;br /&gt;
**donnes.php&lt;br /&gt;
**affichage.php&lt;br /&gt;
&lt;br /&gt;
* Les commandes :&lt;br /&gt;
** su (mdp : glopglop) : Mode superutilisateur &lt;br /&gt;
** su www-data   : Permet de prendre l’identité de www-data&lt;br /&gt;
** /root/sonar/serie : permet de lancer la liaison série&lt;br /&gt;
&lt;br /&gt;
* lancer correctement la page Web 2.0 :&lt;br /&gt;
# su www-data&lt;br /&gt;
# /root/sonar/serie&lt;br /&gt;
# lancer un navigateur internet et lancer la page [http://localhost.web2.html http://localhost.web2.html]&lt;br /&gt;
# entrer un angle&lt;br /&gt;
# l'image de la distance se lance&lt;/div&gt;</summary>
		<author><name>Fsueur</name></author>	</entry>

	<entry>
		<id>https://projets-ima.plil.fr/mediawiki/index.php?title=Controle_de_sonar&amp;diff=1010</id>
		<title>Controle de sonar</title>
		<link rel="alternate" type="text/html" href="https://projets-ima.plil.fr/mediawiki/index.php?title=Controle_de_sonar&amp;diff=1010"/>
				<updated>2011-05-15T15:24:59Z</updated>
		
		<summary type="html">&lt;p&gt;Fsueur : /* Partie informatique : */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;=Avancement du projet :=&lt;br /&gt;
&lt;br /&gt;
==Première Séance (06/05/2011)==&lt;br /&gt;
&lt;br /&gt;
===Objectifs :=== &lt;br /&gt;
* établir le cahier des charges technique&lt;br /&gt;
* répartir les tâches au sein du binôme&lt;br /&gt;
* brainstorming&lt;br /&gt;
&lt;br /&gt;
===Réalisations concrètes :===&lt;br /&gt;
&lt;br /&gt;
* Tutoriel Altium effectué&lt;br /&gt;
* Elaboration du compteur mesurant le temps sous Altium&lt;br /&gt;
&lt;br /&gt;
==Deuxième Séance (11/05/2011)==&lt;br /&gt;
&lt;br /&gt;
===Objectifs :=== &lt;br /&gt;
* Continuer la partie électronique en résolvant les derniers problémes&lt;br /&gt;
* Commencer la partie informatique en élaborant la structure du programme et sous programmes&lt;br /&gt;
&lt;br /&gt;
===Réalisations concrètes :===&lt;br /&gt;
Partie informatique : &lt;br /&gt;
* Installation des librairies nécessaires pour piloter le servo moteur&lt;br /&gt;
* Modification du programme c pour pouvoir entrer un angle en paramétre et ainsi placer le sonar à l'angle indiqué&lt;br /&gt;
* Création du site Web 2.0 avec un champ texte pour entrer un angle et placer le sonar au bon angle, grâce à une intéraction entre le javascript et le programme c précédemment créé.&lt;br /&gt;
&lt;br /&gt;
Partie électronique :&lt;br /&gt;
&lt;br /&gt;
== Troisième Séance (13/05/2011)==&lt;br /&gt;
&lt;br /&gt;
===Objectifs :=== &lt;br /&gt;
* Avant la séance, avancer la partie informatique en continuant sur le site web : &lt;br /&gt;
** Élaboration de la requête Ajax envoyée vers un script PHP qui récupère la distance mesurée par le sonar par scrutation et les renvoie vers la page Web 2.0(donnees.php)&lt;br /&gt;
** Élaboration de la page Affichage.php qui récupère une série de distance et un angle. Cette page utilise GD en affichant un cercle vert ainsi que les axes X et Y en coordonnées cartésienne&lt;br /&gt;
** Modification de la page Web 2.0 avec l'ajout un script sous javascript qui lance Affichage.php par une requête Ajax en ajoutant à l'adresse de l'url, les valeurs mesurées par le radar ainsi que l'angle associé&lt;br /&gt;
* Test de toutes les pages créées chez nous et résolution des bugs si nécessaire&lt;br /&gt;
===Réalisations concrètes :===&lt;br /&gt;
Partie informatique :&lt;br /&gt;
* Compilation du programme permettant de lire les données renvoyées par le sonar par la liaison série &lt;br /&gt;
* Modification des pages Web 2.0 et donnees.php pour récupérer les données du sonar&lt;br /&gt;
* Modification de la page Web 2.0 et affichage.php qui pour résoudre le problème de l'affiche de l'image permettant d'afficher la cible du radar qui ne s'affichait pas&lt;br /&gt;
&lt;br /&gt;
Malheureusement, afficher le point devant indiqué la distance de l'obstacle par rapport au sonar a été plus difficile que l'on ne pensait et faute de temps, nous n'avons pas réussi à finir cette partie.&lt;br /&gt;
&lt;br /&gt;
Partie électronique :&lt;br /&gt;
&lt;br /&gt;
=Partie informatique :=&lt;br /&gt;
* Machine utilisée : TUTUR01&lt;br /&gt;
* /home/pifou/sonar/&lt;br /&gt;
* /var/www contient :&lt;br /&gt;
**web2.html : Page principale Web 2.0&lt;br /&gt;
**prototype.js&lt;br /&gt;
**donnes.php&lt;br /&gt;
**affichage.php&lt;br /&gt;
&lt;br /&gt;
* Les commandes :&lt;br /&gt;
** su (mdp : glopglop) : Mode superutilisateur &lt;br /&gt;
** su www-data   : Permet de prendre l’identité de www-data&lt;br /&gt;
** /root/sonar/serie : permet de lancer la liaison série&lt;br /&gt;
&lt;br /&gt;
* lancer correctement la page Web 2.0 :&lt;br /&gt;
=* su www-data&lt;br /&gt;
=* /root/sonar/serie&lt;br /&gt;
=* lancer un navigateur internet et lancer la page [http://localhost.web2.html http://localhost.web2.html]&lt;br /&gt;
=* entrer un angle&lt;br /&gt;
=* l'image de la distance se lance&lt;/div&gt;</summary>
		<author><name>Fsueur</name></author>	</entry>

	<entry>
		<id>https://projets-ima.plil.fr/mediawiki/index.php?title=Controle_de_sonar&amp;diff=1009</id>
		<title>Controle de sonar</title>
		<link rel="alternate" type="text/html" href="https://projets-ima.plil.fr/mediawiki/index.php?title=Controle_de_sonar&amp;diff=1009"/>
				<updated>2011-05-15T15:24:23Z</updated>
		
		<summary type="html">&lt;p&gt;Fsueur : /* Partie informatique : */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;=Avancement du projet :=&lt;br /&gt;
&lt;br /&gt;
==Première Séance (06/05/2011)==&lt;br /&gt;
&lt;br /&gt;
===Objectifs :=== &lt;br /&gt;
* établir le cahier des charges technique&lt;br /&gt;
* répartir les tâches au sein du binôme&lt;br /&gt;
* brainstorming&lt;br /&gt;
&lt;br /&gt;
===Réalisations concrètes :===&lt;br /&gt;
&lt;br /&gt;
* Tutoriel Altium effectué&lt;br /&gt;
* Elaboration du compteur mesurant le temps sous Altium&lt;br /&gt;
&lt;br /&gt;
==Deuxième Séance (11/05/2011)==&lt;br /&gt;
&lt;br /&gt;
===Objectifs :=== &lt;br /&gt;
* Continuer la partie électronique en résolvant les derniers problémes&lt;br /&gt;
* Commencer la partie informatique en élaborant la structure du programme et sous programmes&lt;br /&gt;
&lt;br /&gt;
===Réalisations concrètes :===&lt;br /&gt;
Partie informatique : &lt;br /&gt;
* Installation des librairies nécessaires pour piloter le servo moteur&lt;br /&gt;
* Modification du programme c pour pouvoir entrer un angle en paramétre et ainsi placer le sonar à l'angle indiqué&lt;br /&gt;
* Création du site Web 2.0 avec un champ texte pour entrer un angle et placer le sonar au bon angle, grâce à une intéraction entre le javascript et le programme c précédemment créé.&lt;br /&gt;
&lt;br /&gt;
Partie électronique :&lt;br /&gt;
&lt;br /&gt;
== Troisième Séance (13/05/2011)==&lt;br /&gt;
&lt;br /&gt;
===Objectifs :=== &lt;br /&gt;
* Avant la séance, avancer la partie informatique en continuant sur le site web : &lt;br /&gt;
** Élaboration de la requête Ajax envoyée vers un script PHP qui récupère la distance mesurée par le sonar par scrutation et les renvoie vers la page Web 2.0(donnees.php)&lt;br /&gt;
** Élaboration de la page Affichage.php qui récupère une série de distance et un angle. Cette page utilise GD en affichant un cercle vert ainsi que les axes X et Y en coordonnées cartésienne&lt;br /&gt;
** Modification de la page Web 2.0 avec l'ajout un script sous javascript qui lance Affichage.php par une requête Ajax en ajoutant à l'adresse de l'url, les valeurs mesurées par le radar ainsi que l'angle associé&lt;br /&gt;
* Test de toutes les pages créées chez nous et résolution des bugs si nécessaire&lt;br /&gt;
===Réalisations concrètes :===&lt;br /&gt;
Partie informatique :&lt;br /&gt;
* Compilation du programme permettant de lire les données renvoyées par le sonar par la liaison série &lt;br /&gt;
* Modification des pages Web 2.0 et donnees.php pour récupérer les données du sonar&lt;br /&gt;
* Modification de la page Web 2.0 et affichage.php qui pour résoudre le problème de l'affiche de l'image permettant d'afficher la cible du radar qui ne s'affichait pas&lt;br /&gt;
&lt;br /&gt;
Malheureusement, afficher le point devant indiqué la distance de l'obstacle par rapport au sonar a été plus difficile que l'on ne pensait et faute de temps, nous n'avons pas réussi à finir cette partie.&lt;br /&gt;
&lt;br /&gt;
Partie électronique :&lt;br /&gt;
&lt;br /&gt;
=Partie informatique :=&lt;br /&gt;
* Machine utilisée : TUTUR01&lt;br /&gt;
* /home/pifou/sonar/&lt;br /&gt;
* /var/www contient :&lt;br /&gt;
**web2.html : Page principale Web 2.0&lt;br /&gt;
**prototype.js&lt;br /&gt;
**donnes.php&lt;br /&gt;
**affichage.php&lt;br /&gt;
&lt;br /&gt;
* Les commandes :&lt;br /&gt;
** su (mdp : glopglop) : Mode superutilisateur &lt;br /&gt;
** su www-data   : Permet de prendre l’identité de www-data&lt;br /&gt;
** /root/sonar/serie : permet de lancer la liaison série&lt;br /&gt;
&lt;br /&gt;
* lancer correctement la page Web 2.0 :&lt;br /&gt;
*= su www-data&lt;br /&gt;
*= /root/sonar/serie&lt;br /&gt;
*= lancer un navigateur internet et lancer la page [http://localhost.web2.html http://localhost.web2.html]&lt;br /&gt;
*= entrer un angle&lt;br /&gt;
*= l'image de la distance se lance&lt;/div&gt;</summary>
		<author><name>Fsueur</name></author>	</entry>

	<entry>
		<id>https://projets-ima.plil.fr/mediawiki/index.php?title=Controle_de_sonar&amp;diff=1008</id>
		<title>Controle de sonar</title>
		<link rel="alternate" type="text/html" href="https://projets-ima.plil.fr/mediawiki/index.php?title=Controle_de_sonar&amp;diff=1008"/>
				<updated>2011-05-15T15:18:43Z</updated>
		
		<summary type="html">&lt;p&gt;Fsueur : /* Avancement du projet : */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;=Avancement du projet :=&lt;br /&gt;
&lt;br /&gt;
==Première Séance (06/05/2011)==&lt;br /&gt;
&lt;br /&gt;
===Objectifs :=== &lt;br /&gt;
* établir le cahier des charges technique&lt;br /&gt;
* répartir les tâches au sein du binôme&lt;br /&gt;
* brainstorming&lt;br /&gt;
&lt;br /&gt;
===Réalisations concrètes :===&lt;br /&gt;
&lt;br /&gt;
* Tutoriel Altium effectué&lt;br /&gt;
* Elaboration du compteur mesurant le temps sous Altium&lt;br /&gt;
&lt;br /&gt;
==Deuxième Séance (11/05/2011)==&lt;br /&gt;
&lt;br /&gt;
===Objectifs :=== &lt;br /&gt;
* Continuer la partie électronique en résolvant les derniers problémes&lt;br /&gt;
* Commencer la partie informatique en élaborant la structure du programme et sous programmes&lt;br /&gt;
&lt;br /&gt;
===Réalisations concrètes :===&lt;br /&gt;
Partie informatique : &lt;br /&gt;
* Installation des librairies nécessaires pour piloter le servo moteur&lt;br /&gt;
* Modification du programme c pour pouvoir entrer un angle en paramétre et ainsi placer le sonar à l'angle indiqué&lt;br /&gt;
* Création du site Web 2.0 avec un champ texte pour entrer un angle et placer le sonar au bon angle, grâce à une intéraction entre le javascript et le programme c précédemment créé.&lt;br /&gt;
&lt;br /&gt;
Partie électronique :&lt;br /&gt;
&lt;br /&gt;
== Troisième Séance (13/05/2011)==&lt;br /&gt;
&lt;br /&gt;
===Objectifs :=== &lt;br /&gt;
* Avant la séance, avancer la partie informatique en continuant sur le site web : &lt;br /&gt;
** Élaboration de la requête Ajax envoyée vers un script PHP qui récupère la distance mesurée par le sonar par scrutation et les renvoie vers la page Web 2.0(donnees.php)&lt;br /&gt;
** Élaboration de la page Affichage.php qui récupère une série de distance et un angle. Cette page utilise GD en affichant un cercle vert ainsi que les axes X et Y en coordonnées cartésienne&lt;br /&gt;
** Modification de la page Web 2.0 avec l'ajout un script sous javascript qui lance Affichage.php par une requête Ajax en ajoutant à l'adresse de l'url, les valeurs mesurées par le radar ainsi que l'angle associé&lt;br /&gt;
* Test de toutes les pages créées chez nous et résolution des bugs si nécessaire&lt;br /&gt;
===Réalisations concrètes :===&lt;br /&gt;
Partie informatique :&lt;br /&gt;
* Compilation du programme permettant de lire les données renvoyées par le sonar par la liaison série &lt;br /&gt;
* Modification des pages Web 2.0 et donnees.php pour récupérer les données du sonar&lt;br /&gt;
* Modification de la page Web 2.0 et affichage.php qui pour résoudre le problème de l'affiche de l'image permettant d'afficher la cible du radar qui ne s'affichait pas&lt;br /&gt;
&lt;br /&gt;
Malheureusement, afficher le point devant indiqué la distance de l'obstacle par rapport au sonar a été plus difficile que l'on ne pensait et faute de temps, nous n'avons pas réussi à finir cette partie.&lt;br /&gt;
&lt;br /&gt;
Partie électronique :&lt;br /&gt;
&lt;br /&gt;
=Partie informatique :=&lt;br /&gt;
* Machine utilisée : TUTUR01&lt;br /&gt;
* /home/pifou/sonar/&lt;br /&gt;
* /var/www contient :&lt;br /&gt;
**web2.html : Page principale Web 2.0&lt;br /&gt;
**prototype.js&lt;br /&gt;
**donnes.php&lt;br /&gt;
**affichage.php&lt;br /&gt;
&lt;br /&gt;
* Les commandes :&lt;br /&gt;
&lt;br /&gt;
** su (+ glopglop) : Mode superutilisateur &lt;br /&gt;
** su www-data   : Permet de prendre l’identité de www-data&lt;br /&gt;
** /root/serie : permet de lancer la liaison série&lt;/div&gt;</summary>
		<author><name>Fsueur</name></author>	</entry>

	<entry>
		<id>https://projets-ima.plil.fr/mediawiki/index.php?title=Controle_de_sonar&amp;diff=1007</id>
		<title>Controle de sonar</title>
		<link rel="alternate" type="text/html" href="https://projets-ima.plil.fr/mediawiki/index.php?title=Controle_de_sonar&amp;diff=1007"/>
				<updated>2011-05-15T15:11:30Z</updated>
		
		<summary type="html">&lt;p&gt;Fsueur : /* Réalisations concrètes : */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;=Avancement du projet :=&lt;br /&gt;
&lt;br /&gt;
==Première Séance (06/05/2011)==&lt;br /&gt;
&lt;br /&gt;
===Objectifs :=== &lt;br /&gt;
* établir le cahier des charges technique&lt;br /&gt;
* répartir les tâches au sein du binôme&lt;br /&gt;
* brainstorming&lt;br /&gt;
&lt;br /&gt;
===Réalisations concrètes :===&lt;br /&gt;
&lt;br /&gt;
* Tutoriel Altium effectué&lt;br /&gt;
* Elaboration du compteur mesurant le temps sous Altium&lt;br /&gt;
&lt;br /&gt;
==Deuxième Séance (11/05/2011)==&lt;br /&gt;
&lt;br /&gt;
===Objectifs :=== &lt;br /&gt;
* Continuer la partie électronique en résolvant les derniers problémes&lt;br /&gt;
* Commencer la partie informatique en élaborant la structure du programme et sous programmes&lt;br /&gt;
&lt;br /&gt;
===Réalisations concrètes :===&lt;br /&gt;
Partie informatique : &lt;br /&gt;
* Installation des librairies nécessaires pour piloter le servo moteur&lt;br /&gt;
* Modification du programme c pour pouvoir entrer un angle en paramétre et ainsi placer le sonar à l'angle indiqué&lt;br /&gt;
* Création du site Web 2.0 avec un champ texte pour entrer un angle et placer le sonar au bon angle, grâce à une intéraction entre le javascript et le programme c précédemment créé.&lt;br /&gt;
&lt;br /&gt;
Partie électronique :&lt;br /&gt;
&lt;br /&gt;
== Troisième Séance (13/05/2011)==&lt;br /&gt;
&lt;br /&gt;
===Objectifs :=== &lt;br /&gt;
* Avant la séance, avancer la partie informatique en continuant sur le site web : &lt;br /&gt;
** Élaboration de la requête Ajax envoyée vers un script PHP qui récupère la distance mesurée par le sonar par scrutation et les renvoie vers la page Web 2.0(donnees.php)&lt;br /&gt;
** Élaboration de la page Affichage.php qui récupère une série de distance et un angle. Cette page utilise GD en affichant un cercle vert ainsi que les axes X et Y en coordonnées cartésienne&lt;br /&gt;
** Modification de la page Web 2.0 avec l'ajout un script sous javascript qui lance Affichage.php par une requête Ajax en ajoutant à l'adresse de l'url, les valeurs mesurées par le radar ainsi que l'angle associé&lt;br /&gt;
* Test de toutes les pages créées chez nous et résolution des bugs si nécessaire&lt;br /&gt;
===Réalisations concrètes :===&lt;br /&gt;
Partie informatique :&lt;br /&gt;
* Compilation du programme permettant de lire les données renvoyées par le sonar par la liaison série &lt;br /&gt;
* Modification des pages Web 2.0 et donnees.php pour récupérer les données du sonar&lt;br /&gt;
* Modification de la page Web 2.0 et affichage.php qui pour résoudre le problème de l'affiche de l'image permettant d'afficher la cible du radar qui ne s'affichait pas&lt;br /&gt;
&lt;br /&gt;
Malheureusement, afficher le point devant indiqué la distance de l'obstacle par rapport au sonar a été plus difficile que l'on ne pensait et faute de temps, nous n'avons pas réussi à finir cette partie.&lt;br /&gt;
&lt;br /&gt;
Partie électronique :&lt;/div&gt;</summary>
		<author><name>Fsueur</name></author>	</entry>

	<entry>
		<id>https://projets-ima.plil.fr/mediawiki/index.php?title=Controle_de_sonar&amp;diff=1006</id>
		<title>Controle de sonar</title>
		<link rel="alternate" type="text/html" href="https://projets-ima.plil.fr/mediawiki/index.php?title=Controle_de_sonar&amp;diff=1006"/>
				<updated>2011-05-15T15:09:33Z</updated>
		
		<summary type="html">&lt;p&gt;Fsueur : /* Réalisations concrètes : */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;=Avancement du projet :=&lt;br /&gt;
&lt;br /&gt;
==Première Séance (06/05/2011)==&lt;br /&gt;
&lt;br /&gt;
===Objectifs :=== &lt;br /&gt;
* établir le cahier des charges technique&lt;br /&gt;
* répartir les tâches au sein du binôme&lt;br /&gt;
* brainstorming&lt;br /&gt;
&lt;br /&gt;
===Réalisations concrètes :===&lt;br /&gt;
&lt;br /&gt;
* Tutoriel Altium effectué&lt;br /&gt;
* Elaboration du compteur mesurant le temps sous Altium&lt;br /&gt;
&lt;br /&gt;
==Deuxième Séance (11/05/2011)==&lt;br /&gt;
&lt;br /&gt;
===Objectifs :=== &lt;br /&gt;
* Continuer la partie électronique en résolvant les derniers problémes&lt;br /&gt;
* Commencer la partie informatique en élaborant la structure du programme et sous programmes&lt;br /&gt;
&lt;br /&gt;
===Réalisations concrètes :===&lt;br /&gt;
Partie informatique : &lt;br /&gt;
* Installation des librairies nécessaires pour piloter le servo moteur&lt;br /&gt;
* Modification du programme c pour pouvoir entrer un angle en paramétre et ainsi placer le sonar à l'angle indiqué&lt;br /&gt;
* Création du site Web 2.0 avec un champ texte pour entrer un angle et placer le sonar au bon angle, grâce à une intéraction entre le javascript et le programme c précédemment créé.&lt;br /&gt;
&lt;br /&gt;
Partie électronique :&lt;br /&gt;
&lt;br /&gt;
== Troisième Séance (13/05/2011)==&lt;br /&gt;
&lt;br /&gt;
===Objectifs :=== &lt;br /&gt;
* Avant la séance, avancer la partie informatique en continuant sur le site web : &lt;br /&gt;
** Élaboration de la requête Ajax envoyée vers un script PHP qui récupère la distance mesurée par le sonar par scrutation et les renvoie vers la page Web 2.0(donnees.php)&lt;br /&gt;
** Élaboration de la page Affichage.php qui récupère une série de distance et un angle. Cette page utilise GD en affichant un cercle vert ainsi que les axes X et Y en coordonnées cartésienne&lt;br /&gt;
** Modification de la page Web 2.0 avec l'ajout un script sous javascript qui lance Affichage.php par une requête Ajax en ajoutant à l'adresse de l'url, les valeurs mesurées par le radar ainsi que l'angle associé&lt;br /&gt;
* Test de toutes les pages créées chez nous et résolution des bugs si nécessaire&lt;br /&gt;
===Réalisations concrètes :===&lt;br /&gt;
Partie informatique :&lt;br /&gt;
* Compilation du programme permettant de lire les données renvoyées par le sonar par la liaison série &lt;br /&gt;
* Modification des pages Web 2.0 et donnees.php pour récupérer les données du sonar&lt;br /&gt;
* Modification de la page Web 2.0 et affichage.php qui pour résoudre le problème de l'affiche de l'image permettant d'afficher la cible du radar qui ne s'affichait pas&lt;br /&gt;
&lt;br /&gt;
Partie électronique :&lt;/div&gt;</summary>
		<author><name>Fsueur</name></author>	</entry>

	<entry>
		<id>https://projets-ima.plil.fr/mediawiki/index.php?title=Controle_de_sonar&amp;diff=1005</id>
		<title>Controle de sonar</title>
		<link rel="alternate" type="text/html" href="https://projets-ima.plil.fr/mediawiki/index.php?title=Controle_de_sonar&amp;diff=1005"/>
				<updated>2011-05-15T15:08:47Z</updated>
		
		<summary type="html">&lt;p&gt;Fsueur : /* Réalisations concrètes : */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;=Avancement du projet :=&lt;br /&gt;
&lt;br /&gt;
==Première Séance (06/05/2011)==&lt;br /&gt;
&lt;br /&gt;
===Objectifs :=== &lt;br /&gt;
* établir le cahier des charges technique&lt;br /&gt;
* répartir les tâches au sein du binôme&lt;br /&gt;
* brainstorming&lt;br /&gt;
&lt;br /&gt;
===Réalisations concrètes :===&lt;br /&gt;
&lt;br /&gt;
* Tutoriel Altium effectué&lt;br /&gt;
* Elaboration du compteur mesurant le temps sous Altium&lt;br /&gt;
&lt;br /&gt;
==Deuxième Séance (11/05/2011)==&lt;br /&gt;
&lt;br /&gt;
===Objectifs :=== &lt;br /&gt;
* Continuer la partie électronique en résolvant les derniers problémes&lt;br /&gt;
* Commencer la partie informatique en élaborant la structure du programme et sous programmes&lt;br /&gt;
&lt;br /&gt;
===Réalisations concrètes :===&lt;br /&gt;
Partie informatique : &lt;br /&gt;
* Installation des librairies nécessaires pour piloter le servo moteur&lt;br /&gt;
* Modification du programme c pour pouvoir entrer un angle en paramétre et ainsi placer le sonar à l'angle indiqué&lt;br /&gt;
* Création du site Web 2.0 avec un champ texte pour entrer un angle et placer le sonar au bon angle, grâce à une intéraction entre le javascript et le programme c précédemment créé.&lt;br /&gt;
&lt;br /&gt;
Partie électronique :&lt;br /&gt;
&lt;br /&gt;
== Troisième Séance (13/05/2011)==&lt;br /&gt;
&lt;br /&gt;
===Objectifs :=== &lt;br /&gt;
* Avant la séance, avancer la partie informatique en continuant sur le site web : &lt;br /&gt;
** Élaboration de la requête Ajax envoyée vers un script PHP qui récupère la distance mesurée par le sonar par scrutation et les renvoie vers la page Web 2.0(donnees.php)&lt;br /&gt;
** Élaboration de la page Affichage.php qui récupère une série de distance et un angle. Cette page utilise GD en affichant un cercle vert ainsi que les axes X et Y en coordonnées cartésienne&lt;br /&gt;
** Modification de la page Web 2.0 avec l'ajout un script sous javascript qui lance Affichage.php par une requête Ajax en ajoutant à l'adresse de l'url, les valeurs mesurées par le radar ainsi que l'angle associé&lt;br /&gt;
* Test de toutes les pages créées chez nous et résolution des bugs si nécessaire&lt;br /&gt;
===Réalisations concrètes :===&lt;br /&gt;
* Compilation du programme permettant de lire les données renvoyées par le sonar par la liaison série &lt;br /&gt;
* Modification des pages Web 2.0 et donnees.php pour récupérer les données du sonar&lt;br /&gt;
* Modification de la page Web 2.0 et affichage.php qui pour résoudre le problème de l'affiche de l'image permettant d'afficher la cible du radar qui ne s'affichait pas&lt;/div&gt;</summary>
		<author><name>Fsueur</name></author>	</entry>

	<entry>
		<id>https://projets-ima.plil.fr/mediawiki/index.php?title=Controle_de_sonar&amp;diff=1004</id>
		<title>Controle de sonar</title>
		<link rel="alternate" type="text/html" href="https://projets-ima.plil.fr/mediawiki/index.php?title=Controle_de_sonar&amp;diff=1004"/>
				<updated>2011-05-15T15:07:14Z</updated>
		
		<summary type="html">&lt;p&gt;Fsueur : /* Avancement du projet : */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;=Avancement du projet :=&lt;br /&gt;
&lt;br /&gt;
==Première Séance (06/05/2011)==&lt;br /&gt;
&lt;br /&gt;
===Objectifs :=== &lt;br /&gt;
* établir le cahier des charges technique&lt;br /&gt;
* répartir les tâches au sein du binôme&lt;br /&gt;
* brainstorming&lt;br /&gt;
&lt;br /&gt;
===Réalisations concrètes :===&lt;br /&gt;
&lt;br /&gt;
* Tutoriel Altium effectué&lt;br /&gt;
* Elaboration du compteur mesurant le temps sous Altium&lt;br /&gt;
&lt;br /&gt;
==Deuxième Séance (11/05/2011)==&lt;br /&gt;
&lt;br /&gt;
===Objectifs :=== &lt;br /&gt;
* Continuer la partie électronique en résolvant les derniers problémes&lt;br /&gt;
* Commencer la partie informatique en élaborant la structure du programme et sous programmes&lt;br /&gt;
&lt;br /&gt;
===Réalisations concrètes :===&lt;br /&gt;
* Installation des librairies nécessaires pour piloter le servo moteur&lt;br /&gt;
* Modification du programme c pour pouvoir entrer un angle en paramétre et ainsi placer le sonar à l'angle indiqué&lt;br /&gt;
* Création du site Web 2.0 avec un champ texte pour entrer un angle et placer le sonar au bon angle, grâce à une intéraction entre le javascript et le programme c précédemment créé.&lt;br /&gt;
&lt;br /&gt;
== Troisième Séance (13/05/2011)==&lt;br /&gt;
&lt;br /&gt;
===Objectifs :=== &lt;br /&gt;
* Avant la séance, avancer la partie informatique en continuant sur le site web : &lt;br /&gt;
** Élaboration de la requête Ajax envoyée vers un script PHP qui récupère la distance mesurée par le sonar par scrutation et les renvoie vers la page Web 2.0(donnees.php)&lt;br /&gt;
** Élaboration de la page Affichage.php qui récupère une série de distance et un angle. Cette page utilise GD en affichant un cercle vert ainsi que les axes X et Y en coordonnées cartésienne&lt;br /&gt;
** Modification de la page Web 2.0 avec l'ajout un script sous javascript qui lance Affichage.php par une requête Ajax en ajoutant à l'adresse de l'url, les valeurs mesurées par le radar ainsi que l'angle associé&lt;br /&gt;
* Test de toutes les pages créées chez nous et résolution des bugs si nécessaire&lt;br /&gt;
===Réalisations concrètes :===&lt;br /&gt;
* Compilation du programme permettant de lire les données renvoyées par le sonar par la liaison série &lt;br /&gt;
* Modification des pages Web 2.0 et donnees.php pour récupérer les données du sonar&lt;br /&gt;
* Modification de la page Web 2.0 et affichage.php qui pour résoudre le problème de l'affiche de l'image permettant d'afficher la cible du radar qui ne s'affichait pas&lt;/div&gt;</summary>
		<author><name>Fsueur</name></author>	</entry>

	<entry>
		<id>https://projets-ima.plil.fr/mediawiki/index.php?title=Controle_de_sonar&amp;diff=1003</id>
		<title>Controle de sonar</title>
		<link rel="alternate" type="text/html" href="https://projets-ima.plil.fr/mediawiki/index.php?title=Controle_de_sonar&amp;diff=1003"/>
				<updated>2011-05-15T14:55:46Z</updated>
		
		<summary type="html">&lt;p&gt;Fsueur : /* Objectifs : */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;=Avancement du projet :=&lt;br /&gt;
&lt;br /&gt;
==Première Séance (06/05/2011)==&lt;br /&gt;
&lt;br /&gt;
===Objectifs :=== &lt;br /&gt;
* établir le cahier des charges technique&lt;br /&gt;
* répartir les tâches au sein du binôme&lt;br /&gt;
* brainstorming&lt;br /&gt;
&lt;br /&gt;
===Réalisations concrètes :===&lt;br /&gt;
&lt;br /&gt;
* Tutoriel Altium effectué&lt;br /&gt;
* Elaboration du compteur mesurant le temps sous Altium&lt;br /&gt;
&lt;br /&gt;
==Deuxième Séance (11/05/2011)==&lt;br /&gt;
&lt;br /&gt;
===Objectifs :=== &lt;br /&gt;
* Continuer la partie électronique en résolvant les derniers problémes&lt;br /&gt;
* Commencer la partie informatique en élaborant la structure du programme et sous programmes&lt;br /&gt;
&lt;br /&gt;
===Réalisations concrètes :===&lt;br /&gt;
* Installation des librairies nécessaires pour piloter le servo moteur&lt;br /&gt;
* Modification du programme c pour pouvoir entrer un angle en paramétre et ainsi placer le sonar à l'angle indiqué&lt;br /&gt;
* Création du site Web 2.0 avec un champ texte pour entrer un angle et placer le sonar au bon angle, grâce à une intéraction entre le javascript et le programme c précédemment créé.&lt;br /&gt;
&lt;br /&gt;
== Troisième Séance (13/05/2011)==&lt;br /&gt;
&lt;br /&gt;
===Objectifs :=== &lt;br /&gt;
* Avant la séance, avancer la partie informatique en continuant sur le site web : &lt;br /&gt;
** Élaboration de la requête Ajax envoyée vers un script PHP qui récupère la distance mesurée par le sonar par scrutation et les renvoie vers la page Web 2.0(donnees.php)&lt;br /&gt;
** Élaboration de la page Affichage.php qui récupère une série de distance et un angle. Cette page utilise GD en affichant un cercle vert ainsi que les axes X et Y en coordonnées cartésienne&lt;br /&gt;
** Modification de la page Web 2.0 avec l'ajout un script sous javascript qui lance Affichage.php par une requête Ajax en ajoutant à l'adresse de l'url, les valeurs mesurées par le radar ainsi que l'angle associé&lt;br /&gt;
&lt;br /&gt;
===Réalisations concrètes :===&lt;br /&gt;
*&lt;/div&gt;</summary>
		<author><name>Fsueur</name></author>	</entry>

	<entry>
		<id>https://projets-ima.plil.fr/mediawiki/index.php?title=Controle_de_sonar&amp;diff=1002</id>
		<title>Controle de sonar</title>
		<link rel="alternate" type="text/html" href="https://projets-ima.plil.fr/mediawiki/index.php?title=Controle_de_sonar&amp;diff=1002"/>
				<updated>2011-05-15T14:53:35Z</updated>
		
		<summary type="html">&lt;p&gt;Fsueur : /* Avancement du projet : */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;=Avancement du projet :=&lt;br /&gt;
&lt;br /&gt;
==Première Séance (06/05/2011)==&lt;br /&gt;
&lt;br /&gt;
===Objectifs :=== &lt;br /&gt;
* établir le cahier des charges technique&lt;br /&gt;
* répartir les tâches au sein du binôme&lt;br /&gt;
* brainstorming&lt;br /&gt;
&lt;br /&gt;
===Réalisations concrètes :===&lt;br /&gt;
&lt;br /&gt;
* Tutoriel Altium effectué&lt;br /&gt;
* Elaboration du compteur mesurant le temps sous Altium&lt;br /&gt;
&lt;br /&gt;
==Deuxième Séance (11/05/2011)==&lt;br /&gt;
&lt;br /&gt;
===Objectifs :=== &lt;br /&gt;
* Continuer la partie électronique en résolvant les derniers problémes&lt;br /&gt;
* Commencer la partie informatique en élaborant la structure du programme et sous programmes&lt;br /&gt;
&lt;br /&gt;
===Réalisations concrètes :===&lt;br /&gt;
* Installation des librairies nécessaires pour piloter le servo moteur&lt;br /&gt;
* Modification du programme c pour pouvoir entrer un angle en paramétre et ainsi placer le sonar à l'angle indiqué&lt;br /&gt;
* Création du site Web 2.0 avec un champ texte pour entrer un angle et placer le sonar au bon angle, grâce à une intéraction entre le javascript et le programme c précédemment créé.&lt;br /&gt;
&lt;br /&gt;
== Troisième Séance (13/05/2011)==&lt;br /&gt;
&lt;br /&gt;
===Objectifs :=== &lt;br /&gt;
* Avant la séance, avancer la partie informatique en continuant sur le site web : &lt;br /&gt;
** Élaboration de la requête Ajax envoyée vers un script PHP qui récupère la distance mesurée par le sonar par scrutation et les renvoie vers la page Web 2.0(donnees.php)&lt;br /&gt;
** Élaboration de la page Affichage.php&lt;br /&gt;
** Modification de la page Web 2.0 avec l'ajout un script sous javascript qui lance Affichage.php par une requête Ajax en ajoutant à l'adresse de l'url, les valeurs mesurées par le radar ainsi que l'angle associé&lt;br /&gt;
&lt;br /&gt;
===Réalisations concrètes :===&lt;br /&gt;
*&lt;/div&gt;</summary>
		<author><name>Fsueur</name></author>	</entry>

	<entry>
		<id>https://projets-ima.plil.fr/mediawiki/index.php?title=Controle_de_sonar&amp;diff=1001</id>
		<title>Controle de sonar</title>
		<link rel="alternate" type="text/html" href="https://projets-ima.plil.fr/mediawiki/index.php?title=Controle_de_sonar&amp;diff=1001"/>
				<updated>2011-05-15T14:21:31Z</updated>
		
		<summary type="html">&lt;p&gt;Fsueur : /* Avancement du projet : */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;=Avancement du projet :=&lt;br /&gt;
&lt;br /&gt;
==Première Séance (06/05/2011)==&lt;br /&gt;
&lt;br /&gt;
===Objectifs :=== &lt;br /&gt;
* établir le cahier des charges technique&lt;br /&gt;
* répartir les tâches au sein du binôme&lt;br /&gt;
* brainstorming&lt;br /&gt;
&lt;br /&gt;
===Réalisations concrètes :===&lt;br /&gt;
&lt;br /&gt;
* Tutoriel Altium effectué&lt;br /&gt;
* Elaboration du compteur mesurant le temps sous Altium&lt;br /&gt;
&lt;br /&gt;
==Deuxième Séance (11/05/2011)==&lt;br /&gt;
&lt;br /&gt;
===Objectifs :=== &lt;br /&gt;
* Continuer la partie électronique en résolvant les derniers problémes&lt;br /&gt;
* Commencer la partie informatique en élaborant la structure du programme et sous programmes&lt;br /&gt;
&lt;br /&gt;
===Réalisations concrètes :===&lt;br /&gt;
* Installation des librairies nécessaires pour piloter le servo moteur&lt;br /&gt;
* Modification du programme c pour pouvoir entrer un angle en paramétre et ainsi placer le sonar à l'angle indiqué&lt;br /&gt;
* Création du site Web 2.0 avec un champ texte pour entrer un angle et placer le sonar au bon angle, grâce à une intéraction entre le javascript et le programme c précédemment créé.&lt;br /&gt;
&lt;br /&gt;
== Troisième Séance (13/05/2011)==&lt;br /&gt;
&lt;br /&gt;
===Objectifs :=== &lt;br /&gt;
* Avant la séance, avancer la partie informatique en continuant sur le site web : &lt;br /&gt;
** Élaboration de la requête Ajax envoyée vers un script PHP qui récupère la distance mesurée par le sonar par scrutation (donnees.php)&lt;br /&gt;
**&lt;br /&gt;
===Réalisations concrètes :===&lt;br /&gt;
*&lt;/div&gt;</summary>
		<author><name>Fsueur</name></author>	</entry>

	<entry>
		<id>https://projets-ima.plil.fr/mediawiki/index.php?title=Controle_de_sonar&amp;diff=970</id>
		<title>Controle de sonar</title>
		<link rel="alternate" type="text/html" href="https://projets-ima.plil.fr/mediawiki/index.php?title=Controle_de_sonar&amp;diff=970"/>
				<updated>2011-05-13T11:57:08Z</updated>
		
		<summary type="html">&lt;p&gt;Fsueur : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;=Avancement du projet :=&lt;br /&gt;
&lt;br /&gt;
==Première Séance (06/05/2011) -- 4h ==&lt;br /&gt;
&lt;br /&gt;
===objectifs :=== &lt;br /&gt;
* établir le cahier des charges technique&lt;br /&gt;
* répartir les tâches au sein du binôme&lt;br /&gt;
* brainstorming&lt;br /&gt;
&lt;br /&gt;
===Réalisations concrètes :===&lt;br /&gt;
&lt;br /&gt;
* Tutoriel Altium effectué&lt;br /&gt;
* Elaboration du compteur mesurant le temps sous Altium&lt;br /&gt;
&lt;br /&gt;
==Deuxième Séance (11/05/2011) -- 4h==&lt;br /&gt;
&lt;br /&gt;
===objectifs :=== &lt;br /&gt;
* Continuer la partie électronique en résolvant les derniers problémes&lt;br /&gt;
* Commencer la partie informatique en élaborant la structure du programme et sous programmes&lt;br /&gt;
&lt;br /&gt;
===Réalisations concrètes :===&lt;br /&gt;
* Installation des librairies nécessaires pour piloter le servo moteur&lt;br /&gt;
* Modification du programme c pour pouvoir entrer un angle en paramétre et ainsi placer le sonar à l'angle indiqué&lt;br /&gt;
* Création du site Web 2.0 avec un champ texte pour entrer un angle et placer le sonar au bon angle, grâce à une intéraction entre le javascript et le programme c précédemment créé.&lt;/div&gt;</summary>
		<author><name>Fsueur</name></author>	</entry>

	<entry>
		<id>https://projets-ima.plil.fr/mediawiki/index.php?title=Controle_de_sonar&amp;diff=948</id>
		<title>Controle de sonar</title>
		<link rel="alternate" type="text/html" href="https://projets-ima.plil.fr/mediawiki/index.php?title=Controle_de_sonar&amp;diff=948"/>
				<updated>2011-05-10T20:20:18Z</updated>
		
		<summary type="html">&lt;p&gt;Fsueur : /* &amp;quot;&amp;quot;Deuxième Séance (11/05/2011) -- 4h */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;=Avancement du projet :=&lt;br /&gt;
&lt;br /&gt;
==Première Séance (06/05/2011) -- 4h ==&lt;br /&gt;
&lt;br /&gt;
===objectifs :=== &lt;br /&gt;
* établir le cahier des charges technique&lt;br /&gt;
* répartir les tâches au sein du binôme&lt;br /&gt;
* brainstorming&lt;br /&gt;
&lt;br /&gt;
===Réalisations concrètes :===&lt;br /&gt;
&lt;br /&gt;
* Tutoriel Altium effectué&lt;br /&gt;
* Elaboration du compteur mesurant le temps sous Altium&lt;br /&gt;
&lt;br /&gt;
==Deuxième Séance (11/05/2011) -- 4h==&lt;br /&gt;
&lt;br /&gt;
===objectifs :=== &lt;br /&gt;
* Continuer la partie électronique en résolvant les derniers problémes&lt;br /&gt;
* Commencer la partie informatique en élaborant la structure du programme et sous programmes&lt;br /&gt;
&lt;br /&gt;
===Réalisations concrètes :===&lt;br /&gt;
*&lt;/div&gt;</summary>
		<author><name>Fsueur</name></author>	</entry>

	<entry>
		<id>https://projets-ima.plil.fr/mediawiki/index.php?title=Controle_de_sonar&amp;diff=947</id>
		<title>Controle de sonar</title>
		<link rel="alternate" type="text/html" href="https://projets-ima.plil.fr/mediawiki/index.php?title=Controle_de_sonar&amp;diff=947"/>
				<updated>2011-05-10T20:20:02Z</updated>
		
		<summary type="html">&lt;p&gt;Fsueur : /* Avancement du projet : */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;=Avancement du projet :=&lt;br /&gt;
&lt;br /&gt;
==Première Séance (06/05/2011) -- 4h ==&lt;br /&gt;
&lt;br /&gt;
===objectifs :=== &lt;br /&gt;
* établir le cahier des charges technique&lt;br /&gt;
* répartir les tâches au sein du binôme&lt;br /&gt;
* brainstorming&lt;br /&gt;
&lt;br /&gt;
===Réalisations concrètes :===&lt;br /&gt;
&lt;br /&gt;
* Tutoriel Altium effectué&lt;br /&gt;
* Elaboration du compteur mesurant le temps sous Altium&lt;br /&gt;
&lt;br /&gt;
==&amp;quot;&amp;quot;Deuxième Séance (11/05/2011) -- 4h==&lt;br /&gt;
&lt;br /&gt;
===objectifs :=== &lt;br /&gt;
* Continuer la partie électronique en résolvant les derniers problémes&lt;br /&gt;
* Commencer la partie informatique en élaborant la structure du programme et sous programmes&lt;br /&gt;
&lt;br /&gt;
===Réalisations concrètes :===&lt;br /&gt;
*&lt;/div&gt;</summary>
		<author><name>Fsueur</name></author>	</entry>

	<entry>
		<id>https://projets-ima.plil.fr/mediawiki/index.php?title=Controle_de_sonar&amp;diff=946</id>
		<title>Controle de sonar</title>
		<link rel="alternate" type="text/html" href="https://projets-ima.plil.fr/mediawiki/index.php?title=Controle_de_sonar&amp;diff=946"/>
				<updated>2011-05-10T20:17:32Z</updated>
		
		<summary type="html">&lt;p&gt;Fsueur : /* objectifs : */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;=Avancement du projet :=&lt;br /&gt;
&lt;br /&gt;
==Première Séance (06/05/2011) -- 4h ==&lt;br /&gt;
&lt;br /&gt;
===objectifs :=== &lt;br /&gt;
* établir le cahier des charges technique&lt;br /&gt;
* répartir les tâches au sein du binôme&lt;br /&gt;
* brainstorming&lt;br /&gt;
&lt;br /&gt;
===Réalisations concrètes :===&lt;br /&gt;
&lt;br /&gt;
* Tutoriel Altium effectué&lt;br /&gt;
* Elaboration du compteur mesurant le temps sous Altium&lt;/div&gt;</summary>
		<author><name>Fsueur</name></author>	</entry>

	<entry>
		<id>https://projets-ima.plil.fr/mediawiki/index.php?title=Controle_de_sonar&amp;diff=945</id>
		<title>Controle de sonar</title>
		<link rel="alternate" type="text/html" href="https://projets-ima.plil.fr/mediawiki/index.php?title=Controle_de_sonar&amp;diff=945"/>
				<updated>2011-05-10T20:15:34Z</updated>
		
		<summary type="html">&lt;p&gt;Fsueur : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;=Avancement du projet :=&lt;br /&gt;
&lt;br /&gt;
==Première Séance (06/05/2011) -- 4h ==&lt;br /&gt;
&lt;br /&gt;
===objectifs :=== &lt;br /&gt;
* établir le cahier des charges technique&lt;br /&gt;
* répartir les tâches au sein du binôme&lt;br /&gt;
* brainstorming&lt;/div&gt;</summary>
		<author><name>Fsueur</name></author>	</entry>

	</feed>