<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="fr">
		<id>https://projets-ima.plil.fr/mediawiki/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Mbossenn</id>
		<title>Wiki de Projets IMA - Contributions de l’utilisateur [fr]</title>
		<link rel="self" type="application/atom+xml" href="https://projets-ima.plil.fr/mediawiki/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Mbossenn"/>
		<link rel="alternate" type="text/html" href="https://projets-ima.plil.fr/mediawiki/index.php/Sp%C3%A9cial:Contributions/Mbossenn"/>
		<updated>2026-05-14T12:04:34Z</updated>
		<subtitle>Contributions de l’utilisateur</subtitle>
		<generator>MediaWiki 1.29.2</generator>

	<entry>
		<id>https://projets-ima.plil.fr/mediawiki/index.php?title=P57_CHRU_Lille_:_Smart_Picking&amp;diff=14400</id>
		<title>P57 CHRU Lille : Smart Picking</title>
		<link rel="alternate" type="text/html" href="https://projets-ima.plil.fr/mediawiki/index.php?title=P57_CHRU_Lille_:_Smart_Picking&amp;diff=14400"/>
				<updated>2014-10-28T17:31:08Z</updated>
		
		<summary type="html">&lt;p&gt;Mbossenn : /* Semaine 5 (20/10) */  Demo de la détection par infrarouges&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Présentation ==&lt;br /&gt;
&lt;br /&gt;
=== Contexte : ===&lt;br /&gt;
&lt;br /&gt;
Le picking des médicaments dans une pharmacie de grande taille (CHRU de Lille : plus de 3000 références de médicaments, stockés sur 3 étages) est une tâche répétitive et non optimisée. Des erreurs peuvent se produire et un temps important est perdu pour l'orientation des préparateurs de commande (notamment en formation).&lt;br /&gt;
Nous proposons de mettre en place une méthode &amp;quot;Smart picking&amp;quot; permettant l’agrégation de 6 demandes différentes ainsi que la localisation du préparateur et l'assistance au déplacement (chemin le plus court et évitant le croisement de plusieurs chariots). Une solution passe par la mise au point d'un chariot intelligent à 6 bacs permettant :&lt;br /&gt;
la localisation dans l'entrepôt par l'utilisation de balises BLE&lt;br /&gt;
l'affichage d'un parcours optimisé pour le picking des médicaments&lt;br /&gt;
la vérification de l'intégrité de la commande (médicaments dans le bon bac)&lt;br /&gt;
Le chariot embarquera une tablette sous Android.&lt;br /&gt;
&lt;br /&gt;
=== Cahier des charges : ===&lt;br /&gt;
&amp;lt;ul&amp;gt;&lt;br /&gt;
&amp;lt;li&amp;gt;Base de données :&lt;br /&gt;
&lt;br /&gt;
&amp;lt;ul&amp;gt;&lt;br /&gt;
&amp;lt;li&amp;gt;Liste des médicaments avec leur emplacement&amp;lt;/li&amp;gt;&lt;br /&gt;
&amp;lt;li&amp;gt;Historique des pickings&amp;lt;/li&amp;gt;&lt;br /&gt;
&amp;lt;/ul&amp;gt;&lt;br /&gt;
&amp;lt;/li&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;li&amp;gt;Localisation d'une tablette Android dans un batiment avec balises BLE, localisation sur un plan, et calcul du chemin optimal jusqu'au prochain medicament (prendre en compte la position des autres chariots).&lt;br /&gt;
&lt;br /&gt;
[[Fichier:MOD-nRF8001.jpg]]&lt;br /&gt;
&lt;br /&gt;
(https://www.olimex.com/Products/Modules/RF/MOD-nRF8001/)&lt;br /&gt;
&amp;lt;/li&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;li&amp;gt;Application Android donnant :&lt;br /&gt;
&lt;br /&gt;
&amp;lt;ul&amp;gt;&lt;br /&gt;
&amp;lt;li&amp;gt;la liste des médicaments à récupérer&amp;lt;/li&amp;gt;&lt;br /&gt;
&amp;lt;li&amp;gt;le plan du batiment avec la localisation et le chemin à suivre&amp;lt;/li&amp;gt;&lt;br /&gt;
&amp;lt;li&amp;gt;indication du contenu des bacs, des bacs à remplir&amp;lt;/li&amp;gt;&lt;br /&gt;
&amp;lt;/ul&amp;gt;&lt;br /&gt;
&amp;lt;/li&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;li&amp;gt;Système pour détecter qu'un médicament à été mis dans un bac :&lt;br /&gt;
&amp;lt;ul&amp;gt;&lt;br /&gt;
&amp;lt;li&amp;gt;Solution envisagée : capteurs infrarouges OU capteurs ultrasons avec arduino&amp;lt;/li&amp;gt;&lt;br /&gt;
&amp;lt;li&amp;gt;Envoie des informations à la tablette &amp;lt;/li&amp;gt;&lt;br /&gt;
&amp;lt;/ul&amp;gt;&lt;br /&gt;
&amp;lt;/li&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;li&amp;gt;Ajout d'une diode à côté de chaque bac pour signaler le bac à remplir&amp;lt;/li&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;li&amp;gt;Interface web pour créer les plans, voir l'historique, ajouter/modifier les emplacements des médicaments, vue sur un plan de la position de tous les chariots en temps réel.&amp;lt;/li&amp;gt;&lt;br /&gt;
&amp;lt;/ul&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Matériel utilisé ===&lt;br /&gt;
&lt;br /&gt;
&amp;lt;ul&amp;gt;&lt;br /&gt;
&amp;lt;li&amp;gt;Tablette Android compatible BLE&amp;lt;/li&amp;gt;&lt;br /&gt;
&amp;lt;li&amp;gt;LEDs infrarouges et phototransistors (quantité à définir)&amp;lt;/li&amp;gt;&lt;br /&gt;
&amp;lt;li&amp;gt;Arduino Uno&amp;lt;/li&amp;gt;&lt;br /&gt;
&amp;lt;li&amp;gt;Balises BLE MOD-nRF8001 (quantité à définir)&amp;lt;/li&amp;gt;&lt;br /&gt;
&amp;lt;/ul&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Avancement ==&lt;br /&gt;
&lt;br /&gt;
=== Semaine 1 (22/09) ===&lt;br /&gt;
	&lt;br /&gt;
Visite de la pharmacie et présentation d’une “maquette” de l’application :&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Tablette_layout1.png|border|500px]]       &lt;br /&gt;
[[Fichier:Tablette_layout2.png|border|500px]]&lt;br /&gt;
&lt;br /&gt;
=== Semaine 2 (29/09) ===&lt;br /&gt;
&lt;br /&gt;
&amp;lt;ul&amp;gt;&lt;br /&gt;
&amp;lt;li&amp;gt; Recherche et lecture de tutoriels sur le développement d'applications Android&amp;lt;/li&amp;gt;&lt;br /&gt;
&amp;lt;/ul&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Semaine 3 (06/10) ===&lt;br /&gt;
&amp;lt;ul&amp;gt;&lt;br /&gt;
&amp;lt;li&amp;gt;Poursuite de l'apprentissage du développement sur Android&amp;lt;/li&amp;gt;&lt;br /&gt;
&amp;lt;li&amp;gt;Installation d'un serveur WAMP avec PHP et base de donnée MySql en local&amp;lt;/li&amp;gt;&lt;br /&gt;
&amp;lt;/ul&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Semaine 4 (13/10) ===&lt;br /&gt;
&amp;lt;ul&amp;gt;&lt;br /&gt;
&amp;lt;li&amp;gt; Début de la réalisation d'un prototype pour la détection du dépôt de médicament dans un bac.&amp;lt;/li&amp;gt;&lt;br /&gt;
&amp;lt;li&amp;gt; Utilisation de LEDs infrarouges et phototransistors reliés à un Arduino, qui signalera le passage d'un médicament entre les deux.&amp;lt;/li&amp;gt;&lt;br /&gt;
&amp;lt;/ul&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Semaine 5 (20/10) ===&lt;br /&gt;
&amp;lt;ul&amp;gt;&lt;br /&gt;
&amp;lt;li&amp;gt;Fin de la réalisation du prototype pour la détection du dépôt de médicament dans un bac.&amp;lt;/li&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;include noesc iframe src=&amp;quot;https://docs.google.com/file/d/0B7uoVFbcqLCfa21RLWF5UDJZMEk/preview&amp;quot; width=&amp;quot;640&amp;quot; height=&amp;quot;480&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
La LED s'allume lorsqu'un objet passe par l'ouverture du bac, montrant le bon fonctionnement de la détection.&lt;br /&gt;
&amp;lt;/ul&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Semaine 6 (27/10) ===&lt;br /&gt;
&lt;br /&gt;
=== Semaine 7 (03/11) ===&lt;br /&gt;
&lt;br /&gt;
=== Semaine 8 (10/11) ===&lt;br /&gt;
&lt;br /&gt;
=== Semaine 9 (17/11) ===&lt;br /&gt;
&lt;br /&gt;
=== Semaine 10 (24/11) ===&lt;br /&gt;
&lt;br /&gt;
=== Semaine 11 (01/12) ===&lt;br /&gt;
&lt;br /&gt;
=== Semaine 12 (08/12) ===&lt;br /&gt;
&lt;br /&gt;
=== Semaine 13 (15/12) ===&lt;/div&gt;</summary>
		<author><name>Mbossenn</name></author>	</entry>

	<entry>
		<id>https://projets-ima.plil.fr/mediawiki/index.php?title=P57_CHRU_Lille_:_Smart_Picking&amp;diff=14132</id>
		<title>P57 CHRU Lille : Smart Picking</title>
		<link rel="alternate" type="text/html" href="https://projets-ima.plil.fr/mediawiki/index.php?title=P57_CHRU_Lille_:_Smart_Picking&amp;diff=14132"/>
				<updated>2014-10-08T12:14:59Z</updated>
		
		<summary type="html">&lt;p&gt;Mbossenn : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Présentation ==&lt;br /&gt;
&lt;br /&gt;
=== Contexte : ===&lt;br /&gt;
&lt;br /&gt;
Le picking des médicaments dans une pharmacie de grande taille (CHRU de Lille : plus de 3000 références de médicaments, stockés sur 3 étages) est une tâche répétitive et non optimisée. Des erreurs peuvent se produire et un temps important est perdu pour l'orientation des préparateurs de commande (notamment en formation).&lt;br /&gt;
Nous proposons de mettre en place une méthode &amp;quot;Smart picking&amp;quot; permettant l’agrégation de 6 demandes différentes ainsi que la localisation du préparateur et l'assistance au déplacement (chemin le plus court et évitant le croisement de plusieurs chariots). Une solution passe par la mise au point d'un chariot intelligent à 6 bacs permettant :&lt;br /&gt;
la localisation dans l'entrepôt par l'utilisation de balises BLE&lt;br /&gt;
l'affichage d'un parcours optimisé pour le picking des médicaments&lt;br /&gt;
la vérification de l'intégrité de la commande (médicaments dans le bon bac)&lt;br /&gt;
Le chariot embarquera une tablette sous Android.&lt;br /&gt;
&lt;br /&gt;
=== Cahier des charges : ===&lt;br /&gt;
&lt;br /&gt;
- Base de données :&lt;br /&gt;
&lt;br /&gt;
-&amp;gt; Liste des médicaments avec leur emplacement&lt;br /&gt;
&lt;br /&gt;
-&amp;gt; Historique des pickings&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
- Localisation d'une tablette Android dans un batiment avec balises BLE, localisation sur un plan, et calcul du chemin optimal jusqu'au prochain medicament (prendre en compte la position des autres chariots).&lt;br /&gt;
&lt;br /&gt;
[[Fichier:MOD-nRF8001.jpg]]&lt;br /&gt;
&lt;br /&gt;
(https://www.olimex.com/Products/Modules/RF/MOD-nRF8001/)&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
- Application Android donnant :&lt;br /&gt;
&lt;br /&gt;
-&amp;gt; la liste des médicaments à récupérer&lt;br /&gt;
&lt;br /&gt;
-&amp;gt; le plan du batiment avec la localisation et le chemin à suivre&lt;br /&gt;
&lt;br /&gt;
-&amp;gt; indication du contenu des bacs, des bacs à remplir&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
- Système pour détecter qu'un médicament à été mis dans un bac :&lt;br /&gt;
&lt;br /&gt;
-&amp;gt; solution envisagée : capteurs infrarouges OU capteurs ultrasons avec arduino&lt;br /&gt;
&lt;br /&gt;
-&amp;gt; envoie des informations à la tablette &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
- Ajout d'une diode à côté de chaque bac pour signaler le bac à remplir &lt;br /&gt;
&lt;br /&gt;
- Interface web pour créer les plans, voir l'historique, ajouter/modifier les emplacements des médicaments, vu sur plan de la position de tous les chariots&lt;br /&gt;
&lt;br /&gt;
== Avancement ==&lt;br /&gt;
&lt;br /&gt;
=== Semaine 1 (22/09) ===&lt;br /&gt;
	&lt;br /&gt;
Visite de la pharmacie et présentation d’une “maquette” de l’application :&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Tablette_layout1.png|border|500px]]&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Tablette_layout2.png|border|500px]]&lt;br /&gt;
&lt;br /&gt;
=== Semaine 2 (29/09) ===&lt;br /&gt;
&lt;br /&gt;
=== Semaine 3 (06/10) ===&lt;br /&gt;
&lt;br /&gt;
=== Semaine 4 (13/10) ===&lt;br /&gt;
&lt;br /&gt;
=== Semaine 5 (20/10) ===&lt;br /&gt;
&lt;br /&gt;
=== Semaine 6 (27/10) ===&lt;br /&gt;
&lt;br /&gt;
=== Semaine 7 (03/11) ===&lt;br /&gt;
&lt;br /&gt;
=== Semaine 8 (10/11) ===&lt;br /&gt;
&lt;br /&gt;
=== Semaine 9 (17/11) ===&lt;br /&gt;
&lt;br /&gt;
=== Semaine 10 (24/11) ===&lt;br /&gt;
&lt;br /&gt;
=== Semaine 11 (01/12) ===&lt;br /&gt;
&lt;br /&gt;
=== Semaine 12 (08/12) ===&lt;br /&gt;
&lt;br /&gt;
=== Semaine 13 (15/12) ===&lt;/div&gt;</summary>
		<author><name>Mbossenn</name></author>	</entry>

	<entry>
		<id>https://projets-ima.plil.fr/mediawiki/index.php?title=Fichier:Oculus.pdf&amp;diff=12336</id>
		<title>Fichier:Oculus.pdf</title>
		<link rel="alternate" type="text/html" href="https://projets-ima.plil.fr/mediawiki/index.php?title=Fichier:Oculus.pdf&amp;diff=12336"/>
				<updated>2014-04-15T22:01:29Z</updated>
		
		<summary type="html">&lt;p&gt;Mbossenn : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Mbossenn</name></author>	</entry>

	<entry>
		<id>https://projets-ima.plil.fr/mediawiki/index.php?title=Navigation_3D&amp;diff=12333</id>
		<title>Navigation 3D</title>
		<link rel="alternate" type="text/html" href="https://projets-ima.plil.fr/mediawiki/index.php?title=Navigation_3D&amp;diff=12333"/>
				<updated>2014-04-15T22:00:19Z</updated>
		
		<summary type="html">&lt;p&gt;Mbossenn : Rapport&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Présentation du projet ==&lt;br /&gt;
&lt;br /&gt;
=== Objectifs du projet ===&lt;br /&gt;
&lt;br /&gt;
L'objectif de ce projet est d'utiliser l'Oculus Rift afin de permettre la visualisation de monde en 3D, en l’occurrence dans le cas présent la visualisation de gros projets architecturaux. Le second objectif de ce projet est de faciliter l'immersion en combinant un système comme Kinect avec le casque afin d’interpréter d'autres mouvements que celui de la tête.&lt;br /&gt;
&lt;br /&gt;
=== L'Oculus Rift ===&lt;br /&gt;
[[Fichier:Oculus_Rift.jpg|500px|]]&lt;br /&gt;
&lt;br /&gt;
L'Oculus Rift est un casque de réalité virtuelle, permettant une vision en 3D stéréoscopique et couvrant tout le champ de vision contrairement à un écran classique, ce qui permet une plus grande immersion d'où son utilisation dans ce projet, l'immersion en étant la problématique principale.&lt;br /&gt;
Il n'existe pour le moment qu'en version pour développeurs, la version grand public sortant fin 2014.&lt;br /&gt;
&lt;br /&gt;
=== Kinect ===&lt;br /&gt;
[[Fichier:Kinect_1.jpg|500px|]]&lt;br /&gt;
&lt;br /&gt;
Kinect est un périphérique initialement créé pour la Xbox 360 mais qui a fini par arriver sur pc. C'est une caméra permettant de suivre les mouvements d'une ou plusieurs personnes. Kinect est idéal pour ce projet car grâce à son capteur de profondeur, elle peut localiser les différentes parties du corps en 3 dimensions.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Cahier des charges ==&lt;br /&gt;
&lt;br /&gt;
*  Permettre l'utilisation de l'Oculus Rift pour visualiser les projets architecturaux à la première personne, à l'aide de Unity et du SDK de l'Oculus Rift.&lt;br /&gt;
&lt;br /&gt;
*  Utiliser les capteurs propres à l'Oculus Rift pour adapter l'image aux mouvements de la tête.&lt;br /&gt;
&lt;br /&gt;
*  Rajouter Kinect au système dans le but de capter d'autres mouvement.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Avancement du projet ==&lt;br /&gt;
&lt;br /&gt;
=== Semaine 1 : ===&lt;br /&gt;
&lt;br /&gt;
*  J'ai commencé par l'installation du logiciel Unity, et n'ayant pas encore accès à l'Oculus Rift, je me suis concentré sur l'apprentissage de l'interface du logiciel, donc des fonctions basiques comme créer une scène, y ajouter des objets.&lt;br /&gt;
[[Fichier:Unity.JPG|500px|]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Semaine 2 : ===&lt;br /&gt;
&lt;br /&gt;
*  Poursuite de l'apprentissage du logiciel, cette semaine a été l'occasion de comprendre le fonctionnement des scripts. Ceux-ci peuvent êtres écrits en  JavaScript, C# ou en Boo, et permettent d'ajouter des propriétés aux objets ou de modifier celles déjà existantes.&lt;br /&gt;
&lt;br /&gt;
=== Semaine 3 : ===&lt;br /&gt;
&lt;br /&gt;
*  Installation des librairies utiles pour la suite du projet, c'est a dire le SDK d'Oculus VR ainsi que le SDK de Kinect.&lt;br /&gt;
*  Étude du SDK de Kinect : il permet de détecter une personne et d'associer des points à chaque partie du corps, les points vont alors suivre les mouvements de l'utilisateur. Ces point vont donc pouvoir êtres associés à différentes parties d'un avatar qui suivra les mouvements de l'utilisateur.&lt;br /&gt;
&lt;br /&gt;
=== Semaine 4 : ===&lt;br /&gt;
&lt;br /&gt;
*  Étude du SDK de l'Oculus : celui-ci se présente sous la forme d'un objet, dont l'orientation suis celle du casque grâce aux capteurs. Cet objet sert de caméra compatible avec l'Oculus Rift.&lt;br /&gt;
&lt;br /&gt;
=== Semaine 5 : ===&lt;br /&gt;
&lt;br /&gt;
*  Rencontre avec Damien Marchal, ingénieur de recherche travaillant déjà sur l'Oculus Rift à l'IRCICA. Cette rencontre a été l'occasion d'établir les axes à développer dans le projet : ses travaux portant sur l’interaction à l'aide d'une tablette tactile, il serait intéressant de comparer le résultat avec une interaction à l'aide Kinect, sur deux plans : l'immersion et l'efficacité. La suite du projet consistera donc à interagir avec les objets de la scène avec Kinect.&lt;br /&gt;
*  Cette semaine a aussi été l'occasion de recevoir un Oculus Rift et donc de commencer à travailler dessus.&lt;br /&gt;
&lt;br /&gt;
=== Semaine 6 : ===&lt;br /&gt;
&lt;br /&gt;
*  Ajout de la gestion de Kinect dans Unity : ajout d'un squelette reproduisant les mouvements de l'utilisateur.&lt;br /&gt;
*  Développement d'une fonctionnalité permettant à l'utilisateur de sélectionner un objet de la scène en le pointant du doigt. Cela a été fait à l'aide de plusieurs scripts : le premier permet de positionner la caméra de l'Oculus Rift à l'emplacement de la tête détecté par Kinect, et ce à chaque instant. Le deuxième permet d'avoir un rayon suivant l'axe tête-main et de faire en sorte que lorsque ce rayon rentre en contact avec un objet spécifique, change ce dernier de couleur. Étant donné que ce script n'est actif que lors d'un contact, un troisième script, attaché à chaque objet, le remet à sa couleur d'origine s'il n'est pas désigné par le deuxième script.&lt;br /&gt;
&lt;br /&gt;
=== Semaine 7 : ===&lt;br /&gt;
&lt;br /&gt;
*  L'axe tête-main ne semblait pas très naturel, car lorsque l'on pointe quelque chose du doigt, c'est plutôt l'axe du doigt qui devrais être pris en compte, cependant cela est irréalisable dans ce projet avec Kinect à cause de la distance par rapport à la caméra. L'ajout d'une option permettant de suivre l'axe coude-main, qui s'en rapproche dans la plupart des cas a donc été réalisée. Celle-ci présente au final effectivement une sélection plus facile des objets.&lt;br /&gt;
[[Fichier:Tete_main.jpg|400px|Rayon tête-main]][[Fichier:Coude_main.JPG|400px|Rayon coude-main]]&lt;br /&gt;
&lt;br /&gt;
*  Étude des fonctions d'Unity ayant un rapport avec les mouvements et les collisions tels que Rigidbody, qui gère les collisions et la gravité.&lt;br /&gt;
&lt;br /&gt;
=== Semaine 8 : ===&lt;br /&gt;
&lt;br /&gt;
*  Implémentation des fonctions permettant de déplacer les objets. J'ai pour cela utilisé une souris sans fil : un clic gauche permet d'attraper un objet, celui-ci va donc se déplacer suivant le même axe ayant servit à le sélectionner c'est à dire que l'objet va rester dans l'axe coude-main à une distance constante. Un clic gauche permet de lâcher l'objet, qui tombe donc avec la gravité. La roulette permet d'approcher ou d'éloigner l'objet et enfin un clic central permet de lancer l'objet, la fonction est identique à celle du lâcher sauf avec une accélération suivant l'axe coude-main.&lt;br /&gt;
&lt;br /&gt;
=== Semaine 9 : ===&lt;br /&gt;
&lt;br /&gt;
*  Cette semaine a été l'occasion de corriger des bugs en rapport avec le déplacement et d'embellir un peu la scène pour la vidéo.&lt;br /&gt;
&lt;br /&gt;
== Bilan ==&lt;br /&gt;
&lt;br /&gt;
Le résultat final est bien là, la combinaison de l'Oculus Rift et de Kinect pour déplacer des objets fonctionne bien.&lt;br /&gt;
Je regrette cependant de ne pas avoir eu le temps d'implémenter l'Art Track, qui aurait pu au final être plus précis et réactif que Kinect, mais ayant finis l'implémentation de Kinect une semaine avant la fin le temps manquait.&lt;br /&gt;
&lt;br /&gt;
== Rapport ==&lt;br /&gt;
[[fichier:Oculus.pdf]]&lt;/div&gt;</summary>
		<author><name>Mbossenn</name></author>	</entry>

	<entry>
		<id>https://projets-ima.plil.fr/mediawiki/index.php?title=Navigation_3D&amp;diff=12048</id>
		<title>Navigation 3D</title>
		<link rel="alternate" type="text/html" href="https://projets-ima.plil.fr/mediawiki/index.php?title=Navigation_3D&amp;diff=12048"/>
				<updated>2014-04-15T19:07:53Z</updated>
		
		<summary type="html">&lt;p&gt;Mbossenn : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Présentation du projet ==&lt;br /&gt;
&lt;br /&gt;
=== Objectifs du projet ===&lt;br /&gt;
&lt;br /&gt;
L'objectif de ce projet est d'utiliser l'Oculus Rift afin de permettre la visualisation de monde en 3D, en l’occurrence dans le cas présent la visualisation de gros projets architecturaux. Le second objectif de ce projet est de faciliter l'immersion en combinant un système comme Kinect avec le casque afin d’interpréter d'autres mouvements que celui de la tête.&lt;br /&gt;
&lt;br /&gt;
=== L'Oculus Rift ===&lt;br /&gt;
[[Fichier:Oculus_Rift.jpg|500px|]]&lt;br /&gt;
&lt;br /&gt;
L'Oculus Rift est un casque de réalité virtuelle, permettant une vision en 3D stéréoscopique et couvrant tout le champ de vision contrairement à un écran classique, ce qui permet une plus grande immersion d'où son utilisation dans ce projet, l'immersion en étant la problématique principale.&lt;br /&gt;
Il n'existe pour le moment qu'en version pour développeurs, la version grand public sortant fin 2014.&lt;br /&gt;
&lt;br /&gt;
=== Kinect ===&lt;br /&gt;
[[Fichier:Kinect_1.jpg|500px|]]&lt;br /&gt;
&lt;br /&gt;
Kinect est un périphérique initialement créé pour la Xbox 360 mais qui a fini par arriver sur pc. C'est une caméra permettant de suivre les mouvements d'une ou plusieurs personnes. Kinect est idéal pour ce projet car grâce à son capteur de profondeur, elle peut localiser les différentes parties du corps en 3 dimensions.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Cahier des charges ==&lt;br /&gt;
&lt;br /&gt;
*  Permettre l'utilisation de l'Oculus Rift pour visualiser les projets architecturaux à la première personne, à l'aide de Unity et du SDK de l'Oculus Rift.&lt;br /&gt;
&lt;br /&gt;
*  Utiliser les capteurs propres à l'Oculus Rift pour adapter l'image aux mouvements de la tête.&lt;br /&gt;
&lt;br /&gt;
*  Rajouter Kinect au système dans le but de capter d'autres mouvement.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Avancement du projet ==&lt;br /&gt;
&lt;br /&gt;
=== Semaine 1 : ===&lt;br /&gt;
&lt;br /&gt;
*  J'ai commencé par l'installation du logiciel Unity, et n'ayant pas encore accès à l'Oculus Rift, je me suis concentré sur l'apprentissage de l'interface du logiciel, donc des fonctions basiques comme créer une scène, y ajouter des objets.&lt;br /&gt;
[[Fichier:Unity.JPG|500px|]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Semaine 2 : ===&lt;br /&gt;
&lt;br /&gt;
*  Poursuite de l'apprentissage du logiciel, cette semaine a été l'occasion de comprendre le fonctionnement des scripts. Ceux-ci peuvent êtres écrits en  JavaScript, C# ou en Boo, et permettent d'ajouter des propriétés aux objets ou de modifier celles déjà existantes.&lt;br /&gt;
&lt;br /&gt;
=== Semaine 3 : ===&lt;br /&gt;
&lt;br /&gt;
*  Installation des librairies utiles pour la suite du projet, c'est a dire le SDK d'Oculus VR ainsi que le SDK de Kinect.&lt;br /&gt;
*  Étude du SDK de Kinect : il permet de détecter une personne et d'associer des points à chaque partie du corps, les points vont alors suivre les mouvements de l'utilisateur. Ces point vont donc pouvoir êtres associés à différentes parties d'un avatar qui suivra les mouvements de l'utilisateur.&lt;br /&gt;
&lt;br /&gt;
=== Semaine 4 : ===&lt;br /&gt;
&lt;br /&gt;
*  Étude du SDK de l'Oculus : celui-ci se présente sous la forme d'un objet, dont l'orientation suis celle du casque grâce aux capteurs. Cet objet sert de caméra compatible avec l'Oculus Rift.&lt;br /&gt;
&lt;br /&gt;
=== Semaine 5 : ===&lt;br /&gt;
&lt;br /&gt;
*  Rencontre avec Damien Marchal, ingénieur de recherche travaillant déjà sur l'Oculus Rift à l'IRCICA. Cette rencontre a été l'occasion d'établir les axes à développer dans le projet : ses travaux portant sur l’interaction à l'aide d'une tablette tactile, il serait intéressant de comparer le résultat avec une interaction à l'aide Kinect, sur deux plans : l'immersion et l'efficacité. La suite du projet consistera donc à interagir avec les objets de la scène avec Kinect.&lt;br /&gt;
*  Cette semaine a aussi été l'occasion de recevoir un Oculus Rift et donc de commencer à travailler dessus.&lt;br /&gt;
&lt;br /&gt;
=== Semaine 6 : ===&lt;br /&gt;
&lt;br /&gt;
*  Ajout de la gestion de Kinect dans Unity : ajout d'un squelette reproduisant les mouvements de l'utilisateur.&lt;br /&gt;
*  Développement d'une fonctionnalité permettant à l'utilisateur de sélectionner un objet de la scène en le pointant du doigt. Cela a été fait à l'aide de plusieurs scripts : le premier permet de positionner la caméra de l'Oculus Rift à l'emplacement de la tête détecté par Kinect, et ce à chaque instant. Le deuxième permet d'avoir un rayon suivant l'axe tête-main et de faire en sorte que lorsque ce rayon rentre en contact avec un objet spécifique, change ce dernier de couleur. Étant donné que ce script n'est actif que lors d'un contact, un troisième script, attaché à chaque objet, le remet à sa couleur d'origine s'il n'est pas désigné par le deuxième script.&lt;br /&gt;
&lt;br /&gt;
=== Semaine 7 : ===&lt;br /&gt;
&lt;br /&gt;
*  L'axe tête-main ne semblait pas très naturel, car lorsque l'on pointe quelque chose du doigt, c'est plutôt l'axe du doigt qui devrais être pris en compte, cependant cela est irréalisable dans ce projet avec Kinect à cause de la distance par rapport à la caméra. L'ajout d'une option permettant de suivre l'axe coude-main, qui s'en rapproche dans la plupart des cas a donc été réalisée. Celle-ci présente au final effectivement une sélection plus facile des objets.&lt;br /&gt;
[[Fichier:Tete_main.jpg|400px|Rayon tête-main]][[Fichier:Coude_main.JPG|400px|Rayon coude-main]]&lt;br /&gt;
&lt;br /&gt;
*  Étude des fonctions d'Unity ayant un rapport avec les mouvements et les collisions tels que Rigidbody, qui gère les collisions et la gravité.&lt;br /&gt;
&lt;br /&gt;
=== Semaine 8 : ===&lt;br /&gt;
&lt;br /&gt;
*  Implémentation des fonctions permettant de déplacer les objets. J'ai pour cela utilisé une souris sans fil : un clic gauche permet d'attraper un objet, celui-ci va donc se déplacer suivant le même axe ayant servit à le sélectionner c'est à dire que l'objet va rester dans l'axe coude-main à une distance constante. Un clic gauche permet de lâcher l'objet, qui tombe donc avec la gravité. La roulette permet d'approcher ou d'éloigner l'objet et enfin un clic central permet de lancer l'objet, la fonction est identique à celle du lâcher sauf avec une accélération suivant l'axe coude-main.&lt;br /&gt;
&lt;br /&gt;
=== Semaine 9 : ===&lt;br /&gt;
&lt;br /&gt;
*  Cette semaine a été l'occasion de corriger des bugs en rapport avec le déplacement et d'embellir un peu la scène pour la vidéo.&lt;br /&gt;
&lt;br /&gt;
== Bilan ==&lt;br /&gt;
&lt;br /&gt;
Le résultat final est bien là, la combinaison de l'Oculus Rift et de Kinect pour déplacer des objets fonctionne bien.&lt;br /&gt;
Je regrette cependant de ne pas avoir eu le temps d'implémenter l'Art Track, qui aurait pu au final être plus précis et réactif que Kinect, mais ayant finis l'implémentation de Kinect une semaine avant la fin le temps manquait.&lt;/div&gt;</summary>
		<author><name>Mbossenn</name></author>	</entry>

	<entry>
		<id>https://projets-ima.plil.fr/mediawiki/index.php?title=Fichier:Coude_main.JPG&amp;diff=12035</id>
		<title>Fichier:Coude main.JPG</title>
		<link rel="alternate" type="text/html" href="https://projets-ima.plil.fr/mediawiki/index.php?title=Fichier:Coude_main.JPG&amp;diff=12035"/>
				<updated>2014-04-15T18:58:41Z</updated>
		
		<summary type="html">&lt;p&gt;Mbossenn : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Mbossenn</name></author>	</entry>

	<entry>
		<id>https://projets-ima.plil.fr/mediawiki/index.php?title=Fichier:Tete_main.jpg&amp;diff=12034</id>
		<title>Fichier:Tete main.jpg</title>
		<link rel="alternate" type="text/html" href="https://projets-ima.plil.fr/mediawiki/index.php?title=Fichier:Tete_main.jpg&amp;diff=12034"/>
				<updated>2014-04-15T18:58:19Z</updated>
		
		<summary type="html">&lt;p&gt;Mbossenn : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Mbossenn</name></author>	</entry>

	<entry>
		<id>https://projets-ima.plil.fr/mediawiki/index.php?title=Fichier:Unity.JPG&amp;diff=12033</id>
		<title>Fichier:Unity.JPG</title>
		<link rel="alternate" type="text/html" href="https://projets-ima.plil.fr/mediawiki/index.php?title=Fichier:Unity.JPG&amp;diff=12033"/>
				<updated>2014-04-15T18:57:42Z</updated>
		
		<summary type="html">&lt;p&gt;Mbossenn : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Mbossenn</name></author>	</entry>

	<entry>
		<id>https://projets-ima.plil.fr/mediawiki/index.php?title=Fichier:Kinect_1.jpg&amp;diff=12032</id>
		<title>Fichier:Kinect 1.jpg</title>
		<link rel="alternate" type="text/html" href="https://projets-ima.plil.fr/mediawiki/index.php?title=Fichier:Kinect_1.jpg&amp;diff=12032"/>
				<updated>2014-04-15T18:57:23Z</updated>
		
		<summary type="html">&lt;p&gt;Mbossenn : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Mbossenn</name></author>	</entry>

	<entry>
		<id>https://projets-ima.plil.fr/mediawiki/index.php?title=Navigation_3D&amp;diff=12031</id>
		<title>Navigation 3D</title>
		<link rel="alternate" type="text/html" href="https://projets-ima.plil.fr/mediawiki/index.php?title=Navigation_3D&amp;diff=12031"/>
				<updated>2014-04-15T18:56:33Z</updated>
		
		<summary type="html">&lt;p&gt;Mbossenn : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Présentation du projet ==&lt;br /&gt;
&lt;br /&gt;
=== Objectifs du projet ===&lt;br /&gt;
&lt;br /&gt;
L'objectif de ce projet est d'utiliser l'Oculus Rift afin de permettre la visualisation de monde en 3D, en l’occurrence dans le cas présent la visualisation de gros projets architecturaux. Le second objectif de ce projet est de faciliter l'immersion en combinant un système comme Kinect avec le casque afin d’interpréter d'autres mouvements que celui de la tête.&lt;br /&gt;
&lt;br /&gt;
=== L'Oculus Rift ===&lt;br /&gt;
[[Fichier:Oculus_Rift.jpg|500px|]]&lt;br /&gt;
&lt;br /&gt;
L'Oculus Rift est un casque de réalité virtuelle, permettant une vision en 3D stéréoscopique et couvrant tout le champ de vision contrairement à un écran classique, ce qui permet une plus grande immersion d'où son utilisation dans ce projet, l'immersion en étant la problématique principale.&lt;br /&gt;
Il n'existe pour le moment qu'en version pour développeurs, la version grand public sortant fin 2014.&lt;br /&gt;
&lt;br /&gt;
=== Kinect ===&lt;br /&gt;
[[Fichier:Kinect_1.jpg|500px|]]&lt;br /&gt;
&lt;br /&gt;
Kinect est un périphérique initialement créé pour la Xbox 360 mais qui a fini par arriver sur pc. C'est une caméra permettant de suivre les mouvements d'une ou plusieurs personnes. Kinect est idéal pour ce projet car grâce à son capteur de profondeur, elle peut localiser les différentes parties du corps en 3 dimensions.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Cahier des charges ==&lt;br /&gt;
&lt;br /&gt;
*  Permettre l'utilisation de l'Oculus Rift pour visualiser les projets architecturaux à la première personne, à l'aide de Unity et du SDK de l'Oculus Rift.&lt;br /&gt;
&lt;br /&gt;
*  Utiliser les capteurs propres à l'Oculus Rift pour adapter l'image aux mouvements de la tête.&lt;br /&gt;
&lt;br /&gt;
*  Rajouter Kinect au système dans le but de capter d'autres mouvement.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Avancement du projet ==&lt;br /&gt;
&lt;br /&gt;
=== Semaine 1 : ===&lt;br /&gt;
&lt;br /&gt;
*  J'ai commencé par l'installation du logiciel Unity, et n'ayant pas encore accès à l'Oculus Rift, je me suis concentré sur l'apprentissage de l'interface du logiciel, donc des fonctions basiques comme créer une scène, y ajouter des objets.&lt;br /&gt;
[[Fichier:Unity.jpg|500px|]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Semaine 2 : ===&lt;br /&gt;
&lt;br /&gt;
*  Poursuite de l'apprentissage du logiciel, cette semaine a été l'occasion de comprendre le fonctionnement des scripts. Ceux-ci peuvent êtres écrits en  JavaScript, C# ou en Boo, et permettent d'ajouter des propriétés aux objets ou de modifier celles déjà existantes.&lt;br /&gt;
&lt;br /&gt;
=== Semaine 3 : ===&lt;br /&gt;
&lt;br /&gt;
*  Installation des librairies utiles pour la suite du projet, c'est a dire le SDK d'Oculus VR ainsi que le SDK de Kinect.&lt;br /&gt;
*  Étude du SDK de Kinect : il permet de détecter une personne et d'associer des points à chaque partie du corps, les points vont alors suivre les mouvements de l'utilisateur. Ces point vont donc pouvoir êtres associés à différentes parties d'un avatar qui suivra les mouvements de l'utilisateur.&lt;br /&gt;
&lt;br /&gt;
=== Semaine 4 : ===&lt;br /&gt;
&lt;br /&gt;
*  Étude du SDK de l'Oculus : celui-ci se présente sous la forme d'un objet, dont l'orientation suis celle du casque grâce aux capteurs. Cet objet sert de caméra compatible avec l'Oculus Rift.&lt;br /&gt;
&lt;br /&gt;
=== Semaine 5 : ===&lt;br /&gt;
&lt;br /&gt;
*  Rencontre avec Damien Marchal, ingénieur de recherche travaillant déjà sur l'Oculus Rift à l'IRCICA. Cette rencontre a été l'occasion d'établir les axes à développer dans le projet : ses travaux portant sur l’interaction à l'aide d'une tablette tactile, il serait intéressant de comparer le résultat avec une interaction à l'aide Kinect, sur deux plans : l'immersion et l'efficacité. La suite du projet consistera donc à interagir avec les objets de la scène avec Kinect.&lt;br /&gt;
*  Cette semaine a aussi été l'occasion de recevoir un Oculus Rift et donc de commencer à travailler dessus.&lt;br /&gt;
&lt;br /&gt;
=== Semaine 6 : ===&lt;br /&gt;
&lt;br /&gt;
*  Ajout de la gestion de Kinect dans Unity : ajout d'un squelette reproduisant les mouvements de l'utilisateur.&lt;br /&gt;
*  Développement d'une fonctionnalité permettant à l'utilisateur de sélectionner un objet de la scène en le pointant du doigt. Cela a été fait à l'aide de plusieurs scripts : le premier permet de positionner la caméra de l'Oculus Rift à l'emplacement de la tête détecté par Kinect, et ce à chaque instant. Le deuxième permet d'avoir un rayon suivant l'axe tête-main et de faire en sorte que lorsque ce rayon rentre en contact avec un objet spécifique, change ce dernier de couleur. Étant donné que ce script n'est actif que lors d'un contact, un troisième script, attaché à chaque objet, le remet à sa couleur d'origine s'il n'est pas désigné par le deuxième script.&lt;br /&gt;
&lt;br /&gt;
=== Semaine 7 : ===&lt;br /&gt;
&lt;br /&gt;
*  L'axe tête-main ne semblait pas très naturel, car lorsque l'on pointe quelque chose du doigt, c'est plutôt l'axe du doigt qui devrais être pris en compte, cependant cela est irréalisable dans ce projet avec Kinect à cause de la distance par rapport à la caméra. L'ajout d'une option permettant de suivre l'axe coude-main, qui s'en rapproche dans la plupart des cas a donc été réalisée. Celle-ci présente au final effectivement une sélection plus facile des objets.&lt;br /&gt;
[[Fichier:Tete_main.jpg|400px|]][[Fichier:Coude_main|400px|.jpg]]&lt;br /&gt;
&lt;br /&gt;
*  Étude des fonctions d'Unity ayant un rapport avec les mouvements et les collisions tels que Rigidbody, qui gère les collisions et la gravité.&lt;br /&gt;
&lt;br /&gt;
=== Semaine 8 : ===&lt;br /&gt;
&lt;br /&gt;
*  Implémentation des fonctions permettant de déplacer les objets. J'ai pour cela utilisé une souris sans fil : un clic gauche permet d'attraper un objet, celui-ci va donc se déplacer suivant le même axe ayant servit à le sélectionner c'est à dire que l'objet va rester dans l'axe coude-main à une distance constante. Un clic gauche permet de lâcher l'objet, qui tombe donc avec la gravité. La roulette permet d'approcher ou d'éloigner l'objet et enfin un clic central permet de lancer l'objet, la fonction est identique à celle du lâcher sauf avec une accélération suivant l'axe coude-main.&lt;br /&gt;
&lt;br /&gt;
=== Semaine 9 : ===&lt;br /&gt;
&lt;br /&gt;
*  Cette semaine a été l'occasion de corriger des bugs en rapport avec le déplacement et d'embellir un peu la scène pour la vidéo.&lt;br /&gt;
&lt;br /&gt;
== Bilan ==&lt;br /&gt;
&lt;br /&gt;
Le résultat final est bien là, la combinaison de l'Oculus Rift et de Kinect pour déplacer des objets fonctionne bien.&lt;br /&gt;
Je regrette cependant de ne pas avoir eu le temps d'implémenter l'Art Track, qui aurait pu au final être plus précis et réactif que Kinect, mais ayant finis l'implémentation de Kinect une semaine avant la fin le temps manquait.&lt;/div&gt;</summary>
		<author><name>Mbossenn</name></author>	</entry>

	<entry>
		<id>https://projets-ima.plil.fr/mediawiki/index.php?title=Fichier:Oculus_Rift.jpg&amp;diff=12030</id>
		<title>Fichier:Oculus Rift.jpg</title>
		<link rel="alternate" type="text/html" href="https://projets-ima.plil.fr/mediawiki/index.php?title=Fichier:Oculus_Rift.jpg&amp;diff=12030"/>
				<updated>2014-04-15T18:55:22Z</updated>
		
		<summary type="html">&lt;p&gt;Mbossenn : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Mbossenn</name></author>	</entry>

	<entry>
		<id>https://projets-ima.plil.fr/mediawiki/index.php?title=Navigation_3D&amp;diff=12029</id>
		<title>Navigation 3D</title>
		<link rel="alternate" type="text/html" href="https://projets-ima.plil.fr/mediawiki/index.php?title=Navigation_3D&amp;diff=12029"/>
				<updated>2014-04-15T18:54:53Z</updated>
		
		<summary type="html">&lt;p&gt;Mbossenn : Ajout d'images&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Présentation du projet ==&lt;br /&gt;
&lt;br /&gt;
=== Objectifs du projet ===&lt;br /&gt;
&lt;br /&gt;
L'objectif de ce projet est d'utiliser l'Oculus Rift afin de permettre la visualisation de monde en 3D, en l’occurrence dans le cas présent la visualisation de gros projets architecturaux. Le second objectif de ce projet est de faciliter l'immersion en combinant un système comme Kinect avec le casque afin d’interpréter d'autres mouvements que celui de la tête.&lt;br /&gt;
&lt;br /&gt;
=== L'Oculus Rift ===&lt;br /&gt;
[[Fichier:Oculus_Rift.jpg|500px|]]&lt;br /&gt;
L'Oculus Rift est un casque de réalité virtuelle, permettant une vision en 3D stéréoscopique et couvrant tout le champ de vision contrairement à un écran classique, ce qui permet une plus grande immersion d'où son utilisation dans ce projet, l'immersion en étant la problématique principale.&lt;br /&gt;
Il n'existe pour le moment qu'en version pour développeurs, la version grand public sortant fin 2014.&lt;br /&gt;
&lt;br /&gt;
=== Kinect ===&lt;br /&gt;
[[Fichier:Kinect_1.jpg|500px|]]&lt;br /&gt;
&lt;br /&gt;
Kinect est un périphérique initialement créé pour la Xbox 360 mais qui a fini par arriver sur pc. C'est une caméra permettant de suivre les mouvements d'une ou plusieurs personnes. Kinect est idéal pour ce projet car grâce à son capteur de profondeur, elle peut localiser les différentes parties du corps en 3 dimensions.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Cahier des charges ==&lt;br /&gt;
&lt;br /&gt;
*  Permettre l'utilisation de l'Oculus Rift pour visualiser les projets architecturaux à la première personne, à l'aide de Unity et du SDK de l'Oculus Rift.&lt;br /&gt;
&lt;br /&gt;
*  Utiliser les capteurs propres à l'Oculus Rift pour adapter l'image aux mouvements de la tête.&lt;br /&gt;
&lt;br /&gt;
*  Rajouter Kinect au système dans le but de capter d'autres mouvement.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Avancement du projet ==&lt;br /&gt;
&lt;br /&gt;
=== Semaine 1 : ===&lt;br /&gt;
&lt;br /&gt;
*  J'ai commencé par l'installation du logiciel Unity, et n'ayant pas encore accès à l'Oculus Rift, je me suis concentré sur l'apprentissage de l'interface du logiciel, donc des fonctions basiques comme créer une scène, y ajouter des objets.&lt;br /&gt;
[[Fichier:Unity.jpg|400px|]]&lt;br /&gt;
&lt;br /&gt;
=== Semaine 2 : ===&lt;br /&gt;
&lt;br /&gt;
*  Poursuite de l'apprentissage du logiciel, cette semaine a été l'occasion de comprendre le fonctionnement des scripts. Ceux-ci peuvent êtres écrits en  JavaScript, C# ou en Boo, et permettent d'ajouter des propriétés aux objets ou de modifier celles déjà existantes.&lt;br /&gt;
&lt;br /&gt;
=== Semaine 3 : ===&lt;br /&gt;
&lt;br /&gt;
*  Installation des librairies utiles pour la suite du projet, c'est a dire le SDK d'Oculus VR ainsi que le SDK de Kinect.&lt;br /&gt;
*  Étude du SDK de Kinect : il permet de détecter une personne et d'associer des points à chaque partie du corps, les points vont alors suivre les mouvements de l'utilisateur. Ces point vont donc pouvoir êtres associés à différentes parties d'un avatar qui suivra les mouvements de l'utilisateur.&lt;br /&gt;
&lt;br /&gt;
=== Semaine 4 : ===&lt;br /&gt;
&lt;br /&gt;
*  Étude du SDK de l'Oculus : celui-ci se présente sous la forme d'un objet, dont l'orientation suis celle du casque grâce aux capteurs. Cet objet sert de caméra compatible avec l'Oculus Rift.&lt;br /&gt;
&lt;br /&gt;
=== Semaine 5 : ===&lt;br /&gt;
&lt;br /&gt;
*  Rencontre avec Damien Marchal, ingénieur de recherche travaillant déjà sur l'Oculus Rift à l'IRCICA. Cette rencontre a été l'occasion d'établir les axes à développer dans le projet : ses travaux portant sur l’interaction à l'aide d'une tablette tactile, il serait intéressant de comparer le résultat avec une interaction à l'aide Kinect, sur deux plans : l'immersion et l'efficacité. La suite du projet consistera donc à interagir avec les objets de la scène avec Kinect.&lt;br /&gt;
*  Cette semaine a aussi été l'occasion de recevoir un Oculus Rift et donc de commencer à travailler dessus.&lt;br /&gt;
&lt;br /&gt;
=== Semaine 6 : ===&lt;br /&gt;
&lt;br /&gt;
*  Ajout de la gestion de Kinect dans Unity : ajout d'un squelette reproduisant les mouvements de l'utilisateur.&lt;br /&gt;
*  Développement d'une fonctionnalité permettant à l'utilisateur de sélectionner un objet de la scène en le pointant du doigt. Cela a été fait à l'aide de plusieurs scripts : le premier permet de positionner la caméra de l'Oculus Rift à l'emplacement de la tête détecté par Kinect, et ce à chaque instant. Le deuxième permet d'avoir un rayon suivant l'axe tête-main et de faire en sorte que lorsque ce rayon rentre en contact avec un objet spécifique, change ce dernier de couleur. Étant donné que ce script n'est actif que lors d'un contact, un troisième script, attaché à chaque objet, le remet à sa couleur d'origine s'il n'est pas désigné par le deuxième script.&lt;br /&gt;
&lt;br /&gt;
=== Semaine 7 : ===&lt;br /&gt;
&lt;br /&gt;
*  L'axe tête-main ne semblait pas très naturel, car lorsque l'on pointe quelque chose du doigt, c'est plutôt l'axe du doigt qui devrais être pris en compte, cependant cela est irréalisable dans ce projet avec Kinect à cause de la distance par rapport à la caméra. L'ajout d'une option permettant de suivre l'axe coude-main, qui s'en rapproche dans la plupart des cas a donc été réalisée. Celle-ci présente au final effectivement une sélection plus facile des objets.&lt;br /&gt;
[[Fichier:Tete_main.jpg|400px|]][[Fichier:Coude_main|400px|.jpg]]&lt;br /&gt;
*  Étude des fonctions d'Unity ayant un rapport avec les mouvements et les collisions tels que Rigidbody, qui gère les collisions et la gravité.&lt;br /&gt;
&lt;br /&gt;
=== Semaine 8 : ===&lt;br /&gt;
&lt;br /&gt;
*  Implémentation des fonctions permettant de déplacer les objets. J'ai pour cela utilisé une souris sans fil : un clic gauche permet d'attraper un objet, celui-ci va donc se déplacer suivant le même axe ayant servit à le sélectionner c'est à dire que l'objet va rester dans l'axe coude-main à une distance constante. Un clic gauche permet de lâcher l'objet, qui tombe donc avec la gravité. La roulette permet d'approcher ou d'éloigner l'objet et enfin un clic central permet de lancer l'objet, la fonction est identique à celle du lâcher sauf avec une accélération suivant l'axe coude-main.&lt;br /&gt;
&lt;br /&gt;
=== Semaine 9 : ===&lt;br /&gt;
&lt;br /&gt;
*  Cette semaine a été l'occasion de corriger des bugs en rapport avec le déplacement et d'embellir un peu la scène pour la vidéo.&lt;br /&gt;
&lt;br /&gt;
== Bilan ==&lt;br /&gt;
&lt;br /&gt;
Le résultat final est bien là, la combinaison de l'Oculus Rift et de Kinect pour déplacer des objets fonctionne bien.&lt;br /&gt;
Je regrette cependant de ne pas avoir eu le temps d'implémenter l'Art Track, qui aurait pu au final être plus précis et réactif que Kinect, mais ayant finis l'implémentation de Kinect une semaine avant la fin le temps manquait.&lt;/div&gt;</summary>
		<author><name>Mbossenn</name></author>	</entry>

	<entry>
		<id>https://projets-ima.plil.fr/mediawiki/index.php?title=Navigation_3D&amp;diff=11931</id>
		<title>Navigation 3D</title>
		<link rel="alternate" type="text/html" href="https://projets-ima.plil.fr/mediawiki/index.php?title=Navigation_3D&amp;diff=11931"/>
				<updated>2014-04-15T13:58:28Z</updated>
		
		<summary type="html">&lt;p&gt;Mbossenn : Avancement du projet&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Présentation du projet ==&lt;br /&gt;
&lt;br /&gt;
=== Objectifs du projet ===&lt;br /&gt;
&lt;br /&gt;
L'objectif de ce projet est d'utiliser l'Oculus Rift afin de permettre la visualisation de monde en 3D, en l’occurrence dans le cas présent la visualisation de gros projets architecturaux. Le second objectif de ce projet est de faciliter l'immersion en combinant un système comme Kinect avec le casque afin d’interpréter d'autres mouvements que celui de la tête.&lt;br /&gt;
&lt;br /&gt;
=== L'Oculus Rift ===&lt;br /&gt;
&lt;br /&gt;
L'Oculus Rift est un casque de réalité virtuelle, permettant une vision en 3D stéréoscopique et couvrant tout le champ de vision contrairement à un écran classique, ce qui permet une plus grande immersion d'où son utilisation dans ce projet, l'immersion en étant la problématique principale.&lt;br /&gt;
Il n'existe pour le moment qu'en version pour développeurs, la version grand public sortant fin 2014.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Cahier des charges ==&lt;br /&gt;
&lt;br /&gt;
*  Permettre l'utilisation de l'Oculus Rift pour visualiser les projets architecturaux à la première personne, à l'aide de Unity et du SDK de l'Oculus Rift.&lt;br /&gt;
&lt;br /&gt;
*  Utiliser les capteurs propres à l'Oculus Rift pour adapter l'image aux mouvements de la tête.&lt;br /&gt;
&lt;br /&gt;
*  Rajouter Kinect au système dans le but de capter d'autres mouvement.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Avancement du projet ==&lt;br /&gt;
&lt;br /&gt;
=== Semaine 1 : ===&lt;br /&gt;
&lt;br /&gt;
*  J'ai commencé par l'installation du logiciel Unity, et n'ayant pas encore accès à l'Oculus Rift, je me suis concentré sur l'apprentissage de l'interface du logiciel, donc des fonctions basiques comme créer une scène, y ajouter des objets.&lt;br /&gt;
&lt;br /&gt;
=== Semaine 2 : ===&lt;br /&gt;
&lt;br /&gt;
*  Poursuite de l'apprentissage du logiciel, cette semaine a été l'occasion de comprendre le fonctionnement des scripts. Ceux-ci peuvent êtres écrits en  JavaScript, C# ou en Boo, et permettent d'ajouter des propriétés aux objets ou de modifier celles déjà existantes.&lt;br /&gt;
&lt;br /&gt;
=== Semaine 3 : ===&lt;br /&gt;
&lt;br /&gt;
*  Installation des librairies utiles pour la suite du projet, c'est a dire le SDK d'Oculus VR ainsi que le SDK de Kinect.&lt;br /&gt;
*  Étude du SDK de Kinect : il permet de détecter une personne et d'associer des points à chaque partie du corps, les points vont alors suivre les mouvements de l'utilisateur. Ces point vont donc pouvoir êtres associés à différentes parties d'un avatar qui suivra les mouvements de l'utilisateur.&lt;br /&gt;
&lt;br /&gt;
=== Semaine 4 : ===&lt;br /&gt;
&lt;br /&gt;
*  Étude du SDK de l'Oculus : celui-ci se présente sous la forme d'un objet, dont l'orientation suis celle du casque grâce aux capteurs. Cet objet sert de caméra compatible avec l'Oculus Rift.&lt;br /&gt;
&lt;br /&gt;
=== Semaine 5 : ===&lt;br /&gt;
&lt;br /&gt;
*  Rencontre avec Damien Marchal, ingénieur de recherche travaillant déjà sur l'Oculus Rift à l'IRCICA. Cette rencontre a été l'occasion d'établir les axes à développer dans le projet : ses travaux portant sur l’interaction à l'aide d'une tablette tactile, il serait intéressant de comparer le résultat avec une interaction à l'aide Kinect, sur deux plans : l'immersion et l'efficacité. La suite du projet consistera donc à interagir avec les objets de la scène avec Kinect.&lt;br /&gt;
*  Cette semaine a aussi été l'occasion de recevoir un Oculus Rift et donc de commencer à travailler dessus.&lt;br /&gt;
&lt;br /&gt;
=== Semaine 6 : ===&lt;br /&gt;
&lt;br /&gt;
*  Ajout de la gestion de Kinect dans Unity : ajout d'un squelette reproduisant les mouvements de l'utilisateur.&lt;br /&gt;
*  Développement d'une fonctionnalité permettant à l'utilisateur de sélectionner un objet de la scène en le pointant du doigt. Cela a été fait à l'aide de plusieurs scripts : le premier permet de positionner la caméra de l'Oculus Rift à l'emplacement de la tête détecté par Kinect, et ce à chaque instant. Le deuxième permet d'avoir un rayon suivant l'axe tête-main et de faire en sorte que lorsque ce rayon rentre en contact avec un objet spécifique, change ce dernier de couleur. Étant donné que ce script n'est actif que lors d'un contact, un troisième script, attaché à chaque objet, le remet à sa couleur d'origine s'il n'est pas désigné par le deuxième script.&lt;br /&gt;
&lt;br /&gt;
=== Semaine 7 : ===&lt;br /&gt;
&lt;br /&gt;
*  L'axe tête-main ne semblait pas très naturel, car lorsque l'on pointe quelque chose du doigt, c'est plutôt l'axe du doigt qui devrais être pris en compte, cependant cela est irréalisable dans ce projet avec Kinect à cause de la distance par rapport à la caméra. L'ajout d'une option permettant de suivre l'axe coude-main, qui s'en rapproche dans la plupart des cas a donc été réalisée. Celle-ci présente au final effectivement une sélection plus facile des objets.&lt;br /&gt;
*  Étude des fonctions d'Unity ayant un rapport avec les mouvements et les collisions tels que Rigidbody, qui gère les collisions et la gravité.&lt;br /&gt;
&lt;br /&gt;
=== Semaine 8 : ===&lt;br /&gt;
&lt;br /&gt;
*  Implémentation des fonctions permettant de déplacer les objets. J'ai pour cela utilisé une souris sans fil : un clic gauche permet d'attraper un objet, celui-ci va donc se déplacer suivant le même axe ayant servit à le sélectionner c'est à dire que l'objet va rester dans l'axe coude-main à une distance constante. Un clic gauche permet de lâcher l'objet, qui tombe donc avec la gravité. La roulette permet d'approcher ou d'éloigner l'objet et enfin un clic central permet de lancer l'objet, la fonction est identique à celle du lâcher sauf avec une accélération suivant l'axe coude-main.&lt;br /&gt;
&lt;br /&gt;
=== Semaine 9 : ===&lt;br /&gt;
&lt;br /&gt;
*  Cette semaine a été l'occasion de corriger des bugs en rapport avec le déplacement et d'embellir un peu la scène pour la vidéo.&lt;br /&gt;
&lt;br /&gt;
== Bilan ==&lt;br /&gt;
&lt;br /&gt;
Le résultat final est bien là, la combinaison de l'Oculus Rift et de Kinect pour déplacer des objets fonctionne bien.&lt;br /&gt;
Je regrette cependant de ne pas avoir eu le temps d'implémenter l'Art Track, qui aurait pu au final être plus précis et réactif que Kinect, mais ayant finis l'implémentation de Kinect une semaine avant la fin le temps manquait.&lt;/div&gt;</summary>
		<author><name>Mbossenn</name></author>	</entry>

	<entry>
		<id>https://projets-ima.plil.fr/mediawiki/index.php?title=Navigation_3D&amp;diff=9092</id>
		<title>Navigation 3D</title>
		<link rel="alternate" type="text/html" href="https://projets-ima.plil.fr/mediawiki/index.php?title=Navigation_3D&amp;diff=9092"/>
				<updated>2014-02-05T16:35:12Z</updated>
		
		<summary type="html">&lt;p&gt;Mbossenn : Création de la page&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Présentation du projet ==&lt;br /&gt;
&lt;br /&gt;
=== Objectifs du projet ===&lt;br /&gt;
&lt;br /&gt;
L'objectif de ce projet est d'utiliser l'Oculus Rift afin de permettre la visualisation de monde en 3D, en l’occurrence dans le cas présent la visualisation de gros projets architecturaux. Le second objectif de ce projet est de faciliter l'immersion en combinant un système comme Kinect avec le casque afin d’interpréter d'autres mouvements que celui de la tête.&lt;br /&gt;
&lt;br /&gt;
=== L'Oculus Rift ===&lt;br /&gt;
&lt;br /&gt;
L'Oculus Rift est un casque de réalité virtuelle, permettant une vision en 3D stéréoscopique et couvrant tout le champ de vision contrairement à un écran classique, ce qui permet une plus grande immersion d'où son utilisation dans ce projet, l'immersion en étant la problématique principale.&lt;br /&gt;
Il n'existe pour le moment qu'en version pour développeurs, la version grand public sortant fin 2014.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Cahier des charges(provisoire) ==&lt;br /&gt;
&lt;br /&gt;
*  Permettre l'utilisation de l'Oculus Rift pour visualiser les projets architecturaux à la première personne, à l'aide de Unity et du SDK de l'Oculus Rift.&lt;br /&gt;
&lt;br /&gt;
*  Utiliser les capteurs propres à l'Oculus Rift pour adapter l'image aux mouvements de la tête.&lt;br /&gt;
&lt;br /&gt;
*  Rajouter Kinect au système dans le but de capter d'autres mouvement.&lt;/div&gt;</summary>
		<author><name>Mbossenn</name></author>	</entry>

	</feed>