TABLE DES MATIÈRES

 

REMERCIEMENTS............................................................................................................................................................... 3

DÉDICACE............................................................................................................................................................................3

INTRODUCTION...................................................................................................................................................................4

COLLABORATIONS EN 2013...............................................................................................................................................4

OBJECTIFS DU GR2M......................................................................................................................................................... 5

COMPOSITION DU GROUPE.............................................................................................................................................. 5

Liste des membres réguliers................................................................................................................................ 5

Liste des membres associés............................................................................................................................... 6

Liste des chercheurs post doctoraux et autres professionnels................................................... 6

PROGRAMME DE RECHERCHE EN MICROÉLECTRONIQUE................................................................................... 7

Domaines................................................................................................................................................................. 7

Activités des membres réguliers................................................................................................................. 7

ACTIVITÉS DU PROFESSEUR BOIS.......................................................................................................................... 8

ACTIVITÉS DU PROFESSEUR DAVID...................................................................................................................... 9

ACTIVITÉS DU PROFESSEUR AUDET..................................................................................................................... 10

ACTIVITÉS DU PROFESSEUR BOYER..................................................................................................................... 11

ACTIVITÉS DU PROFESSEUR BRAULT.................................................................................................................. 12

ACTIVITÉS DU PROFESSEUR LANGLOIS.............................................................................................................. 13

ACTIVITÉS DU PROFESSEUR MARTEL................................................................................................................. 14

ACTIVITÉS DU PROFESSEUR NICOLESCU........................................................................................................... 15

ACTIVITÉS DU PROFESSEUR SAVARIA................................................................................................................ 16

ACTIVITÉS DU PROFESSEUR SAWAN.................................................................................................................... 17

ÉTUDIANTS AUX CYCLES SUPÉRIEURS................................................................................................................... 18

ÉTUDIANTS NOUVELLEMENT INSCRITS............................................................................................................. 19

DESCRIPTION DÉTAILLÉE DES PROJETS D'ÉTUDIANTS.................................................................................... 22

SUBVENTIONS ET CONTRATS.................................................................................................................................. 80

Subventions, contrats et conventions de recherche individuelles....................................... 80

Subventions, contrats et conventions de recherche de groupe............................................... 82

ÉQUIPEMENT ÉLECTRONIQUE................................................................................................................................. 84

ÉQUIPEMENT APPARTENANT AU GROUPE (www.GR2M.polymtl.ca).......................................................... 84

Laboratoire LASEM (GR2M/PolyStim/Lasem)................................................................................................ 86

ÉQUIPEMENT OBTENU VIA LA SCM (WWW.CMC.CA)........................................................................................... 86

ÉQUIPEMENT INFORMATIQUE.................................................................................................................................. 87

Équipement informatique prêté par la CMC (www.CMC.ca)............................................................. 87

Équipement informatique appartenant au GR2M (www.GRM.polymtl.ca)............................... 87

LOGICIELS DE MICROÉLECTRONIQUE (EDA)........................................................................................................ 88

Logiciels disponibles au GR2M (www.GRM.polymtl.ca).................................................................... 88

PUBLICATIONS ET RÉALISATIONS.......................................................................................................................... 89

Articles de revues acceptés pour publication............................................................................... 89

Articles de revues publiés de janvier à décembre 2013............................................................... 89

Articles de revues publiés de septembre 2011 à décembre 2012................................................. 90

Articles de conférence de janvier à décembre 2013.................................................................... 93

Articles de conférence de septembre 2011 à décembre 2012...................................................... 96

AUTRES PUBLICATIONS (invitation)............................................................................................................... 100

LIVRES...................................................................................................................................................................... 100

 


 

DÉDICACE

 

 

Nous tenons tout particulièrement à remercier notre ancienne secrétaire Mme Ghyslaine Éthier-Carrier qui après 21 années de loyaux services prend sa retraite bien méritée.

 

Elle œuvre avec nous, à temps plein ou à temps partiel, depuis plus de 21 années, soit depuis octobre 1993. Tout au long de sa carrière, elle a consacré tous ses efforts au bon fonctionnement de notre groupe de recherche, à la réussite de nos étudiants ainsi qu’au fonctionnement de nos laboratoires.

 

Pour son remarquable engagement à veiller à la réussite de nos activités de recherche avec autant d’ardeur, nous lui dédicaçons ce Rapport Annuel 2013.

 

Nous lui souhaitons une très belle retraite.

 

Figure 1-  Gyslaine Ethier Carrier

 

 

 

 

 

 

REMERCIEMENTS

 

Nous désirons remercier tous les membres du GR2M (Groupe de Recherche en Microélectronique et Microsystèmes) professeurs et étudiants pour les efforts et l’attention qu’ils ont accordés afin de compléter leurs parties du présent rapport.  Nos remerciements s’adressent aussi à mesdames Ghyslaine Éthier Carrier pour son excellent travail de secrétariat afin de produire ce rapport et à Réjean Lepage pour sa collaboration constante et son aide à sa diffusion sur le WEB.


 

 

INTRODUCTION

 

Le Groupe de Recherche en Microélectronique et Microsystèmes (GR2M) de l’École Polytechnique de Montréal a poursuivi sa progression sur plusieurs fronts.  Le présent document décrit ses objectifs, la composition du groupe, les subventions et contrats obtenus, les équipements et outils qu’il possède et les publications et principales réalisations récentes. Pendant l’année 2013, 60 étudiants inscrits à la maîtrise et au doctorat, un professionnel et deux techniciens ont participé aux travaux de recherche du groupe, sous la direction de différents professeurs du GR2M et en collaboration avec des collègues des milieux universitaire et industriel. Les membres du groupe ont connu des succès aux programmes de subvention du Conseil de Recherche en Sciences Naturelles et en Génie du Canada (CRSNG) auprès du Fonds de la recherche Québécoise sur la nature et les technologies (FRQNT), ainsi qu’au Programme de Recherche Orientée en Microélectronique, photonique et télécommunication.  Citons aussi les projets réalisés avec des partenaires industriels. Le groupe vise un équilibre entre les recherches orientées et les recherches académiques, les premières influençant grandement les orientations développées dans les dernières.  Nous croyons fermement qu’il s’agit là d’un gage de pertinence et de qualité des travaux et des orientations prises par le groupe.

 

COLLABORATIONS EN 2013

L’année 2013 a été marquée par plusieurs faits saillants, notamment les collaborations entre les membres du GR2M entre eux ou avec  des chercheurs d’autres groupes et centres de recherche. 

Soulignons à titre d’exemple la collaboration entre les professeurs, Langlois et Bilodeau (EPM) en vision artificielle, Bois, Nicolescu, Boland (ETS) et Thibault (ETS) sur la norme ARINC 653, Savaria, David, Bois et Langlois en vérification et méthodes de conception; Savaria et Cherkaoui (UQAM) sur la configuration et la vérification de routeurs réseau, Sawan et Savaria sur la mise en œuvre d’une chaine de conversion d’énergie reçue par couplage inductif, Sawan, Savaria, Zhu, Kashyap et Laurin, Thibault (ETS), Boland (ETS), Blaquière (UQAM), et Liu (McGill) sur les capteurs de position, interfaces et réseaux AFDX pour applications avionics.

Également, mentionnons que Sawan collabore avec Corcos (McGill) sur les dysfonctions urinaires, avec Dancause (UdeM) sur la vision et mesures intracorticales, avec Emeriaud (UdeM) sur le neuromonitoring automatisé, avec Lesage, Lassonde, Nguyen, Deschamps et Tardif (UdeM) sur l’imagerie clinique, avec Gosselin (Laval) sur le lien magnétique de l’énergie et finalement Cowan (Concordia) sur les circuits RF.

Sur le plan international, mentionnons que plusieurs collaborations existent entre les professeurs du GRM et les professeurs/chercheurs des universités/centres de recherche de la France (ISAE), de la Suisse (EPFL), de l’Angleterre (Université de West of Scotland), de la Chine (Université Tsinghua), de l’Arabie Saoudite et du Brésil (Université fédéral de Santa Catarina).

Enfin, notons que les professeurs Kashyap, Martel, Meunier, Savaria et Sawan sont titulaires de Chaires de recherche du Canada.


OBJECTIFS DU GR2M

 

Tel que défini par ses statuts, le Groupe de Recherche en Microélectronique et Microsystèmes (GR2M) a pour objectif général de «promouvoir et regrouper les activités de recherche en Microélectronique à l’École Polytechnique de Montréal».

Plus spécifiquement, le GR2M poursuit les objectifs suivants:

 

·         Regrouper dans une entité visible les chercheurs qui œuvrent dans des secteurs reliés à la microélectronique et les microsystèmes;

·         Offrir aux chercheurs en microélectronique un lieu de communication et d’échange en vue de promouvoir et de faciliter la collaboration et le travail en équipe;

·         Assurer le bon fonctionnement des laboratoires et l’infrastructure du GR2M;

·         Faciliter l’accès aux technologies de microélectronique aux autres chercheurs de l’École et de l’extérieur de l’École susceptibles d’en profiter.

 

Ces objectifs n’ont pas été modifiés depuis la constitution officielle du groupe.

 

COMPOSITION DU GROUPE

 

Le Groupe de Recherche en Microélectronique et Microsystèmes relève du département de génie électrique et se compose des membres réguliers, membres associés et d’autres professionnels et chercheurs :

 

Liste des membres réguliers

 

·         Dr. Guy Bois: professeur titulaire au département de génie informatique et directeur du Groupe de Recherche en Microélectronique et Microsystèmes.  Il s’intéresse à la conception des systèmes embarqués, plus particulièrement à leurs spécifications, modélisation, partitionnement logiciel/matériel, synthèse, vérification fonctionnelle et prototypage.

·         Dr. Jean-Pierre David: professeur adjoint au département de génie électrique et codirecteur du Groupe de Recherche en Microélectronique et Microsystèmes.  Il s’intéresse à la conception rapide et fiable de systèmes numériques à partir d’une description de haut niveau, en particulier pour les systèmes reconfigurables (FPGA).

·         Dr. Yves Audet: professeur agrégé au département de génie électrique, ses travaux de recherche portent sur les circuits intégrés analogiques, les capteurs d’images CMOS, l’imagerie spectrale et les interconnexions photoniques pour système VLSI.

·         Dr. François Raymond Boyer: professeur adjoint au département de génie informatique qui s’intéresse aux architectures et méthodes de conception des circuits VLSI.  Il s’intéresse notamment à l’optimisation des systèmes exploitant des horloges multi phase.

·         Dr. Jean-Jules Brault: professeur agrégé au département de génie électrique et directeur du Laboratoire de Réseaux Neuronaux (LRN), qui s’intéresse aux diverses architectures et applications des machines neuronales, virtuelles ou électroniques, de même qu’au développement de leurs algorithmes d’apprentissage.

·         Dr. Raman Kashyap: Chaire de recherche du Canada en photoniques avancées, professeur titulaire aux départements de génie électrique et de génie physique.  Il s’intéresse aux nouveaux concepts en photonique pour les applications en radio sur fibre, technologies et composants à bandes interdites, biocapteurs, communications optiques, réseaux de Bragg en fibre optique à base de verre et polymères, nouveaux procédés pour fabriquer des guides d’ondes et leur intégration avec les circuits électroniques, les instruments de musique en photoniques, laser semi-conducteur et fibrée, les effets non linéaires optiques et refroidissement avec les lasers.  Il est membre fondateur du groupe Polyphotonique et le directeur du laboratoire de concepts photoniques avancés (APCL), directeur du laboratoire d’écriture avec les lasers, FABULAS, représentant des chercheurs au conseil d’administration de ICIP, membre de COPL et du CREER.

·         Dr. Pierre Langlois: professeur titulaire au département de génie informatique, s’intéresse à la conception et à la réalisation de processeurs configurables pour le traitement d’images et de vidéo, à la vision artificielle et à l’architecture des ordinateurs.

·         Dr. Sylvain Martel: professeur titulaire au département de génie informatique et titulaire d’une chaire de recherche du Canada dont le domaine de recherche est principalement la conception de micro et nano systèmes électromécaniques, incluant la nano robotique pour les applications au niveau moléculaire et atomique en touchant plusieurs aspects comme l’instrumentation, l’électronique, les ordinateurs ainsi que les systèmes reconfigurables.  En nano robotique, nous exploitons les découvertes fondamentales en nano sciences par la conception de nano robots capables de travailler au niveau du nanomètre pour créer de nouveaux systèmes, produits et applications.

·         Dr. Gabriela Nicolescu: professeure titulaire au département de génie informatique qui s’intéresse à la conception de haut niveau des systèmes embarqués hétérogènes composés de sous-systèmes spécifiques aux différents domaines d’application : logiciel, matériel, mécanique, optique et RF.  Elle travaille aussi sur la conception des systèmes sur puce multiprocesseurs.

·         Dr. Yvon Savaria: professeur titulaire et directeur de département de génie électrique, titulaire d’une chaire de recherche du Canada en Conception de systèmes microélectroniques intégrés, responsable administratif du laboratoire de VLSI. Il s’intéresse à la méthodologie du design des systèmes intégrés, aux problèmes de tolérance aux pannes et de testabilité, à la conception et la vérification des systèmes sur puce (SOC), à la conception des circuits numériques, analogiques et mixtes et aux applications de ces technologies.

·         Dr. Mohamad Sawan: professeur titulaire au département de génie électrique et détenteur d’une chaire de recherche du Canada sur les dispositifs médicaux intelligents et directeur du regroupement stratégique en microsystèmes du Québec (>>ReSMiQ), qui s’intéresse à la conception et la réalisation de circuits mixtes (numériques, analogiques, optiques et RF) et à leurs applications dans les domaines industriel (communication sans fil) et biomédical (stimulateurs et capteurs sensoriels).

 

 Liste des membres associés

 

·         Dr. David Haccoun: professeur émérite au département de génie électrique qui dirige des projets de recherche sur la méthodologie de conception de codeurs-décodeurs complexes, y compris l’impact de l’intégration en VLSI.  Il collabore avec MM Savaria et Sawan sur l’implantation de codeurs-décodeurs.

·         Dr. Michel Meunier: professeur titulaire au département de génie physique et titulaire d’une chaire de recherche du Canada en micro-ingénierie et nano-ingénierie des matériaux par laser.  Il effectue des projets de recherche sur les procédés pour la microélectronique, plus spécifiquement sur l’utilisation de lasers dans la fabrication de couches minces et la modification de matériaux.  Il collabore avec Yvon Savaria sur la restructuration et la calibration par laser pour la microélectronique et avec Mohamad Sawan sur les microélectrodes.

 

Liste des chercheurs post doctoraux et autres professionnels

 

·         M. Normand Bélanger          associé de recherche

·         M. Robert Chebli                   associé de recherche

·         M. Saied Hashemi                 associé de recherche

·         M. Éric Legua                         associé de recherche

·         Mme Maryam Mirzaei         associée de recherche

 

De plus, les personnes suivantes collaborent aux travaux du groupe à divers titres:

 

·         M. Réjean Lepage                       Analyste GR2M

·         M. Laurent Mouden                   Technicien du laboratoire GR2M

·         M. Jean Bouchard                       Technicien informatique GR2M

 

Ces personnes forment le Groupe de Recherche en Microélectronique et Microsystèmes de l'École Polytechnique, dont la reconnaissance officielle par l’École démontre la priorité que celle-ci accorde au domaine de la microélectronique.


 

 

PROGRAMME DE RECHERCHE EN MICROÉLECTRONIQUE

 

Domaines

 

Les programmes de recherche et de formation de chercheurs en microélectronique de l’École Polytechnique recouvrent les sous-secteurs suivants ;

 

·         La technologie microélectronique en elle-même, y compris les problèmes de test et de tolérance aux pannes et aux défectuosités ;

·           Les applications en télécommunications, en traitement des signaux et des images, en algorithmes et architectures parallèles, et en biomédical par la réalisation de capteurs et micro stimulateurs implantables ;

·           Les logiciels de synthèse, de conception et de test assistés par ordinateur ;

·         Les dispositifs électroniques et électro-optiques, ainsi que les technologies de fabrication.

 

Activités des membres réguliers

 

La description détaillée de notre programme de recherche débute sur une synthèse des activités de chaque membre au sein du GR2M.


 

ACTIVITÉS DU PROFESSEUR BOIS

 

Le professeur Bois poursuit des recherches dans le domaine de la Microélectronique, principalement dans le domaine du co-design et de la co-synthèse conjointe logiciel/matériel pour systèmes embarqués.

 

De nos jours, les systèmes embarqués sont de plus en plus présents dans les produits industriels et commerciaux: contrôleur d’injection d’une voiture, robot industriel, téléphone cellulaire, etc. Afin de concevoir ces systèmes de plus en plus complexes, l’ingénieur doit avoir recours à l’utilisation conjointe de processeurs d’usage général, dont les performances atteignent aujourd’hui des niveaux très élevés, et de circuits spécialisés chargés de la réalisation de fonctions spécifiques. De plus, la concurrence sur les produits et les services, impose à tous, la sévère loi du «temps de mise en marché», qui impose de réduire fortement le temps alloué au développement. La situation de ces défis impose donc une approche d’ingénierie simultanée du logiciel et du matériel, nommé co-design.

 

Le professeur Bois travaille au développement de méthodes modernes de conception conjointe logiciel/matériel.  Plus particulièrement, ses travaux se concentrent autour de deux projets :

 

1.       Space Codesign

La technologie Space CodesignTM et sa plate-forme de conception Space Studio consistent en un logiciel facilitant la conception de systèmes électroniques embarqués.  Par simulation, il est possible de modéliser le comportement d’une application que l’on veut implanter (par exemple un téléphone cellulaire contiendra des algorithmes spécialisés ou d’encodage de la voix).  De plus, le fait que le tout soit en simulation permet d’explorer aisément différentes architectures pour ainsi trouver un compromis du système le plus performant, au coût le plus bas.  Cette caractéristique est apportée par 2 technologies :

 

Ø  Elix permettant l’exploration et la simulation rapide de différentes configurations d’un même système électronique embarqué et ;

Ø  Simtek permettant de simuler, avec une grande précision, une configuration particulière choisie avec Elix ou construite de toute pièce, et tout cela avant même de créer physiquement le circuit.  De plus, un outil complémentaire permet de collecter des statistiques sur les performances et comportements du système en simulation.

 

En plus d’offrir des possibilités d’exploration de différentes architectures grâce à la simulation, notre technologie propose un flot de conception qui permet à un utilisateur de partir de la simulation pour arriver à l’implantation finale (FPGA ou ASIC).  Cette caractéristique utilise la technologie GenX de Space Codesign.

 

 

2.       AREXIMAS

Ce projet se concentre sur les systèmes avioniques basés sur un réseau de processeurs.  Ces systèmes se doivent d’être sécuritaires, fiables et tolérants aux panes.  Plus précisément, nous nous intéressons aux compromis entre la reconfigurabilité, la fiabilité et le coût de ces systèmes.  Deux objectifs généraux sont poursuivis :

 

Ø   Le développement d’un environnement démonstrateur de plateforme IMA (Integrated Modular Avionics) à faibles coûts, comportant un simulateur ARINC 653, et

 

Ø   L’analyse et la caractérisation de l’application de vision EAVS (Enhanced Avionic Vision System) pour estimer ses ressources en prévision de son prototypage sur plateforme IMA.

 

Les partenaires industriels qui collaborent à ces projets sont CMC Electronics et CAE.  Au niveau universitaire les collaborateurs sont les professeurs Boland et Thibault (ETS), ainsi que Nicolescu et Beltrame de l’École Polytechnique de Montréal.

 


 

ACTIVITÉS DU PROFESSEUR DAVID

 

 

Le professeur David mène des activités de recherche dans le domaine de la synthèse des systèmes logiques matériel-logiciel, leurs constituants, leurs outils et leurs applications.  Il s’intéresse plus particulièrement aux outils de synthèse automatique à partir d’une description de haut niveau, aux treillis de calculs, à l’implantation d’opérateurs arithmétiques en virgule flottante et de manière générale à l’implantation optimale des tâches disposant d’un niveau de parallélisme élevé.  Au niveau applicatif, le professeur David travaille dans le domaine de la sécurité informatique (analyse profonde des paquets Ethernet pour le repérage de fichiers connus), aux applications de calcul matriciel pour la simulation de systèmes électriques et de manière générale à toutes les applications qui demandent une puissance de calcul supérieure à ce que peut offrir un processeur standard.

 

Un système reconfigurable est un circuit logique programmable dont le comportement sera déterminé au moment de sa programmation.  Aujourd’hui, ces circuits intègrent plusieurs noyaux de processeurs, des centaines de mémoires, des centaines de multiplieurs, des dizaines de milliers de fonctions logiques programmables, de multiples ressources dédiées et un immense réseau de connexions configurables permettant d’interconnecter ces ressources pour réaliser un circuit complexe et hautement parallèle.  Ils concurrencent de plus en plus les circuits dédiés de type ASIC, car on peut les reprogrammer à volonté et leur densité atteint maintenant la dizaine de millions de portes logiques équivalentes.

 

Les circuits reconfigurables relèvent à la fois du Génie Électrique (GÉ) et du Génie Logiciel (GL).  Une fois le circuit physique réalisé (GÉ), il reste à le programmer (GL).  Toutefois, la programmation sert à implémenter un circuit avec des signaux logiques qui se propagent d’une manière semblable à ce qui se passe dans un circuit logique traditionnel (GÉ).  Enfin, ces circuits contiennent souvent un ou plusieurs processeurs devant être programmés (GL).  Les deux domaines sont donc très étroitement reliés et il devient nécessaire d’avoir une vision plus large qui réunit les deux disciplines.

 

Notre programme de recherche principal, subventionné par le CRSNG, consiste à développer un nouveau langage de description de matériel (HDL) d’un niveau d’abstraction intermédiaire entre les langages de programmation utilisés en GL et les langages de description de matériel utilisé en GÉ.  Nous visons à décrire des circuits au niveau fonctionnel (algorithmique) et développons un compilateur (CASM) capable de transformer cette description en un circuit de manière automatique et sure par construction.  En résumé, notre langage permet de décrire des réseaux de machines algorithmiques qui traitent et s’échangent des jetons de données en parallèle, un peu sur le modèle de CSP (Communicating Sequential Processes) et SDL (Specification and Description Language).  Une grande nouveauté par rapport aux ASM (Algorithmic State Machine) traditionnels consiste en la possibilité de faire des appels (et donc des retours) d’états d’une manière semblable à un appel de méthode en logiciel ou encore une continuation dans les langages fonctionnels.  Il devient alors possible de synthétiser des machines récursives, ce qui nous a permis, par exemple, d’implémenter une version de l’algorithme QuickSort (un algorithme de tri rapide hautement récursif) sur FPGA très facilement.  En outre, l’outil génère automatiquement tous les signaux de contrôle pour la synchronisation des envois-réceptions des jetons de données dans tout le réseau sans perdre de cycle d’horloge (possiblement sous la forme de pipeline continu).  Le concepteur peut donc se concentrer sur les aspects algorithmiques et déléguer la tâche de réalisation du circuit au compilateur.  Toutefois, l’utilisateur averti a conscience de l’architecture qui sera synthétisée et peut, dans la manière dont il décrit l’algorithme, influencer celle-ci.

 

 


 

ACTIVITÉS DU PROFESSEUR AUDET

 

Les activités du professeur Audet sont reliées aux capteurs photoniques, fabriqués en procédé CMOS, visant deux champs d’applications spécifiques soient : les capteurs d’images intégrés et les détecteurs photoniques de haute performance pour système VLSI à interconnections optiques.

 

 

1.       Les capteurs d’images CMOS

 

Ce programme de recherche adresse la problématique de conception et de fabrication de capteurs d’images CMOS de grande surface, qui permettrait d’obtenir une caméra numérique de résolution spatiale comparable à celle d’une caméra avec pellicules chimiques photosensibles.  On vise un capteur ayant une matrice de pixel de 36 x 24 mm de surface pour atteindre la compatibilité avec la gamme des lentilles développées pour la photographie SLR 35 mm.

 

Outre la réalisation d’un capteur d’images de grande surface, les techniques de conception de pixels redondants avec autocorrection développées sont aussi utiles à la réalisation de capteurs d’images employés dans des environnements hostiles comme l’espace, les mines, les réacteurs nucléaires, etc., là où une caméra peut-être exposée à des radiations, des températures et des pressions extrêmes pouvant endommager le capteur.  Ainsi, les propriétés d’autocorrection de l’architecture redondante permettront à la caméra de transmettre des images plus longtemps dans ces milieux hostiles où le remplacement et la réparation sont difficiles, voire impossibles.

 

 

2.       Les détecteurs photoniques

 

Ici on s’intéresse au développement de technique de propagation de signaux par modulation photonique, tant sur un même circuit intégré qu’entre puces d’un même système, de façon à éliminer les interconnexions métalliques critiques qui limitent la performance des systèmes.  Des taux de propagation supérieurs à 1 Gb/s sont visés.

 

Bien que la recherche sur les interconnections photoniques ait favorisé jusqu’à maintenant les dispositifs III-V pour la conversion de signaux électriques à signaux photoniques, la diminution constante de la taille des structures fabriquées sur technologie CMOS pourrait avantager les dispositifs photoniques au silicium notamment au niveau des photo-détecteurs.  Avec la diminution de la taille des structures, les capacités parasites des composants actifs diminuent également de sorte qu’un faisceau lumineux de moindre énergie est requis pour activer une cellule photo-détectrice au silicium et une réponse plus rapide peut être obtenue.  Les avantages d’un photo détecteur au silicium pouvant être intégré à même une puce VLSI sont considérables, même si les performances sont moindres qu’un photo-détecteur en technologie III-V.  Citons entre autre la simplicité du procédé de fabrication CMOS comparé aux technologies hybrides III-V – CMOS et l’élimination des circuits liés à l’intégrité des signaux d’horloge en amplitude et en phase, tels que les répétiteurs et les circuits de verrouillage de phase (PLL).  À l’heure actuelle, dû aux problèmes de délais associés aux interconnections métalliques, il est de plus en plus difficile d’assurer la synchronisation entre les différents modules d’un système VLSI, de sorte que les techniques de propagation de signaux asynchrones sont maintenant envisagées pour relier des modules sur une même puce, ajoutant à la complexité du système.  Les interconnexions photoniques assureront la performance des systèmes VLSI sans ajouter à leur complexité.

 


 

ACTIVITÉS DU PROFESSEUR BOYER

 

Le professeur Boyer conduit des recherches incluant les domaines de la microélectronique, et du traitement de signal.  Plus spécifiquement, il s’intéresse au design, à la synthèse et à l’optimisation des systèmes conjoints logiciel/matériel dédiés, ainsi qu’au développement d’architectures prenant parti d’un nouveau type d’horloge, dans le but d’obtenir une bonne performance à faible consommation d’énergie.

 

L’horloge à période variable cycle par cycle est encore un concept relativement nouveau.  L’idée est de permettre de moduler la longueur des cycles d’horloges pour pouvoir suivre précisément un ordonnancement.  Cet ordonnancement peut être fait à l'avance, mais aussi à l’exécution, pour pouvoir traiter de manière optimale les expressions conditionnelles et pour pouvoir tenir compte d’autres facteurs qui ne sont pas connus lors de la compilation (ou synthèse).  Dans le cas de systèmes très dynamiques, devant réagir à des stimuli externes, l’ordonnancement peut s’ajuster pour rencontrer les latences maximales permises tout en minimisant la consommation d’énergie.  À l’exception des circuits asynchrones, les circuits ont actuellement très majoritairement une horloge fixe, ou variant lentement dans le temps, qui limite la possibilité d’ordonnancement.  Pour obtenir le meilleur ordonnancement possible, il faut relâcher les contraintes de l’horloge et ce nouveau type d’horloge permet beaucoup plus de flexibilité.

 

Ses publications récentes sur ce sujet concernent principalement la réduction de la gigue de l’horloge ainsi que l’utilisation de cellules numériques normalisées pour réduire les temps de conception et simplifier la mise à l’échelle.

 

La conception de systèmes dédiés demande à la fois de déterminer la structure matérielle et le logiciel devant s’exécuter sur ce matériel.  Une approche conjointe logicielle/matérielle est nécessaire pour la conception et l’optimisation d’un tel système.  Pour des systèmes dédiés, les outils doivent permettre la spécialisation (paramétrisation) des composantes.  Puis la partie logicielle doit être compilée pour une architecture parallèle possiblement hétérogène (avec des processeurs de plusieurs types différents) et comportant des instructions spéciales.  Ses recherches se situent sur différents plans, dont l’automatisation de la séparation logiciel/matériel, la compilation parallélisante pour un système hétérogène configurable, et une diminution du temps associé à l’assemblage et test du système, pour un temps de mise en marché minimum.  Une application actuellement visée est les réseaux sans fil sur le corps pour le traitement de données médicales.

 

 

Applications :

 

Traitement de signal et isolation de la voix dans des prothèses auditives numériques :

 

Le domaine de la prothèse auditive numérique est en expansion, due au fait que la miniaturisation des processeurs le permet, mais aussi au fait que la demande en prothèses auditives augmente (la population vieillit) et que les gens recherchent une qualité supérieure.  L’utilisation de plusieurs microphones est actuellement une des méthodes qui a le plus de succès pour augmenter la discrimination des sons et améliore l’intelligibilité.  Par contre, le traitement fait sur ces sources pourrait être amélioré, tout en gardant une petite taille et une faible consommation d’énergie.

 

Capture de mouvements du corps humain :

 

Des capteurs inertiels sont utilisés pour analyser les mouvements 3D du corps humain.  Cette analyse de mouvement peut s’appliquer au domaine médical pour, par exemple, détecter des anomalies, ou sportifs, pour améliorer le mouvement, mais aussi à l’enseignement et à l’art.  Un logiciel d’enseignement de direction d’orchestre est en développement avec cette analyse de mouvements.

 

Les principaux partenaires qui collaborent sur ces recherches sont le professeur Y. Savaria (génie électrique, École Polytechnique), sur le côté matériel, le professeur H.T. Bui (Sciences appliquées, Université du Québec à Chicoutimi), sur les convertisseurs en cellules normalisées, et le professeur P. Bellomia (faculté de musique, Université de Montréal), sur la capture de mouvement.


 

ACTIVITÉS DU PROFESSEUR BRAULT

 

 

 

Le professeur Brault dirige le LRN (Laboratoire de Réseaux Neuronaux.)  Ses recherches visent plus spécifiquement l’application les algorithmes d’apprentissage (AA) à des problèmes d’inférence sur des données expérimentales en utilisant des machines neuronales (MN), virtuelles ou électroniques.  Le champ d’application des AA/MN est très vaste puisque les MN sont des approximateurs universels utilisés tant en classification, en régression qu’en estimation de fonction de densité.  D’autre part, vu l’homogénéité des traitements réalisés par les MN, ils peuvent souvent être intégrés relativement aisément sur des circuits électroniques.

 

 

 

Les principales difficultés que l’on rencontre dans le design de ces machines proviennent du fait qu’elles sont habituellement adaptées itérativement et que l’information est massivement distribuée dans les interconnexions de la MN.  Parmi ces difficultés, notons, le choix du type de neurones à utiliser (déterministes ou stochastiques, modèle de McCulloch-Pitts ou Hodgkin-Huxley), le nombre de neurones (capacité à s’adapter au problème) le type d’interconnexions (avec ou sans récurrence), le paradigme/loi d’apprentissage (supervisé ou non, correction d’erreurs, minimisation d’entropie, etc.), la fonction de cout à minimiser, etc.  Tous ces «hyperparamètres» doivent évidemment conduire à la conception d’une machine capable de bien généraliser (interpoler ou extrapoler) sur de nouvelles données.

 

 

 

Outre les architectures bien connues de type MLP (ou RBF) optimisées pour diverses applications (antennes, parole, robotique), les MN qui retiennent particulièrement notre attention sont les machines stochastiques causales (réseaux bayesiens) et les machines à états liquides (MEL) (également appelées «réseaux à échos»).  Pour le premier cas, ce type de système comporte habituellement un très grand nombre de variables stochastiques et les techniques d’optimisation comme le recuit simulé, sont souvent jugé inutilisable à cause des temps de calcul ou de la mémoire requise pour leur mise en œuvre.  En effet, pour valider un réseau bayesien, on doit générer un très grand nombre de cas (vecteurs de tests) en fonction d’une distribution de probabilité multivariable.  On se frappe alors au problème de la «malédiction de la dimensionnalité».  Une modification possible est l’ajout d’aspects déterministes dans le processus d’optimisation conduisant par exemple au recuit déterministe RD (Deterministic Annealing).  Dans le second cas, (MEL), le problème est de concevoir une machine à rétroaction massive qui se comporte de façon quasi chaotique afin d’explorer un espace d’états continus (ou liquides).

 

 

 

Concernant les aspects électroniques de ces projets, nous étudions la conception de circuits échantillonneurs en fonction d’une distribution de probabilité d’un espace approximé par un réseau bayesien.  Nous modifions les circuits logiques traditionnels afin de les rendre probabilistes.  D’autre part, des circuits appelés «neurones à pulses» ont été simulés sur SPICE pour équiper des robots suiveurs.

 


 

ACTIVITÉS DU PROFESSEUR LANGLOIS

 

 

Le professeur Langlois s’intéresse à la conception et à la réalisation de processeurs configurables pour le traitement d’images et de vidéo, à la vision artificielle et à l’architecture des ordinateurs.

 

Des projets sont en cours dans deux domaines principaux:

 

Conception de processeurs spécialisés et configurables pour le traitement vidéo.

 

Ce projet est mené conjointement avec les professeurs Savaria et Bois du GR2M.

 

Les processeurs configurables offrent d’intéressantes solutions en informatique embarquée pour l’implémentation d’algorithmes de traitement d’image et de traitement du signal en temps réel.  Les besoins en calculs, les contraintes de synchronisation, la réduction des couts et les limites en consommation de puissance pour ces applications écartent habituellement les solutions purement logicielles implémentées sur un processeur à usage général.  Les processeurs configurables ont l’intérêt de pouvoir être programmés à l’aide de langages de haut niveau familiers pour la plupart des concepteurs.  Les processeurs configurables commerciaux sont paramétrables et extensibles.  Des caractéristiques spécifiques comme un multiplicateur peuvent être activées ou non.  Des structures peuvent être ajoutées au processeur, comme des instructions additionnelles, des blocs de registres élargis et des interfaces mémoires particulières.

 

Les objectifs de ce projet incluent le développement de méthodologies de conception pour des processeurs spécialisés (Application Spécifique Instruction set Processor - ASIP), principalement pour des applications de traitement vidéo en temps réel.

 

Inspection des images du fond d’œil pour la détection de maladies

 

Ce projet est mené conjointement avec la professeure Chériet du département de génie informatique et génie logiciel.

 

Nous nous attaquons à plusieurs problèmes reliés au traitement d’images de fonds d’œil. Nous considérons tout d’abord l’évaluation objective de la qualité d’images de fonds d’œil de façon à déterminer si une image est satisfaisante ou non pour des traitements plus avancés. On peut ainsi déterminer si un patient peut quitter une clinique ophtalmologique ou si d‘autres images doivent être prises. Nous avons ensuite considéré le problème de la segmentation des lésions sombres sur la rétine, indicatives de maladies comme la rétinopathie diabétique. Nous considérons finalement l’accélération du traitement en vue de la segmentation automatisée du réseau vasculaire, une étape préalable à la détection de maladies de l’œil et à l’identification du risque de maladie cardio-vasculaire.

 

Vision artificielle

 

Ce domaine de recherche est poursuivi en collaboration avec le professeur Bilodeau du département de génie informatique et génie logiciel.

 

D’une part, nous avons travaillé à proposer une solution automatique qui se repose sur la vision informatique pour suivre et annoter trois comportements de rongeurs dans un environnement biomédical typique : statique, élevé et en train d’explorer.

 

D’autre part, nous avons collaboré avec Logi-D, un fournisseur de solution de gestion de matériel dans des hôpitaux et des cliniques médicales. Le projet vise à faire le suivi de l’inventaire médical utilisé par le personnel infirmier. À l’aide d’une caméra placée au plafond, le système tente de reconnaître les compartiments de différents tiroirs et d’en évaluer leurs contenus.


 

ACTIVITÉS DU PROFESSEUR MARTEL

 

 

 

Les activités du professeur Martel se situent principalement dans la recherche et le développement de systèmes miniatures intelligents et plus particulièrement dans le domaine de la nanorobotique.  L’objectif actuel consiste à développer des nanorobots avec une infrastructure conçue pour supporter une flotte d’une centaine de ces nanorobots capables d’opérer très rapidement et de façon autonome au niveau moléculaire et jusqu’au niveau des atomes.

 

 

Pour ce genre de projets, nous devons développer plusieurs systèmes électroniques et microélectroniques spécialisés pour supporter, contrôler et implanter plusieurs tâches complexes incluant par exemple :

 

·         Système en temps réel et de très haute performance de positionnement, de navigation et communication à infrarouge pour plates-formes nanorobotique ;

 

·         Système de positionnement miniature de résolution atomique basé sur les techniques de microscopie à effet tunnel ;

 

·         Systèmes et instruments miniatures de manipulation, mesure, synthèse et fabrication au niveau moléculaire ;

 

·         Système de contrôle embarqué pour déplacement de nanorobots, etc.

 

 

Notre intérêt est donc le développement de divers circuits miniatures (analogue et numérique) de haute performance en utilisant diverses approches, techniques, outils de conception et systèmes de vérification/validation essentiellement au niveau système sur puces (SoC).

 

 

La miniaturisation, précision, vitesse et le rendement en temps réel sont des aspects très importants et critiques dans la plupart des systèmes électroniques développés pour ce genre de projet.  Les systèmes à concevoir sont aussi généralement très complexes et exigeants et font appel à plusieurs technologies qui doivent être intégrées dans des systèmes micro-mécatroniques avec instruments intégrés de très haute précision et opérant à de très grandes vitesses.


 

ACTIVITÉS DU PROFESSEUR NICOLESCU

 

Gabriela Nicolescu conduit des recherches sur la conception des systèmes embarqués.  Deux types de systèmes sont visés par ses recherches : la dernière génération des systèmes embarqués intégrant des sous-systèmes hétérogènes provenant de différents domaines d’application (ex. : électronique, optique, mécanique, RF) et les systèmes sur puce intégrant plusieurs processeurs hétérogènes (ex. : processeurs configurables, processeurs spécialisés pour un type d’application, processeurs d’usage général).  Les thèmes de recherche seront élaborés brièvement par la suite.

 

 

Conception des systèmes embarqués hétérogènes

 

Nos travaux sur la conception des systèmes embarqués hétérogènes portent sur les nouvelles techniques pour la modélisation et la validation globale de ces systèmes.  Nous travaillons sur la définition et la mise en place d’un environnement permettant la coopération des concepteurs provenant des domaines d’application différents, avec de différentes cultures et utilisant différents niveaux d’abstraction (ex. : RTL, niveau transactionnel), langages de spécification (ex. : VHDL, SytemC, Matlab) et modèles d’exécution (simulation native, simulation à base d’ISS).  Nos travaux explorent particulièrement la modélisation et la simulation des interactions entre les composantes fournies par divers concepteurs et nous explorons les techniques de génération automatique des interfaces d’adaptation entre ces composantes.

 

Nous utilisons comme applications concrètes les MEMS (micro electro-mechanical systems), MOEMS (micro opto-electro-mechanical systems) et les réseaux optiques sur puce.

 

 

Conception des systèmes sur puce multiprocesseur

 

Nos travaux sur la conception des systèmes sur puce multiprocesseurs portent sur l’exploration architecturale et la validation par simulation de ces systèmes.

 

Concernant l’exploration architecturale nous étudions des nouvelles architectures mémoires et les algorithmes efficaces pour mapper les différentes applications sur ces architectures.  Nous explorons aussi l’impact de l’implémentation des systèmes d’exploitation sur l’efficacité des systèmes multiprocesseurs sur puce.  Les approches prises en compte sont : les systèmes d’exploitation implémentés en logiciel, les systèmes d’exploitation implémentés en matériel, et les systèmes d’exploitation logiciels/matériels.  Nous explorons aussi l’impact de l’intégration sur même puce des processeurs différents et des systèmes d’exploitation implémentés par les différentes techniques présentés plus haut.

 

Concernant la validation des systèmes, multiprocesseurs, nous explorons de nouveaux modèles de simulation permettant une validation rapide et précise de ces systèmes.  Nous étudions les modèles de simulation de haut niveau pour les parties logiciels dépendants du matériel (hardware dependent software) pour la simulation native du logiciel embarqué.

 

Nous évaluons nos approches à l’aide des applications multimédias (ex. : MPEG4, DivX).


 

ACTIVITÉS DU PROFESSEUR SAVARIA

 

Il conduit des recherches selon deux grands axes : l’élaboration de méthodes de conception et l’utilisation des technologies microélectroniques dans des applications spécifiques.  Le premier axe englobe des travaux sur la conception de chaines d’alimentation pour les microsystèmes embarqués et les méthodes de conception et de synchronisation des systèmes intégrés.  Il englobe aussi des techniques d’autotest et de tolérance aux pannes et aux défectuosités.  Le second axe couvre des thèmes divers liés aux applications des microsystèmes intégrés comme la conception de systèmes de radio configurable, la conception de décodeurs convolutionnels, la conception d’une plate-forme SOC pour la réalisation de processeurs réseau et de systèmes de traitement vidéo ainsi que sur la conception d’un système de prototypage rapide.  Plusieurs de ces travaux sont réalisés en collaboration avec d’autres chercheurs dont plusieurs sont membres du ReSMiQ.  La suite reprend chacun de ces thèmes en élaborant brièvement.

 

Méthodes de conception

Nos travaux sur les méthodes de conception explorent diverses classes de circuits nécessaires pour la mise en œuvre de chaines d’alimentation  de microsystèmes intégrés comme des redresseurs à faible chute de tension et des convertisseurs DC-DC  à commande asynchrone. Nous explorons aussi des méthodes de synchronisation efficaces pour les systèmes intégrés.

 

Nous explorons les méthodes efficaces pour la conception d’architectures intégrées. Ces architectures doivent souvent être adaptées à la classe d’application ciblée. Cela conduit parfois à des plateformes composées de modules paramétrables, réutilisables et compatibles entre eux qui forment la base d’une architecture flexible pour la classe d’application ciblée.  Nos recherches portent aussi sur plusieurs techniques pour la conception de processeurs configurables visant l’accélération des calculs.  Ces techniques permettent notamment de réduire considérablement l’énergie requise pour effectuer un traitement.

 

Enfin, en rapport avec les techniques de tolérance aux pannes, nous les explorons dans le cadre d’un projet qui vise à gérer l’effet des radiations sur l’électronique ainsi que dans le cadre d’un projet qui vise la réalisation par circuit intégré à l’échelle de la tranche (WSI) d’une technologie de prototypage rapide pour les systèmes électroniques complexes.

 

Applications

Dans le cadre de cet axe, nous explorons un ensemble d’applications.  Plusieurs de ces applications permettent d’explorer les méthodes de dimensionnement automatique des chemins de données.  Nous explorons les architectures possibles pour la mise en œuvre des systèmes de traitement vidéo. 

 

Nous travaillons aussi à la mise en œuvre de diverses classes de modules nécessaires pour la mise en œuvre de radios configurables, de processeurs réseau et de systèmes de traitement vidéo.

 

Un de nos projets important porte sur la conception d’un réseau de communication fiable pour la transmission des données critiques pour le domaine de l’aéronautique parrainé par Thales et Bombardier. Un autre projet parrainé par Ericsson porte sur la conception d’équipement réseau virtualisé.

 

Enfin, en collaboration avec Technocap, UQAM, UQO et plusieurs autres participants, nous élaborons une technologie d’intégration configurable pour les systèmes électroniques dans le cadre du projet DreamWafer.

 


 

ACTIVITÉS DU PROFESSEUR SAWAN

 

Le professeur Sawan dirige une équipe de recherche ayant des activités qui se diversifient selon les grandes priorités suivantes: la conception, la réalisation et le test des circuits intégrés analogiques, mixtes et à fréquences radio; la conception des systèmes pour l'acquisition et le traitement de signal et d'image, l’assemblage et l’encapsulation de dispositifs électroniques; le prototypage rapide se servant de circuits et microsystèmes reconfigurables. L'ensemble de ces priorités s'articule autour de deux objectifs essentiels soient la réalisation de modules et de systèmes complets dédiés à des applications industrielles variées tel que les télécommunications, et la mise en œuvre de dispositifs médicaux servant à la récupération des organes et/ou des fonctions chez les patients ayant perdu l'usage (ou n'ayant pas) de ces fonctions, plus particulièrement des micro stimulateurs et capteurs sensoriels implantables et non-implantables et des systèmes optiques et ultrasoniques portables.

 

En particulier, le professeur Sawan s’intéresse aux convertisseurs analogiques à numérique (CAN): rapide, à haute précision et à très basse alimentation et consommation, aux filtres reconfigurables et à bande passante élevée, aux préamplificateurs à très faible niveau de bruit et à large bande passante et programmables, aux régulateurs de tension. Aussi, des nombreux autres circuits intégrés mixtes font l'objet de nos travaux de recherche dans le cadre des applications médicales : capteurs et micro stimulateurs, conversion optique – électrique, ultrasons, microélectrodes, techniques de mesures intégrés, etc.  Ajoutons que nous menons des travaux dans le domaine de communications sans fil et l’avionique, plus spécifiquement, nous travaillons à la mise au point d’interfaces pour divers capteurs, des liens électromagnétiques efficaces, etc.

 

Les systèmes dédiés à des applications médicales doivent être performants (dimensions réduites et à très basse consommation d'énergie), fiables et flexibles. Ces applications pluridisciplinaires regroupent des activités des différentes disciplines connexes en sciences et génie. Ceci implique des connaissances en physique, mécanique, chimie, biologie, biomatériaux, etc. Nous nous intéressons à mettre en œuvre un bon nombre de ces systèmes soit : un stimulateur implantable urinaire servant à contrôler les deux fonctions de la vessie (rétention et incontinence); un implant visuel dédié à la création d'une vision acceptable chez les non-voyants, un dispositif capteur de signaux neuronaux dans le but de mesurer le volume d'urine dans la vessie et nous construisons des structures hétérogènes basées sur microsystèmes, soient des laboratoire-sur-puces. Ces derniers servent à mettre au point des outils de diagnostic cellulaire. Nous poursuivons nos travaux sur les techniques de télémétrie pour la mesure de divers paramètres biologiques. Nous nous servons des techniques optiques dans le domaine de l’imagerie clinique basée sur la spectrométrie proche infrarouge. Aussi, nous nous intéressons à la réalisation des systèmes ultrasoniques portables.

 

Titulaire d’une Chaire de recherche du Canada sur les dispositifs médicaux intelligents, professeur Sawan est membre de plusieurs comités d’organisation et de programme de conférences nationales et internationales. Fondateur de la conférence internationale IEEE-NEWCAS, fondateur du laboratoire de neurotechnologies Polystim et directeur du regroupement stratégique en microsystèmes du Québec (ReSMiQ), éditeur et co-éditeurs de plusieurs revues internationales et membre de «Board of Governors» de la société circuits et systèmes de IEEE (2013-2015), élu «Distinguished Lecturer» de la société Solid-State Circuits de IEEE (2011-2012). Professeur Sawan est Fellow de l’IEEE, Fellow de l’académie Canadienne de génie, Fellow des instituts canadiens des ingénieurs, Fellow de IEEE et Officier de l’ordre national de Québec. Pour plus de détails, veuillez consulter la page http://www.mohamadsawan.org.

 

Pour plus de détails sur les différents travaux cités ci-dessus, le lecteur est invité à lire les descriptions des projets d'étudiants dans ce rapport et à consulter notre site web au http://www.polystim.ca.


ÉTUDIANTS AUX CYCLES SUPÉRIEURS

 

Étudiants aux cycles supérieurs qui ont effectué des recherches associées au GR2M durant la période couverte par ce rapport:

 

Nom de l'étudiant

Diplôme en cours

Directeur

Codirecteur

Abdollahifakhr, Hanieh

M.Sc.A.

Y. Savaria

 

Akbarniai Tehrani  Mona

Ph.D.

Y. Savaria

J.J. Laurin

Arfaoui, Nadia

M.Sc.A.

M. Sawan

P. Pouliot

Bany Hamad, Ghaith

Ph.D.

Y. Savaria

 

Ben Cheikh, Taieb Lamine

Ph.D.

G. Nicolescu

 

Bendaoudi, Hamza

Ph.D.

P. Langlois

 

Berrima, Safa

M.Sc.A.

Y. Savaria

Y. Blaquière

Blouin, Frédéric

M.Sc.A.

P. Langlois

G.A. Bilodeau

Champagne, Pierre-Olivier

M.Sc.A.

M. Sawan

E. Ghafar-Zadeh

Charasse, Sylvain

M.Sc.A.

Y. Savaria

 

Daigneault, Marc-André

Ph.D.

J.-P. David

 

Darvishi, Mostafa

Ph.D.

Y. Audet

Y. Blaquière

Dehbozorgi, Maya

M.Sc.A.

M. Sawan

P. Pouliot

Falcon, Jeff

M.Sc.A.

G. Bois

 

Fourmigue, Alain

Ph.D.

G. Nicolescu

 

Ghane-Motlagh, Bahareh

Ph.D

M. Sawan

 

Gholamzadeh, Bahared

M.Sc.A.

M. Sawan

 

Guillemot, Mikael

M.Sc.A.

Y. Savaria

 

Hached, Sami

Ph.D.

M. Sawan

 

Hamie, Ali

M.Sc.A.

M. Sawan

 

Hasanuzzaman, Md

Ph.D.

M. Sawan

 

Hussain, Wasim

Ph.D.

Y. Savaria

 

Kamrani, Ehsan

Ph.D.

M. Sawan

F. Lesage

Karimian-Sichany, Masood

M.Sc.A.

M. Sawan

 

Kassab, Amal

M.Sc.A.

M. Sawan

 

Keita, Abdoul-Kader

M.Sc.A.

P. Langlois

 

Keklikian, Thalie Léna

M.Sc.A.

Y. Savaria

 

Khandzadi, Himan

M.Sc.A.

J.P. David

Y. Savaria

Koubaa, Zied

M.Sc.A.

M. Sawan

 

Kowarzyk Moreno, Gilbert

Ph.D.

Y. Savaria

D. Haccoun

Krouchev, Nedialko

Ph.D.

M. Sawan

A. Vinet

Laflamme-Mayer, Nicolas

Ph.D.

M. Sawan

Y. Blaquière

Larbanet, Adrien

M.Sc.A.

J.-P. David

 

Legault, Vincent

M.Sc.A.

G. Bois

 

Li, Meng

Ph.D.

Y. Savaria

G. Zhu

Li, Nan

Ph.D..

M. Sawan

 

Ly, My Sandra

M.Sc.A.

M. Sawan

 

Massicotte, Geneviève

M.Sc.A.

M.Sawan

 

Mehri Dehnavi. Marzieh

M.Sc.A.

Y. Audet

G. Gagnon

Moradi, Arash

Ph.D.

M. Sawan

 

Mouret, Geoffroy

M.Sc.A.

J.-J. Brault

 

Nabovati Khormazard, Ghazal

Ph.D.

M. Sawan

E. Ghafazadeh

Najapour-Foroushani, Armin

M.Sc.A.

J.-J. Brault

 

Nishi, Romain

M.Sc.A

Y. Savaria

G. Zhu

Nsame, Pascal

Ph.D.

G. Bois

Y. Savaria

Rivard-Girard, Simon

M.Sc.A.

G. Bois

 

Salam Tariqus, Mohammad

Ph.D.

M. Sawan

 

Sharafi, Azadeh

Ph.D.

S. Martel

 

Siadjine Njinowa, Marcel

Ph.D.

H.T. Bui

F. R. Boyer

Stimpfling Thibault

M.Sc.A.

M. Savaria

 

Taboubi, Mohamed

M.Sc.A.

P. Langlois

C. Morency

Tremblay, José-Philippe

Ph.D..

Y. Savaria

 

Vakili, Shervin

Ph.D

P. Langlois

G. Bois

Wang, Yiqiu

M.Sc.A.

M. Sawan

 

Watson, Meghan Chelsea

Ph.D.

M.Sawan

F.Lepore, N. Dancause

Zgaren, Mohamed

Ph.D.

M. Sawan

 

Zhang, Kai

Ph.D.

Y. Audet

 

Zheng, Yushan

Ph.D.

M. Sawan

 

 

ÉTUDIANTS NOUVELLEMENT INSCRITS

 

Nom de l'étudiant

Diplôme en cours

Directeur

Codirecteur

Bao, Lin

M.Sc.A.

G. Bois

 

Bouali, Moez

Ph.D.

M. Sawan

 

Fartoumi, Sina

M.Sc.A.

M. Sawan

G. Emeriaud

Khamsehashari, Elham

Ph.D.

Y. Audet

 

Rahmani, Zahra

Ph.D.

Y. Savaria

J.F.Frigon

Saha, Sreenil

Ph.D.

M. Sawan

F.Lesage

Sestier, Patrick

M.Sc.A.

G. Bois

 

Zabihien, Alireza

Ph.D.

M.Sawan

 


 

TITRES DES PROJETS ET DIPLÔMES EN COURS DE CHAQUE ÉTUDIANT

Cette section contient une liste de projets avec le nom des personnes concernées.  Plus de détails sur chacun des projets se trouvent dans les descriptions individuelles des étudiants chercheurs.

Abdollahifakhr, H.

M.Sc.A.

Transformation de fourier rapide et efficace pour application de la radio cognitive.

Akbarniai Tehrani M.

Ph.D.

Conception de systèmes de calibration et traitement de signaux pour réseaux d’antennes radar météorologiques.

Arfaoui, Nadia

M.Sc.A.

Correction des artefacts de mouvements présents dans les signaux de spectroscopie en infrarouge proche issus d’un prototype d’imagerie cérébrale portable.

Bany Hamad, Ghaith

Ph.D.

Modélisation multi niveau, analyse formelle et caractérisation de la propagation des erreurs douces dans les systèmes numériques..

Ben Cheikh, T. L.,

Ph.D.

Approche multiprocesseur pour l’optimisation des applications biomédicales.

Bendaouidi, Hamza

Ph.D.

Inspection des images de fond d’œil pour la détection de maladies.

Berrima, Safa

M.Sc.A.

Diagnostic des cellules et des liens intercellulaires dans la technologie Wafer IC.

Blouin, F.

M.Sc.A.

Conception d’un système de vision par ordinateur pour la détection automatique d’inventaire médical.

Champagne, Pierre-Olivier

M.Sc.A.

Comportement de nanoparticules super paramagnétiques en regard de l’activité électro-magnétique cérébrale.

Charasse, S.

M.S.A.

Test et débogage des circuits intégrés sur WaferBoardTM avec le standard IEEE 1500 embarqué sur FPGA.

Daigneault, M.-A.

Ph.D.

Synthèse et description de circuits numériques au niveau des transferts synchronisés par les données.

Darvishi, Mostafa

Ph.D.

Vérification de délai de propagation dans les FPGAs causé par les événements perturbateurs singuliers (SEU) induits par les rayons cosmiques.

Dehbozorgi, Maya

M.Sc.A.

Développement d’un système de logiciels pré-clinique robuste pour l’électroencé- phalographie en temps réel (EEG) et le proche infrarouge surveillance sp espectroscopie (NIRS).

Falcon, J.

M.Sc.A.

Exploration architecturale pour des applications de radio logicielle

Fourmigue, A.

Ph.D.

Modélisation au niveau système des architectures tridimensionnelles (3D) de systèmes multiprocesseurs sur puce (MPSoC).

Ghane-Motlagh, B.

Ph.D.

Conception et réalisation d’une matrice de microélectrodes à haute densité pour des applications d’interfaces cerveau-machine.

Gholam-Zadeh, B.

M.Sc.A.

Conception et fabrication d’un réseau de biocapteurs pour la mesure de la force cellulaire.

Guillemot, M.

M.Sc.A.

Conception d’un logiciel de contrôle pour le système de prototypage DreamWafer.

Hached, S.

Ph.D.

Sphincter artificiel commandé et alimenté en énergie sans fil.

Hamie, A,

M.Sc.A

Prototype d’une micro pompe implantable dédiée à l’injection des médicaments épilepsie.

Hasanuzzaman, M.

Ph.D.

Un système implantable hautement flexible de faible puissance dédié à la microstimulation intracorticale visuelle.

Hussain, W.

M.Sc.A.

Fournir des liens bidirectionnels et une capacité de communication analogique en WaferBoard™.

Kamrani, E.

Ph.D.

Concevoir un système Near Infra-Red Spectroscopy (INIRS) pour l’imagerie cérébrale en temps réel.

Karimian-Sichany, M.

M.Sc.A.

Convertisseur numérique-analogique (DAC) dédié à des générateurs de signaux sinus pour les applications avioniques.

Kassab, A.,

M.Sc.A.

Conception de casques NIRS pour surveiller les activités cérébrales à long terme.

Keita, A.K.

M.Sc.A.

Énumération efficace de sous-graphes convexes sous contraintes architecturales.

Keklikian, T.L.

M.Sc.A.

Analyse et modélisation du comportement d’un algorithme de multiplication entre une matrice creuse et un vecteur sur un processeur graphique.

Koubaa, Z.,

M.Sc.A.

Élaboration d’un chemin d’acquisition de données à haute résolution et faible latence, dédié aux applications avioniques.

Kowarzyk Moreno, G.

Ph.D.

Développement d’algorithmes de recherche implicitement-exhaustif et de codes convolutionnels doublement orthogonaux parallèles pour plateforme de calcul à haute performance.

Krouchev, N.

Ph.D.

Microstimulation optimale du tissu nerveux - des modèles aux dispositifs.

Laflamme-Mayer, N.

Ph.D.

La conception d'un système de tests intégrés auto-vérifiant, le perfectionnement et la mise à l’essai d’un microsystème à base de circuits intégrés de grande taille – DreamWaferTM.

Larbanet, A.

M.Sc.A.

Référencement et détection de fichiers vidéo sur lien 40 GbE avec l’algorithme de max-Hashing implémenté sur GPU.

Legault, V.

M.Sc.A.

Optimisation d’un système graphique sur plateforme avionique critique.

Li, M.

Ph.D.

Amélioration de la tolérance aux pannes et redondance de gestion dans les réseaux AFDX essentiels à la sécurité.

Li, N.

Ph.D.

La détection de Neural Spikes avec le Modified Maximum and Minimum Spread Estimation (NMMS) méthode.

Ly, M.S.

M.Sc.A.

Mesure de l’impédance d’une solution de neurotransmetteurs.

Massicotte, G.

M.Sc.A.

Potentiostat intégré à basse consommation et dédié à un laboratoire-sur-puce pour la détection et quantification de neurotransmetteurs.

Mehri Dehnavi, M.

M.Sc.A.

Pixel intérateur différentiel pour la minimisation du courant de noirceur à capteurs d’images CMOS.

Monteiro, F.,

M.Sc.A.

Automatisation du processus de caractérisation de la consommation de puissance pour l’estimation au niveau modèle transactionnel.

Moradi, A.

Ph.D.

Émetteur de faible puissance et haut débit de données dédié aux microsystèmes biomédicaux implantables.

Mouret, G.

M.Sc.A.

Approche statistique de l’économie d’énergie pour animât.

Nabovati Khormazard, G.

Ph.D.

Biocapteur sur puce implantable pour la surveillance de la taille de tumeurs.

Najapour-Foroushani, A.

M.Sc.A.

Performance des systèmes basés sur le classificateur dégradé XCS avec opérateur de précision dans les problèmes d’animât.

Nishi, R.

M.Sc.A.

Développement d’un algorithme d’allocation «max-min fair» de bande passante dans un réseau de communications multi-trajet.

Nsame, P.

Ph.D.

Techniques et méthodes de conception et de vérification des systèmes cognitifs intégrés sur puces.

Rivard-Girard, S.

M.Sc.A.

Filtrage de nuages de points désorganisés par fovéation non-linéaire à multiples fovéas.

Salam, M. T.,

Ph.D.

Microsystème biomédical implantable pour le traitement de l’épilepsie.

Sharafi, A.

Ph.D.

Conception et mise en œuvre d'un micro-capteur non attaché pour la détection précoce de tumeur du sein.

Siadjine Njinowa, M.

Ph.D.

Conception d’un transmetteur de faible consommation de puissance et applications dans les réseaux WBAN.

Stimpfling T.

M.Sc.A.

Optimisation d'un algorithme de classification de paquets dans le contexte d'Open Flow en vue d'une implémentation matérielle.

Taboubi, M.

M.Sc.A.

Localisation des terminaux mobiles dans les environnements intérieurs en utilisant la technologie Wi-Fi.

Tremblay, J.-P.

Ph.D.

Développement et validation d’une nouvelle architecture de réseau de transducteurs dans le domaine avionique.

Trigui, A.,

M.Sc.A.

Asservissement de l’énergie inductive transmise aux implants électroniques

Vakili, S.

Ph.D

Optimisation de la largeur d'unités fonctionnelles et de chemins des données de processeurs configurables pour le traitement vidéo.

Wang, Y.

M.Sc.A.

Conception d’un systèms à trois bandes pour la récupération de l’énergie à fréquence radio.

Watson, M.

Ph.D.

Optimisation des paramètres de micro-stimulation intra-corticale pour implants visuels.

Zgaren, M.

Ph.D.

Récepteur sans fil à ultra basse puissance en bande ISM 915 MHz dédié à des dispositifs médicaux.

Zhang, K.

Ph.D.

Spectromètre en technologie CMOS basé sur le phénomène d’absorption du rayonnement électromagnétique.

Zheng, Y.

Ph.D.

Un microsystème pour l’immunologie magnétique de détection de toxines protéiques.


DESCRIPTION DÉTAILLÉE DES PROJETS D'ÉTUDIANTS

 

ABDOLLAHIFAKHR, Hanieh                                                                                                         DIPLÔME : M.Sc.A.

 

TITRE:

 

Transformation de Fourier rapide et efficace pour application de la radio cognitive.

 

RÉSUMÉ:

 

Le concept de la radio cognitive (CR) a récemment été proposé dans le but d'augmenter la capacité de communication de données sans fil en augmentant l'efficacité de l'utilisation du spectre de fréquence. En outre, dans cette plate-forme toutes les unités détectent le spectre à l'avance afin de trouver une bande inoccupée dans leur environnement. La détection de spectre se fait par l'intermédiaire de la transformée de Fourier rapide (FFT). Le traitement de cet algorithme dans une large bande de fréquences exige des processeurs puissants qui consomment beaucoup d’énergie. Dans les communications sans fil, la consommation d'énergie est toujours une question importante et tous les appareils de téléphonie mobile ont besoin d'avoir des piles de longue durée. Par conséquent, les processeurs FFT économes en énergie sont très demandés dans ce contexte. Les techniques pour réduire la consommation d'énergie vont être étudiées dans ce projet de recherche dans le cadre d’une maitrise en génie électrique. Cela se fera à travers l'examen de deux aspects de ces deux algorithmes classiques de traitement du signal et des architectures de mise en œuvre sur réseaux de portes programmables (FPGA) également.

 

PROBLÉMATIQUE:

 

Dans une plate-forme de radio cognitive, la technique de multiplexage de fréquence orthogonale est utilisée pour la modulation et la démodulation. En outre, une large gamme de fréquences est divisée en plusieurs canaux à bande étroite. Chaque canal peut être affecté à un type spécifique de dispositif radio pour la communication. Tout nouveau dispositif qui entend occuper un canal doit d’abord scanner toute la bande, puis occuper un canal libre. Ceci peut être effectué par un processeur FFT. Dans la plupart des cas, le groupe est peu occupé. En outre, il existe de nombreux zéros dans les compartiments de fréquence qui ne doivent pas être calculés. Les algorithmes FFT classiques n'ont aucun contrôle sur le calcul des entrées et calculent même les cas de fréquence contenant zéro. Par conséquent, le principal problème est que la numérisation de la totalité de la bande consomme trop d'énergie et les techniques existantes de détection du spectre ne sont pas suffisamment efficaces.

 

MÉTHODOLOGIE:

 

Analyser les techniques mathématiques et de trouver le meilleur concept fondamental.

Simuler les algorithmes en C ainsi que la technique la plus sophistiquée pour une analyse plus approfondie.

Étude de cas de la technique et évaluer son efficacité pour le problème spécifique d’un taux d’utilisation de 1,56%.

Intégrer l'algorithme d'élagage le plus rapide avec l’architecture FFT et voir l'amélioration.

Mettre en œuvre le programme développé en VHDL.

Mettre en œuvre l'algorithme d’élagage de FFT développé et évaluer sa performance en termes de consommation d'énergie.

Comparer le noyau VHDL développé avec des noyaux commerciaux existants, tels que Xilinx et Altera.

 

RÉSULTATS:

 

Le nouvel algorithme est étudié et testé en C. Cela va être mis en œuvre FPGA. La recherche est toujours en cours.

 


 

 

AKBARNIAI TEHRANI Mona

DIPLÔME: Ph.D.

 

TITRE:

 

Conception de systèmes de calibration et traitement de signaux pour réseaux d’antennes radar météorologiques.

 

RÉSUMÉ:

 

Le but de ce projet est l'amélioration de la performance des réseaux d’antennes utilisés dans les radars météorologiques. La performance des réseaux d’antennes est grandement affectée par des erreurs telles que les changements environnementaux et les imperfections de fabrication. Cette recherche vise à mesurer, modéliser et compenser ces erreurs ainsi que l’amélioration de la performance et de la résolution d’antennes en utilisant des procédés de traitement de signaux.

 

PROBLÉMATIQUE:

 

Certaines sources d’imperfections dans les réseaux d’antennes ne peuvent pas être complètement éliminées lors du processus de conception des antennes. De plus, lors de l’utilisation d’antennes à balayage de fréquences pour construire un radar à balayage, la «largeur» du faisceau principal peut être plus large que désiré pour une application radar typique. Il en résulte une résolution angulaire insuffisante. Par conséquent, des algorithmes de traitement du signal pour la compensation d’erreur et l’amélioration de la résolution angulaire doivent être utilisés.

 

MÉTHODOLOGIE:

 

Pour la première partie de ce projet, une revue de littérature sur les méthodes de calibration est faite et ensuite certains des algorithmes qui sont les plus souvent utilisés sont implémentés dans Matlab pour réaliser un modèle complet d’un système réel. La calibration se fait par l’adaptation du diagramme de rayonnement réel reçu à partir des émetteurs dans des positions prédéterminées pour le faire correspondre le mieux possible au motif idéal attendu (c'est-à-dire en l’absence d'imperfections). Cette partie du projet est terminée.

 

Pour la deuxième partie du projet, après la revue de la littérature sur les méthodes disponibles pour amélioration de la résolution des antennes, une nouvelle méthode est présentée. Dans ce projet, des antennes à balayage de fréquences sont utilisées. Certaines propriétés spéciales, comme la relation non linéaire entre l’angle de pointage du radar et la fréquence des signaux transmis, sont utilisées dans la méthode proposée. Cette méthode est basée sur l’intégration des signaux d’écho dans l'analyse.

 

RÉSULTATS:

 

Les modèles étudiés ont été testés au cours de plusieurs expériences en appliquant un modèle réaliste et aussi les données réelles acquises à partir d’une antenne réseau. La performance des algorithmes proposés correspond bien aux résultats attendus. La prochaine étape sera écriture des articles de journaux pour des résultats obtenus et rédaction de la thèse finale.


 

ARFAOUI, Nadia                                                                                                DIPLÔME: M.Sc.A.

 

 

TITRE:

 

 

Correction des artefacts de mouvement présents dans les signaux de spectroscopie en infrarouge proche issus d’un  prototype d’imagerie cérébrale portable.

 

 

RÉSUMÉ:

 

 

Le groupe de recherche Imaginc développe un prototype d’imagerie cérébrale combinant deux technologies: la spectroscopie infrarouge proche (NIRS) et l’électroencéphalographie (EEG).

 

Ce projet a pour but d’automatiser la détection et la correction des artefacts de mouvement présents dans les signaux NIRS.

 

 

PROBLÉMATIQUE:

 

 

Si la portabilité du prototype Imaginc est son plus grand atout, c’est aussi une source importante de bruit pour la spectroscopie infrarouge proche. Lors des acquisitions en mouvement, nous observons en effet un nombre considérable d’artefacts de mouvement. Dans ce projet, des accéléromètres seront utilisés pour repérer et corriger ces artefacts.

 

MÉTHODOLOGIE:

 

 

Ø  Finaliser le prototype Imaginc

Ø  Ajouter deux d’accéléromètres externes

Ø  Acquérir des données sur patients.

Ø  Analyser les données NIRS recueillies lors d’acquisitions

Ø  Créer un algorithme capable de détecter et corriger automatiquement les artefacts de mouvement en utilisant les signaux issus des accéléromètres

Ø  Validation en simulation

§  Ajout d’une réponse hémodynamique simulée à certains canaux bruités

§  Traitement des données avec l’algorithme de correction

§  Comparaison des canaux concernés avec la réponse simulée

Ø  Mise en place d’un protocole de validation expérimentale

 

RÉSULTATS:

 

 

Le prototype Imaginc est entièrement fonctionnel et comprend un accéléromètre interne et deux accéléromètres externes. Les acquisitions ont débuté et l’algorithme de traitement est en cours de conception.


 

BANY HAMAD, GhaithErreur ! Signet non défini.                                   DIPLOME:  Ph.D.

 

 

TITRE:

 

Modélisation multi niveau, analyse formelle et caractérisation de la propagation des erreurs douces dans les systèmes numériques.

 

 

RÉSUMÉ:

 

Dans ce projet, nous présentons un cadre à niveaux multiples pour modéliser et analyser la propagation d'erreurs douces en utilisant la simulation et les méthodes formelles. La méthode de simulation sera utilisée au niveau transistor pour analyser tous les scénarios possibles de la propagation des impulsions d'erreurs douces. Nous analysons la propagation d'erreurs douces au niveau de la porte et niveau transfert de registre en utilisant la méthode de vérification formelle ainsi que les bibliothèques de caractérisation.

 

 

PROBLÉMATIQUE:

 

Les erreurs douces induites par les radiations sont devenues un problème très difficile qui influe sur la fiabilité des systèmes microélectroniques modernes.  De nombreux travaux de recherche ont été menés pour analyser la propagation d'erreurs douces à haut niveau d’abstraction. Cependant, les techniques existantes ne sont pas exactes, car elles ne modélisent pas la variation des caractéristiques des trains d'erreurs douces. Par conséquent, une nouvelle méthode d’analyse de la propagation des erreurs douces et une nouvelle méthode d’estimation du taux d'erreurs douces sont nécessaires.

 

 

MÉTHODOLOGIE:

 

La méthodologie proposée étudie l'impact de la configuration d'entrée, les chemins de propagation, la polarité des impulsions, les chemins divergents et les chemins de reconvergence sur la propagation d'erreurs douces au niveau transistor. Par la suite, la méthodologie proposée analyse la propagation d'erreurs douces au niveau porte en utilisant les méthodes de vérification formelles et les bibliothèques de caractérisation au niveau transistor. Une nouvelle façon d’abstraire les conditions de propagation d'erreurs douces au niveau de la porte est proposée. Enfin, notre méthodologie proposée estime et analyse la propagation des erreurs douces dans des conceptions numériques complexes au niveau registre en utilisant les méthodes de vérification formelle et les bibliothèques de caractérisation au niveau porte.

 

 

RÉSULTATS:

 

Nous avons terminé notre analyse de la propagation des erreurs douces au niveau du transistor en utilisant HSPICE. Les résultats de cette analyse ont été publiés dans la revue TNS et la conférence RADECS2013. Nous travaillons actuellement à l'analyse de la propagation d'erreurs douces au niveau de la porte à l'aide du MDG model checker, les résultats de cette analyse sont en cours d'évaluation.

 


 



BEN CHEIKH, Taieb Lamine

DIPLÔME: Ph.D.

 

TITRE:

 

Approche multiprocesseur pour l’optimisation des applications biomédicales.

 

RÉSUMÉ:

 

L’imagerie biomédicale prend beaucoup d’essor dans le domaine du traitement numérique d’images grâce à la numérisation et à la vidéo assistance. Dans cette optique, plusieurs efforts ont été observés dans le développement d’algorithmes poussés pour produire des résultats satisfaisants aux besoins des médecins.  Le problème de la majorité de ces algorithmes est qu’ils sont restés au niveau théorique et leur implémentation n’a pas été encore définie afin de satisfaire les contraintes de temps réel. Afin de concrétiser ces efforts sur le plan pratique, nous cherchons à assurer une implémentation adéquate de certains de ces algorithmes déjà développés en Matlab (langage interprété) par le laboratoire de recherche LIV4D à l’École Polytechnique de Montréal. L’application visée est un système à réalité augmentée pour la chirurgie minimalement invasive.

 

PROBLÉMATIQUE:

 

Après l’étude de l’algorithme de l’application écrite en MATLAB, nous avons remarqué qu’il présente en partie des points communs avec les algorithmes de traitement d’images classiques en termes de structures de données de grande taille avec des formes régulières: matrice, tableau et traitement identique sur des parties de ces structures de données. Ces points favorisent la parallélisation de l’application en question en proposant, comme architecture d’implémentation une plate forme multiprocesseur. En plus de ces points communs, cette application présente certaines particularités telles que l’emploi intensif du contrôle et l’aspect dynamique du traitement, ce qui complique davantage la tâche de la parallélisation. Compte tenu de ces particularités, nous proposons une architecture multiprocesseur hétérogène combinant plusieurs types de processeurs (CPUs et GPUs).

 

MÉTHODOLOGIE:

 

Afin de faciliter la programmation de cette architecture multiprocesseur hétérogène, notre objectif est de proposer un environnement de programmation spécifique. Cet environnement doit être efficace, flexible et complet. Pour se faire, nous avons suivi une démarche basée sur un ensemble d'étapes: comme première étape, nous avons réécrit le code en C (langage compilable) pour accélérer son exécution d’une part et favoriser, d’autre part, son instrumentation et son implémentation vu l’existence d’outils et de compilateurs adaptés pour le C.  Ensuite, nous avons profilé le code en détail et observé la dynamique des données durant l’exécution.  Ceci nous a donné l’idée de simplifier les structures de données en réduisant leur taille pour ne garder que les parties de données utiles pour le traitement.

 

RÉSULTATS:

 

Cette étape a permis d’améliorer le temps d’exécution du code séquentiel et d’optimiser la taille mémoire des données.  Les premiers résultats ont été très encourageants et avaient atteint, pour une première image avec 55 contours, une accélération de 212x par rapport à une implémentation en MATLAB et pour une image de 177 contours, une accélération de 505x. Malgré cette accélération considérable, nous n’avons pas réussi à atteindre le temps réel avec une exécution séquentielle du programme, d'où le besoin de la parallélisation. Comme deuxième étape, nous avons proposé une version parallèle du programme optimisé et nous avons implémenté cette version à l'aide du modèle de programmation parallèle OpenMP.  L’expérimentation s’était faite sur un processeur multicore à 4 cœurs. Cette version a atteint une accélération de 2.74x pour une image de 55 contours et 3.08x pour une image de 177 contours. Cette version reste à optimiser et, afin de tirer profit du parallélisme présent dans l'application, nous visons dans la prochaine étape d'implémenter le programme sur une architecture combinant des processeurs graphiques avec CUDA et des multicore avec OpenMP.

BENDAOUDI, HAMZA                                                                                    DIPLÔME: Ph.D.

 

TITRE:

 

Inspection des images de fond d’œil pour la détection de maladies

 

RÉSUMÉ:

 

Ce projet porte sur l’accélération matérielle de traitement d’images. Il vise les algorithmes de détection automatique des maladies de l’œil, comme les prétraitements (filtrage) et la segmentation des images de la rétine (détection des vaisseaux sanguins, macula, disque optique, etc.). L’objectif est de proposer des architectures adaptées pour l’accélération de l’exécution de ses algorithmes ainsi qu’une méthode de conception flexible et rapide pour la conception des architectures proposées. La mise en œuvre d’un système complet de détection de maladies de l’œil (rétinopathie diabétique) en matériel est envisagée.

 

PROBLÉMATIQUE:

 

Des millions de personnes autour du monde souffrent du diabète, dont 1.8 au Canada et 376 000 au Québec en 2003-2004. La complication oculaire la plus grave de cette maladie est la rétinopathie diabétique, l’une des causes principales de la cécité chez les adultes. Les patients atteints du diabète doivent donc effectuer un dépistage fréquent auprès d’un ophtalmologue. La détection automatique des maladies de l’œil et de la rétinopathie diabétique est une solution avec un grand potentiel pour faire face au nombre insuffisant de médecins ophtalmologues par rapport au nombre de patients et aux analyses fréquentes.

 

Plusieurs algorithmes de détection de la rétinopathie diabétiques ont été proposés dans la littérature. La majorité de ces algorithmes sont implémentés en logiciel sur des processeurs à usage général. Avec une telle solution, informer les patients des résultats de diagnostic est difficile sur site lors de la visite à cause du temps de traitement nécessaire. Ainsi, les algorithmes proposés traitent des images de petite taille, alors que les rétinographes récents permettent d’acquérir des images de haute résolution plus riches en informations, ce qui permet d’augmenter la précision de la détection de la maladie. Avec des images de haute résolution, une accélération matérielle est nécessaire pour répondre aux besoins en temps de traitement et en rapidité de détection. En plus, les algorithmes sont très sensibles aux changements de paramètres. Une méthode de conception rapide et flexible est nécessaire pour permettre l’adaptation des paramètres et éviter le recodage des descriptions matérielles.

 

MÉTHODOLOGIE:

 

Notre méthodologie repose sur la réalisation d’une investigation des algorithmes de détection de la rétinopathie diabétique existants. Une classification de ces algorithmes selon la complexité, les opérateurs de traitement d’image employés et la qualité des résultats de traitement est nécessaire pour identifier les tâches critiques. La phase suivante est la proposition d’architectures adaptées pour l’accélération de l’exécution de l’algorithme avec une méthode de conception flexible et rapide basée sur la génération du code VHDL automatique à partir des paramètres de l’algorithme. La phase finale est la validation expérimentale via une implémentation sur FPGA.

 

RÉSULTATS:

 

Une étape commune des algorithmes de détection automatique de la rétinopathie diabétique est la détection des vaisseaux sanguins de la rétine. Le filtre adapté constitue une des approches les plus populaires. Pour cet algorithme, une architecture matérielle évolutive a été proposée et implémentée sur FPGA. Un outil de génération automatique de la description matérielle en VHDL a été développé. Cette implémentation vise le traitement des images de haute résolution, et nous atteignons une accélération de 10× par rapport à l’état de l’art. Un article pour une conférence internationale (DASIP2014) a été soumis.

 

 


 

BERRIMA, Safa                                                                 DIPLÔME:  M.Sc.A.

 

 

TITRE:

 

Diagnostic des cellules et des liens intercellulaires dans la technologie Wafer IC

 

 

RÉSUMÉ:

 

Les circuits à l’échelle de la tranche ont composés de plusieurs cellules interconnectées par des liens intercellulaires et sont configurés par des chaines de balayage. Il suffit d’avoir un seul élément défectueux dans la chaine pour la rendre complètement inutilisable, d’où l’idée de créer des chaines capables d’éviter de passer par les éléments défectueux du circuit. Ceci nécessite un diagnostic préalable. Le but de ce projet est de diagnostiquer un circuit à l’échelle de la tranche. Diagnostiquer  veut dire caractériser chaque cellule et chaque lien intercellulaire. Par caractériser on entend savoir si l’élément est fonctionnel ou non. La deuxième partie du projet consiste à créer un algorithme qui permet de localiser les éléments non fonctionnels s’il y lieu.

 

 

PROBLÉMATIQUE :

 

Le projet DreamwaferTM vise à élaborer une plateforme de prototypage rapide des systèmes électroniques. Cette plateforme utilise une circuiterie de configuration JTAG basée sur un circuit à l’échelle de la tranche nommée le Wafer IC. Avant toute utilisation de la plateforme, un diagnostic du Wafer IC doit être fait pour valider qu’il n’a pas eu de changement de l’état des éléments depuis la dernière mise hors tension pour éviter d’utiliser les éléments défectueux.

 

 

MÉTHODOLOGIE :

 

Le projet se divise en deux parties:

 

Ø  Caractérisation des liens: envoyer une série de chemins sous forme de rectangles (Le choix de la forme se base sur une étude théorique). Si le chemin est fonctionnel alors tous les liens et les cellules en faisant partie sont caractérisés comme fonctionnels. Dans le cas contraire, tous les liens et les cellules qui n'ont pas été préalablement caractérisés comme fonctionnels sont mis temporairement dans l'état «Testé».

 

Ø  Localisation de la défectuosité: un algorithme de dichotomie est appliqué sur chaque chemin non fonctionnel pour localiser l’élément défectueux.

 

 

RÉSULTATS :

 

Ø  Soixante-six chemins ont été créés pour assurer une couverture de 100% des liens testables d’un réticule.

Ø  Injection de défectuosités selon la distribution de Poisson et la distribution binomiale négative.

Ø  L’algorithme de dichotomie localise 29 défectuosités sur 31 défectuosités injectées, soit 93% des défectuosités injectées sont localisées. Des améliorations restent à faire pour essayer d’atteindre 100%.

 


 

 

BLOUIN, Frédéric,                                                                                            DIPLÔME: M.Sc.A

 

TITRE:

 

Conception d’un système de vision par ordinateur pour la détection automatique d’inventaire médical.

 

RÉSUMÉ:

 

Ce projet de vision artificielle vise à faire le suivi de l'inventaire médical utilisé par le personnel infirmier. À l'aide d'une caméra placée au plafond, le système tente de reconnaitre les compartiments de différents tiroirs et d'en évaluer le contenu.

 

PROBLÉMATIQUE:

 

La gestion d’inventaire dans les hôpitaux constitue un problème de logistique important. Plusieurs systèmes de gestion, déjà en place aujourd’hui, tentent de faire un suivi des différents items utilisés par le personnel infirmier. Cependant, ces solutions comportent certains problèmes et ne sont pas utilisées adéquatement par le personnel. Par exemple, une solution élaborée par l’entreprise Logi-D fait l’usage d'un système de puces RFID afin d’identifier chaque item à commander. Le problème de ce système est que les puces ne sont pas toujours déplacées correctement par le personnel et des erreurs de manipulation peuvent facilement survenir, surtout dans les départements de soins d’urgence.

 

Le but du projet consiste donc à améliorer ce système de gestion d’inventaire en le remplaçant par un système de surveillance d’inventaire avec caméra. Un tel système de vision artificielle permettrait de repérer automatiquement les items manquants à l’inventaire.

 

La détection automatique de l’inventaire par un système informatique nécessite de créer un logiciel capable de faire cette détection. Plusieurs algorithmes sont possibles pour faire l’analyse d’images vidéo, mais une identification des algorithmes les plus appropriés à la résolution de ce problème est nécessaire.

 

MÉTHODOLOGIE:

 

Une méthode systématique est suivie. D’abord une revue de la littérature des différents algorithmes de vision artificielle est faite afin de faire une sélection des algorithmes les plus appropriés. Ensuite, une comparaison de ces algorithmes est effectuée sur une large banque de vidéos afin d'en retenir les algorithmes les plus performants.

 

Pour arriver à faire une bonne détection visuelle de l’inventaire, un bon traitement vidéo doit être effectué. Le problème principal est donc de traiter correctement les images reçues par la caméra afin de pouvoir établir correctement l’état de l’inventaire.  Différents algorithmes de traitement d’images sont possibles. Par exemple, la détection des bordures de tiroirs et de casiers peut se faire à l’aide d’une transformée de Hough. La détection du contenu du tiroir peut aussi se faire de plusieurs façons: par une technique de soustraction d’arrière-plan, par une technique de segmentation en régions, par une analyse de l’histogramme des intensités ou encore de l’histogramme de gradient orienté (HOG). Une analyse de ces différentes méthodes permettrait d’obtenir un taux de réussite le plus élevé possible.

 

RÉSULTATS:

 

Le projet a d’abord permis à l’entreprise Logi-D de faire une implantation du système à l’hôpital du Sacré-Cœur de Montréal en tant que projet pilote. Cinq caméras ont pu être installées ainsi que tout le matériel nécessaire (marqueurs de couleur, fonds de tiroirs colorés, supports à caméra). Ensuite, des données ont pu être recueillies et comparées avec les données de l’ancien système déjà en place. Les cas d’erreurs de notre système ont ainsi pu être catégorisés et classés selon leur occurrence. Ceux-ci incluent les problèmes d’occlusion ou encore les manipulations trop rapides de la part du personnel.

 

 

 

CHAMPAGNE, Pierre-Olivier                                                                                                       DIPLÔME: M.Sc.A.

 

 

TITRE:

 

Comportement de nanoparticules super paramagnétiques en regard de l’activité électro-magnétique cérébrale

 

 

RÉSUMÉ:

L’objectif du projet est l’étude du comportement de nanoparticules superparamagnétiques face à l’activité cérébrale électro-magnétique. Une réactivité des nanoparticules à l’activité électrique cérébrale se traduisant par une agrégation de ces dernières aux zones plus actives pourrait permettre une étude précise de l’activité électrique cérébrale. Cette nouvelle voie pour étudier le comportement électrique cérébral pourrait servir au traitement de maladies comme l’épilepsie.

 

 

PROBLÉMATIQUE:

L’épilepsie constitue un désordre neurologique fréquent aux impacts personnels et sociétaires non négligeables. Plusieurs cas d’épilepsie sont résistants aux traitements pharmacologiques usuels, on parle alors d’épilepsie réfractaire. Dans de tels cas, une chirurgie visant l’exérèse précise de la zone responsable de l’activité cérébrale anormale (foyer) peut être offerte. Par contre, les modalités présentement utilisées ne permettent pas toujours une détection suffisamment précise du foyer épileptique, amenant un échec de la chirurgie. Dans ce contexte, de nouvelles méthodes de détection du foyer épileptique sont nécessaires.

 

Les nanoparticules superparamagnétiques pourraient constituer une méthode prometteuse dans l’investigation de l’activité électrique cérébrale pour des conditions comme l’épilepsie. En effet, elles réagissent d’une part aux champs magnétiques (dont ceux créés par des courants électriques) et sont, d’autre part, visibles par la méthode d’imagerie qu’est l’IRM.

 

Notre hypothèse est que la présence d’une activité électrique cérébrale de plus en plus importante influencera le comportement de nanoparticules superparamagnétiques de passage en favorisant leur agrégation et leur persistance dans cette zone.

 

 

MÉTHODOLOGIE:

 

Un modèle de tranches de cerveau vivantes chez le rat est utilisé. Il est possible d’augmenter localement ou en totalité l’activité électrique des tranches. L’expérimentation est par la suite conduite selon les étapes suivantes :

Ø  Étude du comportement des nanoparticules selon l’activité électrique cérébrale;

Ø  Étude du comportement biologique des tranches;

Ø  Études électromagnétiques des tranches.

 

RÉSULTATS:

 

Les résultats sont jusqu’à présent satisfaisants, avec une augmentation qualitative des agrégats de nanoparticules en présence d’une activité biologique (et électrique) croissante. La reproductibilité de ces résultats et les analyses subséquentes sur les tranches permettront de mieux comprendre le phénomène observé.


 

CHARASSE, Sylvain                                                                                         DIPLÔME: M.Sc.A.

 

 

TITRE:

 

 

Test et débogage des circuits intégrés sur WaferBoardTM avec le standard IEEE 1500 embarqué sur FPGA.

 

 

RÉSUMÉ:

 

 

WaferboardTM est un outil de prototypage pour le développement de systèmes électroniques. Le sujet de recherche s’intéresse à comment permettre le test et le débogage de systèmes électroniques en utilisant le standard IEEE 1500 embarqué dans un FPGA autonome sur le WaferBaordTM.

 

 

PROBLÉMATIQUE:

 

 

Le WaferBoardTM est voué au prototypage rapide de systèmes. Cependant, il n’existe pas encoure d’outils qui permettent à un utilisateur d’obtenir une visibilité sur le design en cours de test. De plus, cette recherche vise à permettre la génération de signaux à des points stratégiques du design. Une autre problématique réside dans le fait que le test et débogage devraient être compatible avec n’importe quel type de design. C’est pourquoi nous nous dirigeons plutôt vers l’implémentation d’une norme, l’IEEE 1500.

 

 

MÉTHODOLOGIE:

 

 

Ø  Identifier les besoins spécifiques du test et du débogage pour les concepteurs des systèmes électroniques;

Ø  Analyser le standard IEEE 1500 pour savoir comment il doit être utilisé pour répondre aux besoins spécifiques identifiés plus haut;

Ø  Développer et valider un prototype de FPGA intégrant le standard IEEE 1500;

Ø  Étudier l’interface nécessaire à l’utilisateur pour effectuer les tests et le débogage sur le WaferBoardTM.

 

 

RÉSULTATS:

 

 

Pour le moment, une preuve de concept sur carte de développement FPGA a été réalisée. Le système permet de donner une visibilité sur un design à travers les entrées sorties d’un FPGA. L’utilisation d’une mémoire externe rapide (DDR2) contribue aussi à augmenter la visibilité.

 

Les prochains résultats attendus concerneront la configurabilité assistée d’un tel système, la génération de signaux et une interface utilisateur.


 



DAIGNEAULT, Marc-André

DIPLÔME: Ph.D.

 

TITRE:

Synthèse et description de circuits numériques au niveau des transferts synchronisés par les données.

 

RÉSUMÉ:

Nos travaux de recherche portent sur les outils de conception assistée par ordinateur de circuit numériques. Au rythme de la conjecture de Moore, le nombre de transistors pouvant être intégrés sur une même surface de silicium n'a cessé de doubler tous les deux pendant plus de 4 décennies, si bien que les circuits intégrés modernes sont souvent de véritables systèmes sur puce, pouvant intégrer plusieurs noyaux de processeurs, des mémoires, accélérateurs de calculs et autres circuits dédiés. Néanmoins, ce rythme de croissance effréné à également pour effet de soumettre les outils de conception de circuits numériques à une pression inouïe en termes de besoins d'innovation. Afin de pallier aux limitations inhérentes à la synthèse et description de circuits au niveau des transferts entre registres (RTL), nous œuvrons au développement d'un langage de description offrant un niveau d'abstraction intermédiaire entre ceux offerts par les langages de description de circuits usuels (VHDL/Verilog) et les langages de description de logiciels (C/C++). Ce langage est basé sur le modèle CSP (Communicating Sequential Processes) et intègre également des éléments propres au modèle SDL (Specification and Description Languages). Au niveau d'abstraction proposée, les transferts correspondent à des connexions entre des producteurs et des consommateurs de données, adhérant à une interface et à un protocole de synchronisation prédéfinis de type flux de données (Streaming Interface). Afin de permettre la synthèse de circuits numériques décrits avec ce langage, nous œuvrons également au développement d'un compilateur permettant la transformation automatique des descriptions correspondantes en des descriptions à bas-niveau (RTL) pouvant ensuite être synthétisées avec des outils de conception commerciaux existants.

 

PROBLÉMATIQUE:

L'interconnexion de producteurs et de consommateurs de données adhérant à des interfaces à flux de données supportant la contrepression (pour indiquer que le consommateur ne peut pas recevoir de données) dans différentes topologies peut donner lieu à des relations cycliques en termes des signaux de synchronisation de ces interfaces. De telles relations cycliques sont problématiques, car elles se traduisent par des boucles combinatoires au niveau du circuit. De telles boucles combinatoires peuvent alors manifester un comportement séquentiel ou non-déterministe, allant à l'encontre de l'intention du concepteur. Des relations cycliques peuvent également découler de l'utilisation de règles pour contraindre la réalisation des transferts de données sur des ensembles de connexions. Afin de produire des circuits corrects par construction, le compilateur doit réaliser l'analyse de ces relations cycliques afin d'être en mesure de les transformer en un circuit de contrôle acyclique assurant un comportement déterministe en accord avec l'intention du concepteur.

 

MÉTHODOLOGIE:

Afin d'atteindre les objectifs de ce projet de recherche, un compilateur décrit en langage Java est en cours de développement. Ce compilateur à pour objectif la traduction automatique de descriptions de circuits réalisées avec notre langage de niveau intermédiaire en descriptions bas-niveau pouvant être synthétisées avec des outils commerciaux existants. L'évaluation de l'approche de conception automatisée proposée sera faite par son application à la conception de circuits numériques d'intérêt à l'état de l'art.

 

RÉSULTATS:

La méthodologie de niveau intermédiaire proposée pour la description et la synthèse de circuits numériques à été appliquée à la réalisation de différentes applications, tels le tri de données, l’accumulation de nombres à virgule flottante, le produit matriciel et la résolution de systèmes d’équations linéaires. Les résultats obtenus indiquent que la méthodologie proposée permet d’obtenir des circuits fonctionnels offrant des performances avoisinant celles obtenues avec une méthodologie RTL, mais avec des temps de conception et de vérification significativement moindres.


 

DARVISHI, Mostafa                                                                                          DIPLÔME: Ph.D.

 

 

TITRE:

 

Vérification de délai de propagation dans les FPGAs causé par les évènements perturbateurs singuliers (SEU) induits par les rayons cosmiques.

 

 

RÉSUMÉ:

 

Ce projet fait partie d'un effort de recherche de l'équipe AVIO403 travaillant sur l'effet des rayons cosmiques sur l'électronique de bord des avions et satellites et le développement de méthodes d'atténuation pour réduire les temps d'arrêt des systèmes de bord.

 

 

PROBLÉMATIQUE :

 

Comme le trafic aérien augmente, de nouveaux corridors de vol doivent être définis en altitude, ce qui expose l'appareil à plus de rayonnement dû aux rayons cosmiques. Au niveau de la terre, la majeure partie de ce rayonnement est absorbé par l'atmosphère. En conséquence, l'électronique embarquée de contrôle est plus exposée à un rayonnement ce qui augmente le risque d'apparition de défaut électronique menaçant la sécurité des passagers.

 

L'objectif principal de ce projet est de caractériser le retard de propagation induit par les rayons cosmiques dans les circuits FPGA et d'investiguer sur les stratégies de mitigation qui permettront la conception robuste d’architecture de circuits résistants aux pannes causées par rayonnement. L'effet cumulatif des SEU sera également étudié dans le contexte des pannes causées par les délais.

 

 

MÉTHODOLOGIE:

 

Dans ce projet, la première étape consiste à modéliser les chemins critiques étape par étape et le retard de propagation correspondant sera simulé. La proposition de certaines techniques d'évitement pour réduire le temps de propagation dans les chemins critiques des systèmes FPGA constitue l'étape suivante.

 

 

RÉSULTATS:

 

Les résultats de simulation obtenus à partir de notre modèle bas-niveau ont été comparés avec ceux mesurés au laboratoire TRIUMF. Une bonne corrélation a été obtenue et a permis de produire un article pour la prochaine conférence NSREC. Cet article vient d’être accepté.


 

DEHBOZORGI, Mahya                                                                                    DIPLÔME : M.Sc.A.

 

 

 

TITRE:

 

 

Développement d'un système de logiciels précliniques robustes pour l'électroencéphalographie en temps réel (EEG) et le proche infrarouge surveillance spectroscopie (NIRS)

 

 

RÉSUMÉ:

 

 

Le système portable NIRS / EEG d'imagerie cérébrale sur mesure qui est développé par l'équipe Imaginc est basé sur les techniques d'électroencéphalographie et de la spectroscopie dans le proche infrarouge. Nous sommes en mesure de surveiller l'activité du cerveau de patients épileptiques en vue de détecter la zone épileptogène et fournir un traitement plus précis. Ce système est unique en son genre en raison de sa double fonctionnalité (EEG et SPIR), de sa petite taille et sa portabilité. Nous avons développé un logiciel temps réel personnalisé pour soutenir le système de matériel.

 

PROBLÉMATIQUE:

 

 

Nous développons actuellement l'interface utilisateur qui sera finalement utilisée par les neurologues dans le suivi des patients. L'avantage de notre programme est que nous pouvons intégrer les besoins spécifiques des médecins dans notre système, ce qui n’est pas possible avec un logiciel commercial. Il fonctionnera également en temps réel, ce qui signifie que les résultats sont disponibles immédiatement ce qui permettra un diagnostic plus précis. Toutes les données d'acquisition sont enregistrées et peuvent être consultées pour une évaluation ultérieure.

 

 

MÉTHODOLOGIE:

 

 

Notre programme actuel est développé en LabVIEW, un environnement de programmation graphique développé par National Instruments qui nous permet de concevoir et de déployer rapidement notre système. Le système matériel acquiert des données et transmet ces données par communications sans fil à l'ordinateur. Les données sont ensuite traitées et les différents paramètres sont affichés. Un traitement supplémentaire est effectué sur un autre ordinateur en utilisant Matlab, qui fournit une meilleure vue d'ensemble des données acquises.

 

 

RÉSULTATS:

 

 

Le système est capable d'enregistrer des données pendant une période continue d’au moins 24 heures, sans aucune interruption ou une perte de données. L’interface utilisateur est facile à utiliser et permet à l’utilisateur de modifier différents paramètres et personnaliser les variables.

 

 

 

 

 


 

 

 


FOURMIGUE, Alain

DIPLÔME: Ph.D.

 

 

TITRE:

 

Modélisation au niveau système des architectures tridimensionnelles (3-D) de systèmes multiprocesseurs sur puce (MPSoC).

 

 

RÉSUMÉ:

 

Ce doctorat porte sur les architectures de circuits intégrés en trois dimensions (3D) pour systèmes multiprocesseurs sur puce (MPSoC). L’objectif de ce doctorat est de mettre en place les méthodologies appropriées pour modéliser et exploiter pleinement les possibilités des technologies d’intégration 3D, pour la conception de systèmes multiprocesseurs sur puce (MPSoC).

 

 

PROBLÉMATIQUE:

 

Alors que la miniaturisation des transistors ralentit, les circuits intégrés tridimensionnels (3D) offrent une alternative technologique pour continuer l’intégration de fonctionnalités et développer des circuits toujours plus performants. Les progrès technologiques réalisés ces dernières années en matière d’intégration 3D ont permis la réalisation des premiers prototypes de circuits intégrés 3D. Cependant, le manque d’outils et de méthodologies appropriés pour aider à la conception de ces nouvelles architectures 3D est important, et peut, à terme, compromettre l’utilisation des technologies 3D. Sans outils ni méthodologies de conception appropriés, les ingénieurs sont contraints de continuer à développer des circuits intégrés 2D conventionnels.  Ce travail répond à un besoin de modélisation des architectures de circuits intégrés 3D et se propose de développer des méthodologies permettant d’en exploiter les possibilités pour la conception de MPSoC.

 

 

MÉTHODOLOGIE:

 

Dans un premier temps, ce doctorat s’intéressera à la modélisation des phénomènes de dissipation thermique dans les circuits intégrés 3D. En effet, les circuits intégrés 3D sont constitués d’un empilement de multiples couches de silicium et sont exposés à des problèmes de dissipation de chaleur si l’architecture est mal conçue. L’objectif à court terme de ce travail est de mettre en place une méthodologie pour développer des modèles thermiques pouvant être couplés à des environnements de simulation dynamique de MPSoC. Le défi est de parvenir à développer des modèles suffisamment performants, précis et nécessitants des efforts de modélisation raisonnables.

 

Dans un deuxième temps, ce doctorat se concentrera sur les méthodologies d’exploration architecturale pour systèmes MPSoC 3D. L’ajout d’une troisième dimension dans les circuits intégrés a entrainé l’explosion du nombre d’architectures possibles. L’objectif est de mettre en place une méthodologie permettant d’identifier rapidement l’architecture la plus appropriée pour une classe d’applications données, car les plateformes MPSoC ciblent toujours une classe d’applications bien précise (multimédia, communication, calcul, etc.). Pour évaluer les différentes architectures possibles, une plate-forme virtuelle modélisant un MPSoC 3D complet et permettant de simuler l’exécution d’applications sur ce MPSoC 3D sera réalisée.

 

 

RÉSULTATS:

 

Un article de conférence portant sur la modélisation de température dans les circuits intégrés 3D a été soumis. Cet article est toujours en cours d’évaluation.


 

GHANE-MOTLAGH, Bahareh                                                                                                   DIPLÔME: M.Sc.A.

 

 

TITRE:

 

Conception et réalisation d’une matrice de microélectrodes à haute densité pour des applications d’interface cerveau-machine.

 

 

RÉSUMÉ:

 

Dans ce projet, une technique à base de tranche de silicium a été utilisée pour construire la matrice de microélectrodes. Ce type de matrices d’électrodes est fabriqué selon une méthode de micro-usinage et implanté pour l’observation et la stimulation intracorticale et jouant le rôle d’une interface cerveau-machine. Pour augmenter la charge électrique lors de la stimulation, l’impédance doit être abaissée. De nouveaux matériaux ont des surfaces intrinsèquement grandes et une conductance élevée. Par ailleurs, les électrodes restent biocompatibles. À cet effet, prochainement, les électrodes seront améliorées par l’utilisation de ces nouveaux matériaux. Une approche en trois dimensions a été utilisée pour réaliser un microsystème d’enregistrement neuronal plus compact intégrant des matrices d’électrodes et des circuits intégrés servant à la sélection des sites, l’amplification et les puces de traitement de signal.

 

PROBLÉMATIQUE:

 

Le domaine des interfaces implantables cerveau-machine est une activité de recherche émergente. Des progrès remarquables sont effectués au niveau bioélectronique, mais les contacts électrode-tissus (CET) obtenus en utilisant des réseaux de microélectrodes demeurent l’un des obstacles majeurs. Ces contacts génèrent des problèmes de biocompatibilité avec ces interfaces cerveau-machine en raison de la réponse biologique à l’implantation permanente et également à cause des propriétés électroniques des réseaux de microélectrodes. Notre objectif, dans ce projet, consiste en l’élaboration de réseaux de microélectrodes dont la sélectivité, la biocompatibilité à long terme, la stabilité chimique, la qualité d’enregistrement, la sensibilité et d’autres caractéristiques électriques sont les principaux critères. Différents types de réseaux de microélectrodes en silicium, fabriqués grâce à des techniques de couches minces, n’ont pas le potentiel de haute densité, de faible impédance et de faible consommation d’énergie nécessaire pour les CET, requis par les stimulateurs implantables. En se concentrant sur ces aspects, des réseaux de multi-électrodes à haute densité et faible impédance sont conçus et fabriqués.

 

MÉTHODOLOGIE:

 

La méthode de couches minces associée aux étapes électrochimiques sera utilisée pour fabriquer des matrices de multi-électrodes. Une gravure chimique est effectuée pour lisser les surfaces. Dans l’étape suivante, les électrodes sont recouvertes de nouveaux matériaux par dépôt électrochimique. La caractérisation de l’échantillon montrera la faible impédance des électrodes et un transfert de charges élevé. Par ailleurs, les électrodes restent chimiquement inertes et biocompatibles.

 

RÉSULTATS:

 

Les matrices de microélectrodes à haute densité ont été fabriquées. Par conséquent, nous avons obtenu des matrices d’électrodes avec des hauteurs variables de 1.45, 1.55 et 1.65 mm. L’épaisseur des électrodes éait de 200µm à la pointe. Pour encapsuler et améliorer la biocompatibilité des électrodes, la face avant des électrodes a été recouverte de parylène-C. Dans l’étape suivante, une couche de molybdène a été déposée à la pointe des électrodes pour faciliter le transfert de charge.

 


 

GHOLAM ZADEH Bahareh                                                                                                  DIPLÔME: M.Sc.A.

 

 

TITRE:

 

Conception et fabrication d’un réseau de biocapteurs pour la mesure de la force cellulaire.

 

 

RÉSUMÉ:

 

Dans ce projet, différents types de capteurs MEMS ont été développés pour mesurer l’adhérence focale des cellules. Le système est composé de capteurs MEMS et une partie électrique pour surveiller la variation de signal de sortie (en raison d’adhérences focales). Les capteurs MEMS ont été conçus avec le logiciel Comsol Multiphysics et nous allons démontrer et discuter de la fabrication et des résultats expérimentaux.

 

 

PROBLÉMATIQUE:

 

Analyser les interactions entre les cellules et la matrice extracellulaire est une étape importante dans différentes études biologiques comme l’ingénierie tissulaire ou la caractérisation d’une maladie comme le cancer et la leucémie. Aussi, cela fournit des renseignements essentiels sur la motilité cellulaire, la migration cellulaire et la survie des cellules. Au cours de l’interaction entre les cellules et la matrice extracellulaire, les obligations protéines spéciales seront formées qui sont connues comme les adhésions focales. Les cellules seront physiquement connectées à la matrice extracellulaire à travers ces obligations. Plusieurs études ont été réalisées pour comprendre la formation de l’adhésion focale et l’effet de son altération sur le comportement des cellules. Comme objectif à long terme, nous voulons développer un système innovant pour l’évaluation  du comportement mécanique des protéines d’adhésion focale.

 

 

MÉTHODOLOGIE:

 

Pour analyser le comportement des cellules dans des situations différentes en contrôlant leur adhésion focale, un réseau de cantilevers est conçu et fabriqué en utilisant des technologies standard POLYMUMP et METALMUMPS. La force d’adhérence peut être analysée sur la base de la mécanique, ainsi que la variation électrique de l’électrode fonctionnalisée. Ces forces déplacent le capteur optique, capacitif ou piézo-électrique intégré avec les cantilevers et en comparant les résultats de sortie de ces capteurs, il sera possible de démontrer les avantages et les inconvénients des différentes méthodes de mesure de force d’adhérence.

 

 

RÉSULTATS:

 

Après avoir fait des simulations avec le logiciel Comsol multi physiques et de faire une analyse théorique pour trouver la dimension optimale des cantilevers, le lay-out a été conçu et soumis à MUMPS fournisseur de la technologie NEMSCAP par CMC Microsystèmes. Afin de tester la structure de l’installation, la lecture microélectronique est en cours d’élaboration pour chacun des capteurs. L’application d’une force sur le dessus des capteurs entraine la déflexion de cantilevers et enfin en fonction du type de capteur (optique, piézo-résistif, ou capacitif) la déviation est mesurée. Différents types d’expérience seront faits afin d’assurer la fonctionnalité du système.

 

 


 


GUILLEMOT, Mikaël 

DIPLÔME: M.Sc.A

 

 

TITRE:

 

Conception d’un logiciel de contrôle pour le système de prototypage DreamWafer.

 

 

RÉSUMÉ:

 

Le groupe de recherche en microélectronique de l’École Polytechnique de Montréal participe à un projet de recherche d’envergure. Répondant au nom de DreamWafer, il est soutenu par un partenaire industriel : Gestion TechnoCap Inc. Ce projet consiste en un nouveau système de prototypage rapide de circuits numériques à l’échelle de la tranche : le WaferBoard. L’objectif à terme est de permettre le test et la validation des circuits électroniques au niveau système en un temps et des couts réduits en concevant une plateforme reconfigurable. En résumé, le WaferBoard peut être assimilé à un circuit imprimé (Printer Circuit Board) reconfigurable. Il doit permettre le prototypage de circuit à composants discrets en déposant simplement ces composants sur sa surface.

 

L’objectif général de ma recherche est de concevoir le logiciel nécessaire au support de la plateforme WaferBoard. À savoir l’élaboration d’une architecture générale favorisant l’intégration des ressources techniques existantes, la conception d’un modèle évolutif simplifiant les accès au matériel et la réalisation d’un système d’affichage adapté à la complexité d’une telle plateforme. Cela dans un environnement technique bipolaire (électronique et logiciel) connaissant un renouvèlement important des personnes intervenant sur le projet.

 

 

PROBLÉMATIQUE:

 

Le logiciel de contrôle d’une plateforme électronique tel que le WaferBoard doit répondre à des contraintes de performance et de flexibilité, tout en intégrant les résultats de multiples recherches. L’architecture mise en place doit de plus être en mesure de supporter des échanges d’informations importants (plusieurs millions d’objets à traiter).

 

 

MÉTHODOLOGIE:

 

Ø  Priorisation des contraintes;

Ø  Sélection d’un modèle équilibré entre performance et adaptabilité;

Ø  Intégration des contraintes spécifiques du projet au modèle;

Ø  Supervision technique du développement;

Ø  Test et validation du résultat.

 

 

RÉSULTATS:

 

Logiciel fonctionnel basé sur l’architecture proposée (certaines fonctionnalités basées sur des travaux de recherche en cours ne sont pas assurées). Le logiciel actuel représente approximativement 150 000 lignes de code.


 

HACHED, Sami                                                                                                  DIPLÔME: Ph.D.

 

TITRE:

 

Sphincter artificiel commandé et alimenté en énergie sans fil.

 

RÉSUMÉ:

 

Mon sujet de thèse consiste en la conception et la réalisation d’un sphincter artificiel commandé et alimenté en énergie sans fil. Le système conçu permettra de préserver la qualité de vie et les organes des patients et d’étendre les capacités de sphincter classiques employé depuis plus de 30 ans.

 

PROBLÉMATIQUE:

 

Les sphincters artificiels urinaires classiques sont actionnés mécaniquement et appliquent une pression constante sur l’urètre du patient. Leur utilisation nécessite une certaine dextérité et s’avère compliquée pour les personnes à faible mobilité (personnes âgées, obèses, ayant subi un AVC, Parkinson, etc.). La pression constante exercée sur l’urètre peut causer l’atrophie urétrale quand elle est élevée et ne garantit pas la continence quand elle est faible. Notre projet vise à développer un nouveau sphincter urinaire artificiel.

 

MÉTHODOLOGIE:

 

La résolution des problèmes a été faite en modifiant le sphincter standard avec l’ajout du pompage actif et d’une électronique embarquée communicante. Cela en vue d’offrir au patient de nouvelles fonctionnalités comme le contrôle à distance et la variation dynamique de la pression exercée sur l’urètre en vue de réduire le nombre de chirurgies de révision et faciliter l’utilisation et la pose de l’implant.

 

RÉSULTATS:

 

Jusqu’à présent nous avons conçu deux prototypes. Le premier est contrôlable à distance. Le deuxième permet d’adapter la pression selon la morphologie de la vessie. Le deuxième prototype a été testé Ex-Vivo. La gestion énergétique du SUA et l’impact du circuit hydraulique proposé sur l’évolution de la pression sur l’urètre a été testé avec succès. Au cours des expérimentations, l’algorithme adaptatif de génération de pression que nous avons mise en œuvre s’est avéré efficace. Sa précision est de l’ordre de ± 2 cmH2O. La VLPP enregistrée est très proche de la pression de la manchette. Cela prouve que l’implant respecte effectivement la consigne de pression. Tout le long des tests, le SUA était facilement contrôlable. La connexion a été établie en quelques secondes. Le contrôle de l’ouverture de l’urètre se fait par l’appui sur un simple bouton. La modification de la consigne de pression peut être faite facilement et à tout moment.


 

HAMIE, Ali                                                                                                         DIPLÔME: M.Sc.A.

 

TITRE:

 

Prototype d’une micro pompe implantable dédiée à l’injection des médicaments contre l’épilepsie.

 

RÉSUMÉ:

 

L’objectif de ce projet est de proposer et valider un dispositif hybride regroupant une micro pompe implantable sur la surface corticale et comprenant une unité de contrôle intégrée sur puce. Ce système servira à relâcher une quantité minime de médicaments dès qu’une crise sera détectée par une autre interface dédiée à ce rôle.

 

PROBLÉMATIQUE:

 

L’épilepsie est une dysfonction neurologique chronique qui se caractérise par une tendance à des crises récurrentes. De nombreux patients souffrant d’épilepsie restent des candidats non-éligibles à une chirurgie impliquant une résection du tissu épileptogène pour les aider à guérir. Les traitements alternatifs, tels que la stimulation cérébrale et l’injection des médicaments, peuvent améliorer la situation des patients en tentant d’arrêter une crise épileptique dès son apparition. De nombreuses études sont réalisées pour fournir un traitement efficace aux patients épileptiques, mais les solutions proposées demeurent peu efficaces.

 

MÉTHODOLOGIE:

 

Pour réussir la mise en œuvre du système proposé, nous nous intéressons à la technologie des BioMEMS. La micro pompe visée serait composée de matériaux flexibles et doit être miniaturisée pour permettre son implantation au niveau du cortex. Suite à une revue de la littérature sur le design de micro pompes et un survol de composants disponibles commercialement, nous examinerons les unités de contrôle de micro pompes existantes. Ensuite, nous entreprenons ce projet selon les principales étapes suivantes:

Ø  Mise en œuvre d’un prototypage se servant de circuits discrets pour valider le principe de la solution proposée;

Ø  Design et fabrication d’une pompe;

Ø  Conception et test de l’interface électronique dédiée au contrôle de micro pompe complétée;

Ø  Validation de l’opération et publication des résultats.

 

RÉSULTATS:

 

L’apparition d’une crise épileptique a été simulée par une impulsion générée pour démarrer la micro pompe. L’impulsion générée pour simuler une crise a provoqué la génération des signaux de contrôle définissant la période de l’activation du système en entier. Ce signal défini aussi la fréquence d’activation du micromoteur attaché au diaphragme de la micro pompe. Comme prévu, le système de pompage a délivré la dose de fluide programmée et s’est remis en veille à la fin du pompage. La consommation énergétique sous une tension de 5 V du système complet est de 3.34 mA en veille et 40 mA en opération. La consommation de la carte de contrôle est de 3.32 mA en veille et 3.72 mA en mode actif.

 

Les résultats obtenus sont encourageants, car le système permet de recevoir les paramètres d’opération. Aussi, le débit de pompage et le délai avant sa remise en veille peuvent être changés. L’utilisation de la membrane en silicone PDMS a conféré une grande élasticité ce qui a permis d’atteindre des débits de l’ordre du millilitre par minute. Comparé à un système de pompage du commerce, notre système nous a permis de réaliser une économie de 50% de la consommation énergétique. Cependant, la consommation de la carte de contrôle ne chute pas considérablement quand cette dernière est en veille. Cela est dû au module Bluetooth faisant partie de la carte. En effet, la radio de ce dernier est en fonctionnement continu pour permettre la connexion à tout moment. De plus, l’utilisation de la version 2.1 EDR du protocole ne permet pas de réduire la consommation lorsque le circuit attend pour se connecter. L’usage d’un protocole de communication basse puissance comme le Bluetooth 4 permettrait de réduire énormément la consommation en veille.

 


HASANUZZAMAN, Md

DIPLÔME: Ph.D.

 

 

TITRE:

 

 

Un système implantable hautement flexible de faible puissance dédié à la microstimulation intracorticale visuelle.

 

 

RÉSUMÉ:

 

 

L'objectif de ce projet est de concevoir un microstimulateur intracortical microélectronique pour faciliter la recherche en prothèse visuelle et, à long terme pour aider les personnes ayant une déficience visuelle.

 

 

PROBLÉMATIQUE:

 

 

Jusqu'à présent, la plupart des prothèses visuelles développées sont basées sur la microstimulation de la rétine à qui il manque la haute résolution. La technique de microstimulation intracorticale résout cette limitation, mais les conceptions proposées jusqu'ici ne répondent pas à la conformité de haute tension; capacités de surveillance de la tension, impédance et de la charge, débit de données élevé, à haut rendement énergétique des générateurs de stimuli, et une nouvelle stratégie de microstimulation pour créer une vision utile dans le même système de microstimulation.

 

 

MÉTHODOLOGIE:

 

 

Ø  Une revue exhaustive de la littérature est effectuée dans notre domaine de recherche pour trouver les limites, les défis et les problèmes non résolus qui existent en microstimulation intracorticale visuelle.

Ø  Conception, aménagement et simulation post-layout des circuits électroniques intégrés utilisant les technologies de l'outil Cadence.

Ø  Mesure des puces fabriquées via Canadian Microelectronics Corporation (CMC), dans le laboratoire Polystim et l'exécution in-vitro et in-vivo des tests afin de vérifier si les systèmes conçus peuvent répondre aux exigences.

 

 

RÉSULTATS:

 

 

Quatre puces ont été fabriquées et testées dans le laboratoire Polystim. Le premier circuit intégré (CI) fonctionne en partie à cause des erreurs dans le processus de fabrication et le deuxième CI est entièrement fonctionnel. Ce dernier  sera relié à un réseau de microélectrodes pour réaliser des tests in-vitro et in-vivo. La troisième puce fabriquée, un générateur de stimulus à haut rendement énergétique, qui va être connectée au deuxième CI a été fabriqué et testé, il est entièrement fonctionnel. Le quatrième CI, conçu et fabriqué en technologie AMS0.35 µm, est fonctionnel maisi il consomme un courant élevé et il est sous test maintenant. Un certain nombre d’articles qui présentent les résultats de tests et de simulation post-layout ont été publiés. D’autres articles sont en cours de rédaction actuellement.

 

HUSSAIN Wasim                                                                                                          DIPLÔME: M.Sc.A.

 

TITRE:

 

Fournir des liens bidirectionnels et une capacité de communication analogique en WaferBoard™.

 

 

RÉSUMÉ:

 

L'objectif de la recherche est le suivant:

 

Ø  Développer une interface qui peut prendre en charge des liens bidirectionnels comme le bus I2C sur WaferBoard™.

Ø  Développer une interface analogique qui fera la démonstration des performances améliorées par rapport à celui existant dans WaferBoard™.

 

 

PROBLÉMATIQUE:

 

WaferBoard™ est une plate-forme configurable qui peut assurer l'interconnexion entre des circuits intégrés pour un système électronique de prototypage et de test. Le réseau d'interconnexion est compatible avec tout signal numérique parce que la commutation / routage est effectuée par des multiplexeurs numériques. Ainsi, l'interface bidirectionnelle et analogique n’est pas possible dans la version actuelle de WaferBoard™.

 

 

MÉTHODOLOGIE:

 

Le projet interface bidirectionnelle, lorsqu'ils sont interconnectés par le biais WaferBoard™, peut imiter le comportement d'une “ligne de métal unique” pour les bus à drain (ou collecteur) ouvert du protocole I2C. Ainsi, plusieurs nœuds de circuits différents peuvent être raccordés ensemble sur WaferBoard™.

 

Un circuit d'interface analogique basé sur une modulation sigma-delta asynchrone a été proposé pour WaferBoard™.

 

 

RÉSULTATS:

 

L'interface bidirectionnelle peut prendre en charge nombre infinie de nœuds I2C. Cependant, l'augmentation du nombre de nœuds impliquera une diminution de la vitesse de communication. Les circuits ont été fabriqués dans IBM processus de COCM de 0.13µm. Les résultats des tests ont validé le concept.

 

L'interface analogique peut prendre en charge une bande passante de signal de 1 MHz. Le circuit a été fabriqué dans IBM processus de COCM de 0.13µm. Les résultats des tests ont fortement validé le concept.


 

KAMRANI, Ehsan                                                                                             DIPLÔME: Ph.D.

 

TITRE:

Concevoir un système «Integrated Near Infra-Red Spectroscopy (INIRS)» pour l’imagerie cérébrale en temps réel.

 

RÉSUMÉ:

Un système intégré de spectroscopie infrarouge proche (INIRS) fournit un moyen peu couteux, non invasif et portable pour surveiller le fonctionnement du cerveau et les tissus biologiques. Il peut être appliqué dans les diagnostics médicaux modernes pour déterminer l’oxygénation cérébrale, le débit sanguin et l’état métabolique du cerveau. La fNIRS à onde continue (CW-fNIRS) comprend la source de lumière et le photorécepteur frontal. L’élément fondamental du système fNIRS est le photorécepteur frontal qui comprend une photodiode et un amplificateur de transimpédance (TIA). En conséquence, la conception d’un bon photorécepteur fNIRS pour l’imagerie cérébrale portable et en temps réel est la cible la plus difficile que nous avons abordé dans ce travail

 

PROBLÉMATIQUE:

La lumière reçue par un photo-détecteur fNIRS est d’abord transformée en courant électrique et un TIA converti ensuite le courant à la tension maximale pour optimiser le rapport signal sur bruit (SNR) pour les étapes suivantes du récepteur pour un traitement ultérieur. Par conséquent, le TIA joue un rôle essentiel entre le photo-détecteur et le circuit suivant. Comme photo-détecteur, nous avons utilisé une photodiode au silicium à avalanche (SiAPD) en raison de sa simplicité et de sa haute sensibilité, ses caractéristiques de gains inhérents et la facilité de fabrication d’un capteur d’images CMOS intégré. Toutefois, les principaux inconvénients des SIAPDs sont leur temps de transit relativement long, en comparaison des diodes PIN rapides, et leur bruit généré en interne en raison du facteur de multiplication par avalanche. À cause de l’impédance de faible amplitude et le plus souvent à haute source de signaux fNIRS, le photorécepteur frontal doit répondre à certaines exigences de base. Ces exigences comprennent : gain de transimpédance d’entrée élevée, une faible impédance de sortie relativement à l’impédance de charge, largeur de bande étroite autour de la fréquence requise pour augmenter le SNR, des caractéristiques de faible bruit d’entrée, faible consommation d’énergie, le swing de sortie élevée, une large gamme dynamique, rejet de la lumière ambiante et à faible tension de fonctionnement.

 

MÉTHODOLOGIE:

Afin de surmonter les limitations des systèmes actuellement fNIRS non-portables disponibles, un nouveau détecteur de lumière à faible bruit miniaturisé, reconfigurable a été proposé et conçu. Il comprend trois nouveaux TIA et un circuit Quench-Reset contrôlable intégré, avec des photodiodes à avalanche au silicium (nouveaux SiAPDs) sur la même puce utilisant la technologie CMOS standard. Nous avons présenté plusieurs CMOS à faible bruit et à haute sensibilité SiAPD intégrée sur la puce avec une option TIA à être utilisée dans un photorécepteur fNIRS frontal. L’optimisation de la performance des ADP CMOS se fait par simulation au niveau périphérique à l’aide du logiciel TCAD Sentaurus.

 

RÉSULTATS:

Des propositions de circuits intégrés ont été mises en œuvre dans une petite zone (1mm2) et fabriquées par TSMC via CMC Microsystèmes. Les SiAPDs proposées offrent un gain d’avalanche élevé (>100) avec l’épaisseur de la couche d’ozone supérieure à 40 µn et 10 µm, une tension de claquage faible (<12V) et une efficacité d’absorption de photons de haute tension (~85%) à 700 nm. Les DRM proposés offrent une consommation d’énergie faible (~0.8mW»), haute de transimpédance de gain (jusqu’à 250mV/A), bande passante accordable (100Hz-1GHz) et un très faible bruit d’entrée et de sortie (quelques fA/√Hz et quelques mV/√Hz). Le circuit de comptage de photons offre également un temps rapide de réinitialisation, une faible consommation d’énergie (~1mW), une basse tension (1.8V) et un circuit hold-off de temps contrôlable intégré, tous fabriqué dans une zone de surface faible (0.1 mm2). Le travail est en cours en vue d’intégrer APD avec le CW-SPIR et les circuits en mode de comptage de photons et émetteur-récepteur sans fil sur une seule puce. Nos objectifs actuels sont d’améliorer l’efficacité du front-end du photo-détecteur et le développement d’un détecteur multi canaux pour être combiné avec un EEG de chevet pour le suivi de convulsions et d’épilepsie et aussi pour répondre aux exigences et aux critères cliniques.


 

KARIMIAN-SICHANY, Masood                                                                  DIPLÔME: PH.D.

 

 

TITRE:

 

Convertisseur numérique-analogique (DAC) dédié à des générateurs de signaux sinus pour les applications avioniques.

 

 

RÉSUMÉ:

 

Dans ce projet, un convertisseur numérique-analogique (DAC) à sur-échantillonnage 10-bit a été conçu. Le DAC est le noyau d’un générateur de signaux d’excitation polyvalent (ESG) dédié à une interface de capteurs intelligents avioniques. La haute fréquence d’échantillonnage peut être utilisée dans ce convertisseur «segmented current steering» afin d’obtenir un bon rapport signal sur bruit (SNR). Lors de la conception du module au niveau du convertisseur, l’impact de la mise en œuvre de la matrice de sources de courant carré et non carré (CSA) sur l’exécution de la séquence de commutation est introduite. Une séquence de commutation optimale pour la taille CSA a été conçue.

 

 

PROBLÉMATIQUE:

 

Les capteurs et les actionneurs de type high channel count sont nécessaires pour aborder un nombre croissant de fonctions à bord des aéronefs. Avec la technologie traditionnelle anionique, relier les dispositifs résulte en des faisceaux de câbles encombrants. En outre, dans de nouveaux systèmes avioniques, les communications entre périphériques via différents domaines d’application sont également nécessaires, ce qui augmente considérablement le flux d'informations au sein de l’appareil. Les faisceaux de fils électriques et la demande d’une bande passante de communication de plus en plus élevée posent des défis nécessitant le développement de nouveaux bus de données avioniques. L’emploi d’une haute vitesse, des structures de bus de données haut débit et de nouvelles technologies de capteurs dans les réseaux de capteurs avioniques, génère le besoin d’une interface fiable, flexible et universelle, qui devrait permettre de réduire la complexité du réseau d’interconnexion. En ce qui concerne le potentiel de la technologie state-of-the-art CMOS, elle est d'un grand intérêt pour la construction d’une interface de capteur totalement intégrée.

 

 

MÉTHODOLOGIE:

 

Compte tenu des objectifs et des défis de cette recherche, une nouvelle unité ESG a été conçue qui peut être intégrée avec l’unité d'acquisition de données pour constituer un module de système sur puce SSI pour les applications avioniques. L’exactitude et la précision de la sortie ESG ainsi que la programmation de la fréquence et de l’amplitude devraient être procurées dans la conception des systèmes et circuits. Ce travail présente la méthode de calcul pour la réalisation d'un DAC de haute précision sur la base duquel l’ESG génère le signal d’excitation.

 

 

RÉSULTATS:

 

Le Convertisseur a été fabriqué sur puce 1,2 x 1,2 mm2 en utilisant la technologie IBM 0.13μm CMOS. Sous une onde sinusoïdale de courant avec un pic de 1023 pA, le CAD à proposer est en mesure de réaliser un SNR de 84 dB meilleur que dans la bande de Nyquist DC à 20 kHz.


KASSAB Amal                                                                                                                                    DIPLÔME : M.Sc.A.

 

 

 

TITRE:

 

Conception de casques NIRS pour surveiller les activités cérébrales à long terme.

 

 

RÉSUMÉ:

 

 

La détection de l'activité cérébrale en utilisant la spectroscopie infrarouge proche (NIRS) et l'électroencéphalographie (EEG) est devenue une source majeure de compréhension dans les applications médicales et de l’ingénierie. Cette méthode non invasive de surveillance est considérée comme la première étape de détermination de maladies cérébrales. En outre, l’interface cerveau-machine permet la commande directe de divers appareils utilisant directement l’activité du cerveau.

 

 

PROBLÉMATIQUE:

 

 

Les plus grands défis dans la création d’une telle interface sont la stabilité et le confort, en particulier pour la détection de l’activité cérébrale à long terme. Ceci est particulièrement important dans la NIRS, car elle est très sensible aux artéfacts de mouvement. Par conséquent, les chapeaux NIRS existants devaient compromettre le confort afin d’obtenir la stabilité nécessaire. Cependant, ces solutions ne peuvent pas être traduites dans les applications qui nécessitent 6 heures ou plus de surveillance continue. Dans cette conception d’un casque NIRS/EEG, un système pneumatonique constituée d’une pompe, des ballons et des capteurs agissent ensemble pour créer et maintenir une interface avec une pression uniforme et confortable tout en assurant le contact avec le cuir chevelu à tous les points, créant ainsi une adaptation de topographie avec le crâne, qui est stable et confortable en même temps.

 

 

MÉTHODOLOGIE:

 

 

Les étapes de conception sont les suivantes:

 

Ø  Créer un prototype basé sur le concept théorique conçu.

Ø  Tester le prototype selon deux aspects: la stabilité et le confort.

 

 

RÉSULTATS:

 

 

De nombreux modèles des casquettes ont été construits, certains d’entre eux sont utilisés actuellement avec le système de SPIR du groupe Imaginc. Cependant, le modèle final est encore en construction. Il n’y a pas de résultats concrets à ce jour.


 

 KEITA, Abdoul-Kader,                                                                                   DIPLÔME: M. Ing.

                                                                                                                                                          

 

TITRE:

 

 

Énumération efficace de sous-graphes convexes sous contraintes architecturales.

 

 

RÉSUMÉ:

 

 

Ce projet présente un algorithme d’énumération de sous-graphe convexe dans le contexte de l’extension du jeu d’instruction d’un processeur configurable.

 

 

PROBLÉMATIQUE:

 

 

L’architecture à programmes enregistrés des processeurs à usage généraux est intrinsèquement peu efficace. Pour respecter les contraintes énergétiques caractéristiques des domaines embarqués, certains concepteurs se tournent vers les processeurs configurables. Dans ce contexte, les performances du circuit obtenu sont  tributaires de la capacité du concepteur à identifier les opportunités d’accélération dans l’application cible et à les exprimer sous forme de nouvelles instructions pour les processeurs configurables. L’automatisation de ce processus d’identification est donc critique à la productivité du concepteur. Sous certaines hypothèses simples, ce problème peut être réduit à l’énumération de sous-graphe convexe avec des contraintes sur le nombre d’entrées et de sorties.

 

La complexité de ce problème est exponentielle selon la taille de l’application cible. Il est donc nécessaire d’utiliser des méthodes d’implémentation ainsi que des heuristiques de recherche pour obtenir des temps de calcul raisonnables.

 

 

MÉTHODOLOGIE:

 

 

Après une revue de littérature récente, les travaux de (Bonzini & Pozzi, 2007) ont été implémenté et ont servis de base de comparaison. Le nouvel algorithme a été développé dans le contexte de la programmation par contraintes qui donne des outils théoriques précis pour contraster les approches précédentes et également clairement identifier les possibilités d’amélioration de nos propositions. Une attention particulière est portée sur la qualité de l’implémentation, notamment, l’utilisation d’instructions vectorielles, lorsque possible.

 

 

RÉSULTATS:

 

 

Les deux principaux résultats issus de nos travaux sont une implémentation efficace de l’algorithme proposé (Bonzini & Pozzi, 2007) et un nouvel algorithme qui présente de meilleures caractéristiques de recherche. Évalué sur un benchmark standard, notre proposition offre une accélération moyenne de 19x, avec des instances allant jusqu’à 468x. On obtient également des temps d’analyse très bas, ce qui permet de traiter des instances de très grande taille.


 

 

KEKLIKIAN, Thalie                                                                                        DIPLÔME: M.Sc.A

 

 

TITRE:

 

Analyse et modélisation du comportement d’un algorithme de multiplication entre une matrice creuse et un vecteur sur un processeur graphique.

 

 

RÉSUMÉ:

 

La multiplication entre une matrice et un vecteur est un calcul utilisé dans plusieurs domaines, dont la théorie des réseaux ou les équations différentielles. Depuis l’introduction de la plateforme CUDA (Compute Unified Device Architecture), les processeurs graphiques ont été utilisés pour optimiser la performance de ce calcul. Le projet vise à réaliser un modèle qui permettra d’analyser l’implémentation d’un tel calcul sur un processeur graphique. Les résultats permettront de mieux connaître l’architecture des processeurs graphiques et de prédire la performance d’une multiplication entre une matrice creuse et un vecteur implémenté sur ceux-ci.

 

 

PROBLÉMATIQUE:

 

Contrairement aux processeurs généraux, les processeurs graphiques sont conçus pour accélérer le débit d’une application. Grâce à leurs multiples cœurs agencés dans une architecture SIMD (Single Instruction Multiple Data), ils peuvent augmenter la performance d’algorithmes de calculs vectoriels. La performance d’une multiplication entre une matrice et un vecteur est limitée par les accès à la mémoire. La meilleure implémentation du calcul sur processeur graphique est difficile à trouver puisqu’elle dépend fortement de la répartition des éléments non nuls de la matrice creuse.

 

Un modèle sera donc implémenté pour étudier les transactions à la mémoire d’une matrice fournie par rapport à l’implémentation CUDA qui sera utilisée. Connaître ce nombre à l’avance permet d’estimer le temps d’exécution de l’application et donc sa performance. Un tel modèle permettra à un programmeur de choisir l’implémentation qui offrira la meilleure performance pour son problème.

 

 

MÉTHODOLOGIE:

 

Tout d’abord, il faut implémenter le calcul à l’aide du langage CUDA C en utilisant différentes formes de stockage de la matrice creuse en mémoire. Le modèle sera réalisé sur MATLAB et mesurera le nombre de requêtes et de transactions à la mémoire requis pour chaque implémentation et matrice testée. Les matrices proviendront d’une banque de données sur internet, bien connue de la littérature. Les résultats seront comparés aux résultats de profilage de deux cartes NVIDIA : GeForce GTX 670 et Tesla K20.

Les résultats des expérimentations permettront de comparer deux formats ainsi que les deux processeurs graphiques utilisés. Enfin, il serait ultimement possible de proposer un format qui surpasserait tous les autres.

 

 

RÉSULTATS:

 

Pour l’instant, un modèle a été réalisé pour des matrices creuses stockées en mémoire à l’aide du format CSR (Compressed Sparse Row). Dans le meilleur des cas, le modèle prédit exactement le nombre de transactions à la mémoire qui est mesurée par le profileur. Les résultats de profilage montrent aussi que, comme attendu, le temps d’exécution du calcul est lié au nombre de transactions à la mémoire. La prochaine étape est d’adapter le modèle à d’autres formats de la littérature.


 

KOUBAA Zied                                                                                                                                    DIPLÔME: M.Sc.A.

 

 

TITRE:

 

Élaboration d’un chemin d’acquisition de données à haute résolution et faible latence, dédié aux applications avioniques.

 

RÉSUMÉ:

 

L’acquisition des signaux ainsi que leur traitement sont importants pour un avion. Sans ses capteurs, un avion est aveugle dans le ciel. Notre travail de recherche s’intéresse à l’interface électronique des capteurs L/RVDT utilisés dans les avions de Bombardier et plus précisément à l’unité d’acquisition des signaux. Étant donné que, de nos jours, la tendance est vers le digital, la numérisation des données du capteur est la fonction la plus importante dans sa chaine d’acquisition. La résolution, la précision et la rapidité sont des facteurs vitaux dans les systèmes avioniques. Nous avons alors proposé une architecture complète pour convertir et traiter les signaux du capteur L/RVDT avec une résolution de 14 bits et une latence totale de moins de 2 ms.

 

PROBLÉMATIQUE:

 

Une des meilleures architectures de convertisseurs analogique-numérique (CAN) est le Sigma-Delta; il permet d’obtenir un signal numérique de plus haute résolution que tout autre convertisseur analogique-numérique et ce en utilisant le même nombre de bits. Il se compose de deux parties: un modulateur et un filtre décimateur. Afin d’assurer une haute résolution, on doit utiliser des filtres d’ordre élevé ce qui entraîne une latence élevée. Il est alors obligatoire de proposer une nouvelle architecture de filtres décimateur dédié à un modulateur Sigma-Delta fonctionnant en fréquence 5.12o -MHz et présentant un SNR supérieur à 85 dB (résolution de 14 bits au minimum) sans dépasser une latence de 2 ms.

 

MÉTHODOLOGIE:

 

Ø   Revue de la littérature sur les convertisseurs analogiques-numériques de haute résolution.

Ø   Caractérisation du modulateur Sigma-Delta utilisé afin de déterminer ses différents paramètres et de compléter par la suite le chemin d’acquisitions de signal (CAS).

Ø   Élaboration d’une architecture complète d’un chemin d’acquisition du signal (CAS) assurant la résolution demandée.

Ø   Réduction de la latence introduite par le système en modifiant les parties les plus critiques (par exemple le filtre décimateur) sans diminuer la résolution de 14 bits.

Ø   Implémentation de la solution proposée sur une carte FPGA pour valider notre travail.

 

RÉSULTATS:

 

La simulation par Simulink de l’architecture proposée pour la chaine d’acquisition du signal montre une bonne résolution avec une latence inférieure à 1 ms. L’implémentation de l’architecture proposée respecte toujours les contraintes imposées par l’industrie.


 


KOWARZYK MORENO, Gilbert

DIPLÔME : Ph.D.

 

 

TITRE:

 

Développement d’algorithmes de recherche implicitement-exhaustif et de simulation de codes convolutionnels doublement orthogonaux parallèle pour plateforme de calcul à haute performance.

 

RÉSUMÉ:

 

Le présent projet est une suite logique des travaux entrepris par le GRM portant sur la recherche de codes convolutionnels doublement orthogonaux (CDO) et de leurs variantes. Ceux-ci sont utilisés pour l’implémentation de décodeurs à seuil itératifs et à architecture configurable ayant des caractéristiques désirables en termes de latence, de complexité et de performance en correction d’erreurs. La principale motivation de ce travail est de concevoir, implémenter et optimiser un algorithme de recherche permettant de trouver, dans un temps de calcul réduit, des codes optimaux de type CDO au sens large et CDO simplifiés (S-CDO). La nouvelle technique combine plusieurs améliorations algorithmiques et un usage plus efficace des ordinateurs multi-cœurs pour réduire le temps de calcul et pour permettre l’obtention de nouveaux codes plus courts, ainsi que de nouveaux codes optimaux. On vise également à concevoir un simulateur de décodeurs à seuil itératifs de haute performance.

 

PROBLÉMATIQUE:

 

Avec l’omniprésence des moyens de communication électroniques et le besoin d’une bande passante de plus en plus grande, il devient important à la fois d’avoir des communications fiables et de trouver des techniques maximisant le débit d’information utile. Le décodage à seuil itératif permet de minimiser la probabilité d’erreurs de transmission et offre une alternative intéressante aux décodeurs turbo à latence et complexité généralement plus élevées. Ce travail concerne l’accélération de la recherche de codes CDO simplifiés et au sens large. Les codes obtenus seront utilisés pour la conception de décodeurs CDO à basse latence et bonne performance en correction d’erreurs.

 

MÉTHODOLOGIE:

 

La première phase de ce projet consiste à analyser l’algorithme référence pour la recherche de CDO et d’identifier les goulots d’étranglement associés. Dans une deuxième phase, un algorithme parallèle et implicitement-exhaustif pour la recherche de codes CDO (au sens large, simplifié et récursif) sera développé et implémenté. Celui-ci mettra en œuvre des techniques permettant d’utiliser de façon plus efficace le matériel à multi-cœurs, et d’éliminer (ou de réduire) les délais associés aux goulots d’étranglement de l’algorithme de référence. Des techniques permettant d’arrêter et de redémarrer la recherche de codes seront développées : ceci est nécessaire, car le temps d’exécution du logiciel parfois excède le MTBF de la machine où il a été lancé. Dans une troisième phase, les leçons apprises seront utilisées pour développer un algorithme adapté à l’usage du GPGPU ou des plateformes de développement à processeurs hétérogènes. Des tests seront effectués afin de pouvoir comparer les nouvelles performances et d’assurer que la recherche est toujours exhaustive et valide. Finalement, un simulateur de décodeurs à seuil itératifs sera conçu.

 

RÉSULTATS:

 

Un algorithme parallèle implicitement-exhaustif fut développé et implémenté. Les performances du nouveau logiciel de recherche sont entre 3 et 4 ordres de grandeurs meilleures par rapport à l’algorithme de référence. De nouveaux codes plus courts et de nouveaux codes optimaux furent trouvés et validés. L’ajout de techniques pour arrêter/redémarrer la recherche fut complété. Le développement de nouveaux algorithmes pour le calcul de type GPGPU est présentement en cours.


 

KROUCHEV, Nedialko                                                         DIPLÔME: Ph.D.

 

TITRE:

 

Micro stimulation optimale du tissu nerveux – des modèles aux dispositifs.

 

RÉSUMÉ

 

Pour mieux comprendre et définir rigoureusement l’optimalité des dispositifs de stimulation électrique (SE), nous analysons la dynamique neuronale à différentes échelles – du compartiment unique aux réseaux cérébraux.

 

En collaboration avec des équipes à l’avant-garde de l’électrophysiologie (U. Montréal, McGill, U. Washington), nous avons accès à des données expérimentales et nous validons nos modèles et protocoles d’applications.

 

PROBLÉMATIQUE:

 

Quelle est la façon la plus efficace d'activer le tissu ciblé? Quelle forme d'onde minimise la consommation d'énergie? Quels sont les effets de la stimulation à court, moyen et long terme?

 

La recherche deffets fonctionnels particuliers est dominée par les méthodes ad hoc. Il y a donc besoin de plus de connaissances sur la dynamique des neurones et leurs réseaux.

 

MÉTHODOLOGIE:

 

Modélisation des propriétés électriques de la SEF en augmentant graduellement la complexité. Simulation en dynamique en tenant compte de l’organisation corticale pour étudier la plasticité neuronale et la corrélation entre les régions stimulées.

 

RÉSULTATS:

 

Description des propriétés neuro-dynamiques en fonction des paramètres électrophysiologiques: excitabilité, plasticité, entraînement, etc.  

 

Principe d’optimalité énergétique connue sous le terme variationnel de moindre action;

Ø  Vaste étude bibliographique sur : les canaux sodiques voltage-dépendants de divers sous types Nav1.X du SNC ; les facteurs qui affectent la transmission : densité et types des canaux ioniques, courants de seuil, température, etc;

Ø  Analyse des bifurcations de codimention 2 sur une plage étendue de variation des paramètres;

Ø  Nouveaux résultats concluants pour l’article sur la meuro-dynamique;

Ø  Nouveaux résultats concluants pour le projet au MNI.

 

Tâches prioritaires:

Ø  Finaliser l’écriture de l’article sur la neuro-dynamique, le discuter et soumettre vers la fin mai/début juin;

Ø  Finaliser et présenter l’analyse approfondie des données expérimentales de l’aire V1 du projet et les nouveaux résultats de modélisation au MNI;

Ø  Avancer sur un plan pratique de nouvelles idées sur l’analyse et la modélisation paramétrique du blocage de la transmission dans les nerfs périphériques. Ceux-là découlent directement de nos travaux sur la neuro-dynamique. De plus, ils portent sur un sujet d’actualité biomédical sur le blocage de la transmission de la douleur chronique. L’étroite collaboration avec le Professeur Rattay à Vienne nous permet de puiser dans sa vaste expertise et de produire un EMBS poster de qualité à temps pour la date limite (le 26 mai). L’extension de ce travail en un ou plusieurs articles sera assez directe.


LAFLAMME-MAYER, Nicolas

DIPLÔME: Ph.D.

 

TITRE:

 

La conception d’un système de tests intégrés auto-vérifiant, le perfectionnement et la mise à l’essai d’un microsystème à base de circuits intégrés de grande taille –DreamWaferTM

 

RÉSUMÉ:

 

Le projet DreamWafer™ est un projet de recherche conjoint entre l’UQO, l’UQAM et l’École Polytechnique de Montréal (ÉPM) ainsi que de partenaires industriels visant à créer une carte innovatrice de prototypage rapide de systèmes. Plusieurs circuits intégrés (ICs) sont déposés aléatoirement sur cette carte WaferBoard™, qui est ensuite configurée pour interconnecter ces ICs par des liens physiques configurables à l’aide de circuits actifs dans une tranche de silicium (WaferIC™) comme le ferait un circuit imprimé.

 

PROBLÉMATIQUE:

 

Développer une méthode de test s’appuyant sur l’intégration de senseurs de courant, de charges de courant configurables et de détecteurs de fréquence pour caractériser le courant maximal et la fréquence maximale de l’entrée/sortie numérique d’un plot. Élaborer un système de communication vers l’extérieur en utilisant le lien JTAG pour renvoyer à l’utilisateur le statut et la plage de fonctionnement du plot configurable. La caractérisation d’une charge déposée sur un plot peut être atteinte en réutilisant le détecteur de fréquence pour caractériser la réponse fréquentielle d’un circuit intégré en contact avec le plot.

 

MÉTHODOLOGIE:

 

Des designs de régulateurs distribués à double rail d’alimentation seront élaborés avec des contraintes de surface et de performance en plus d’une nouvelle approche compacte et plus performante pour un BandGap configurable. La fonctionnalité de tels circuits sera validée au moyen d’outils de CAO tel que CADENCE avec une technologie CMOS de 180nm.  La ou les solutions les plus prometteuses seront ensuite dessinées, fabriquées et testées dans cette même technologie pour valider leur comportement et leur performance.

Ø  Comparaison d’architecture pour déterminer l’option la plus prometteuse afin d’obtenir plusieurs références de tension programmables stables en température et stables par rapport à VDD;

Ø  Design d’un DAC programmable combiné avec un bandgap en schématique à l’aide de Cadence;

Ø  Design d’un bandgap avec plusieurs branches de sortie à plusieurs niveaux de tension programmable en schématique à l’aide de Cadence;

Ø  Choix de l’architecture la plus prometteuse et design du layout avec Cadence;

Ø  Investigation, choix et design d’un régulateur de tension programmable en schématique avec Cadence;

Ø  Layout de l’architecture la plus prometteuse avec Cadence;

Ø  Fabrication d’un prototype;

Ø  Test du prototype;

Ø  Rédaction d’articles.

 

RÉSULTATS:

 

Ø Une première puce à été fabriquée et a été testée.

Ø Une seconde puce a été fabriquée et a été testée.

 

 

.

LARBANET, Adrien                                                                                         DIPLOME:M. Sc. A.

 

 

TITRE:

 

Référencement et détection de fichiers vidéo sur lien 40 GbE avec l’algorithme de max-Hashing implémenté sur GPU

 

 

RÉSUMÉ:

 

La quantité d'information créée, stockée et échangée, de manière numérique, croît chaque année. Il y a en effet un nombre croissant d'utilisateurs d'Internet dans le monde (2 milliards en 2010) et, d'autre part, le débit des liens et la capacité des supports de stockage numériques ne cessent d'augmenter. Cet environnement, en croissance perpétuelle donc, ne facilite pas la recherche d’objets numériques illégaux, stockés ou échangés. En partenariat avec la société NetClean, notre travail consiste à concevoir des équipements capables d’analyser le trafic d’information circulant sur des liens dont le débit peut atteindre 40 voire 100 Gbps. On souhaite pouvoir identifier, dans ce trafic, le passage de fichiers (ou segments de fichiers) considérés illégaux. Le premier champ d’application concerne la lutte contre la diffusion de fichiers à contenu pédopornographique. Nous nous concentrons sur l’étude du référencement et de la détection de fichiers vidéo.

 

 

PROBLÉMATIQUE:

 

Un fichier transféré sur un lien internet est fragmenté en une multitude de paquets. Ces derniers sont acheminés vers leur destination via des liens qui transportent d’autres informations provenant d’autres utilisateurs et, ce, à des débits pouvant atteindre 100 Gbps. Les paquets n’empruntent pas nécessairement le même chemin dans le réseau ce qui signifie que, les paquets ne transitent pas tous sur un lien en particulier et ne passent pas forcément dans l’ordre. L’algorithme de max-Hashing permet de répondre à toutes ces contraintes et son implémentation sur GPU devrait permettre de supporter de tels débits. De plus, en étudiant l’organisation de l’information dans un fichier vidéo, on remarque une quantité relativement importante de métadonnées : des segments de données qui sont communs à tous les fichiers de même «format». Or, l’algorithme de max-Hashing est sensible à ces similarités et, s’il est appliqué de manière brute à un fichier vidéo, il en découle un taux important de «faux-positifs» lors de la détection (i.e. des fichiers non illégaux sont vus comme illégaux). Il s’agit donc d’améliorer le référencement de tels fichiers.

 

MÉTHODOLOGIE:

 

Afin de minimiser le taux de faux-positifs lors de la détection, il convient de s’assurer de l’originalité des signatures extraites lors du référencement avec une version enrichie de l’algorithme (vérifier que ces signatures sont uniques à un fichier et un seul). Pour parvenir à cette version enrichie, on modifie le logiciel libre et open source FFmpeg afin de localiser les segments à haute entropie dans le fichier vidéo, c'est-à-dire les segments qui contiennent l’information propre à la vidéo. Une fois localisés, on focalise l’algorithme de max-Hashing sur ces derniers. Plus tard, lors de la détection, on veut s’assurer que les paquets Ethernet reçus sont bien acheminés vers la mémoire du GPU avant d’y être traités : on veut pouvoir détecter, sans erreur, les fichiers (et segments de fichiers) qui seraient transmis à un débit de 40 Gbps.

 

 

RÉSULTATS:

 

On applique l’algorithme brut et sa version enrichie sur 8073 vidéos encodées au format H.264. Chaque signature est comparée à toutes celles générées avec la même version de l’algorithme. Celles qui se retrouvent dans au moins deux fichiers sont considérées comme redondantes et donc non-utilisables pour la détection. La nouvelle méthode parvient à prévenir la génération de toute redondance (1 signature sur 10000 était redondante auparavant). Dans le cadre de la détection sur GPU, on peut traiter jusque 45 Gbps de données. Ce débit étant la capacité maximale de transfert de données sur le bus PCIe 2.0.

LEGAULT, Vincent                                                                                                                  DIPL.ÔME: M.Sc.A.

 

TITRE:

Optimisation d’un système graphique sur plateforme avionique critique.

 

RÉSUMÉ:

Avec l’arrivée de matériel informatique de plus en plus performant, l’industrie aéronautique intensifie depuis la dernière décennie le développement de nouvelles fonctionnalités visuellement attrayantes telles que le «glass cockpit», la vision synthétique ou encore les cartes de navigation tridimensionnelles.  Bien que ce type de fonctionnalité soit répandu dans un large éventail de produits comme les jeux vidéo ou les GPS, l’insertion de ces technologies est retardée pour les systèmes avioniques, qui doivent se soumettre à des normes de conception très strictes. Parmi ces nouvelles fonctionnalités visuelles, nous retrouvons, entre autres, les systèmes de vision synthétique. Il est impératif que la conception et le développement de ce type de système répondent à un ensemble d’exigences de sécurité très stricte. Il est donc nécessaire de repenser les méthodologies de conception actuelles pour permettre de concevoir un système complexe qui assurera sa mission et qui sera sécuritaire.

 

PROBLÉMATIQUE:

Les systèmes utilisant un engin graphique haute performance, tels que les systèmes de vision synthétique, nécessitent des capacités de traitements graphiques substantiels que les processeurs généraux actuels, qui répondent aux normes avioniques, ne sont pas capables d’effectuer par manque de puissance. Les compagnies aéronautiques ne sont pas intéressées par la création d’ASIC spécialisés pour effectuer du traitement graphique, car la validation de ce type de composant peut s’avérer très longue et coûteuse vu la complexité du circuit à réaliser. Toutefois, certaines firmes commencent maintenant à développer des solutions COTS basées sur des processeurs graphiques d’ancienne génération. L’engin graphique requis par un système de vision synthétique est très gourmand en ressource de traitement graphique et nécessite l’utilisation d’un GPU. Cependant, chaque fois qu’un concepteur développe ou calibre ce genre de système il se heurte de façon récurrente à la même question : le traitement graphique de mon application surchargera-t-il le GPU de la plateforme de déploiement? Jusqu’à présent, aucun outil ne peut aider les concepteurs à faire un choix éclairé à ce sujet. Sachant cette lacune, il nous est donc venu l’idée d’implémenter un banc de test spécialisé qui serait une contribution adaptée et efficace à cette problématique.

 

MÉTHODOLOGIE:

L’objectif est de réaliser un banc de tests ayant, en entrée, divers paramètres variables et qui produit en sortie une série de métriques mesurant les performances de traitement graphique sur une plateforme cible. Puisque les architectures et les pilotes de GPU sont des propriétés intellectuelles méticuleusement gardées par les fabricants, notre banc de tests a été implémenté en utilisant le premier niveau d’abstraction atteignable (non restreint) soit l’API graphique OpenGL ES SC. L’outil a été implémenté en C++ un langage de programmation supporté par la plupart des RTOS à sécurité critique. Cette façon de procéder implique que nous avons considéré les GPU comme des boîtes noires. Ceci a pour désavantage principal de nous restreindre quant à la diversité des résultats des tests, mais ceci a l’avantage de rendre l’outil indépendant des architectures. En caractérisant un prototype de système de vision synthétique (SVS) nous avons établi la liste des propriétés graphiques qui ont un impact sur les performances de l’application. Cette liste de propriété correspond aux paramètres d’entrées de notre banc de tests. L’objectif des tests réalisés par notre outil est de faire varier chacune de ces propriétés une à une et de mesurer leurs impacts sur la performance de traitement graphique d’un système. En procédant de cette façon, nous avons regroupé sur des graphes, les résultats de chacun de ces tests et, ensuite, déduit des courbes montrant l’impact sur la performance de chacune des propriétés mentionnées dans la liste. Avec cet outil, nous offrons aux développeurs de système de type SVS un instrument leur permettant de calibrer leurs applications adéquatement de sorte qu’ils puissent tirer profit au maximum des ressources matérielles présentes sur une plateforme définie.

 

RÉSULTATS:

Aucun résultat n’est disponible pour l’instant.

 

LI, MENG                                                                                                            DIPLÔME:Ph.D.

 

 

TITRE:

 

 

Amélioration de la tolérance aux pannes et redondance de gestion dans les réseaux AFDX essentiels à la sécurité

 

RÉSUMÉ:

 

Cette recherche vise à proposer des améliorations à l’architecture AFDX, mettre en avant de nouveaux algorithmes et des améliorations de la fiabilité des réseaux AFDX. En outre, une attention particulière sera accordée à la gestion de la redondance.

 

 

PROBLÉMATIQUE:

 

 

Dans les réseaux AFDX, un mécanisme de redondance est appliqué pour améliorer la tolérance aux pannes du système. Toutefois, ce mécanisme est insuffisant pour atteindre la tolérance aux pannes nécessaires pour les applications aérospatiales. Des mécanismes supplémentaires doivent être explorés afin de coopérer avec les réseaux redondants. En outre, il existe toujours une source de non-déterminisme dans les réseaux AFDX en ce qui concerne le moment d’arrivée des paquets. À cause de ce non-déterminisme, la détection en temps réel de fautes spécifiées dans l’end system de réception est plus complexe. Également, les trames de chaque lien virtuel sont dupliquées. Par conséquent, la gestion de la redondance doit être étudiée. Il reste beaucoup de travail à faire en ce qui concerne la gestion de ces liens virtuels redondants.

 

 

MÉTHODOLOGIE:

 

 

Le projet de recherche compte quatre phases principales :

 

Ø  Phase I:       Effectuer la modélisation des fonctions et de la fiabilité des réseaux AFDX;

Ø  Phase II:     Exécuter la détection de panne et améliorer la tolérance aux pannes dans les réseaux AFDX

Ø  Phase III:    Effectuer la planification et la gestion de la redondance dans le conteste de AFDX;

Ø  Phase IV:    Analyser les performances du réseau sur les plates-formes expérimentales avec les stratégies développées. L’injection de fautes et évaluation de la fiabilité sera étudiée et mise en œuvre à ce stade.

 

 

RÉSULTATS:

 

 

Les résultats préliminaires de cette étude se situent principalement sur: un mécanisme basé sur une insertion de trames pour permettre la détection de défauts à la fois dans le système d’extrémité de réception, améliorant ainsi le réseau au niveau  déterminisé. Aussi, une stratégie d'agrégation Sub-VL a été formulée pour atténuer l’augmentation de la charge due à l’insertion du réseau. L’idée a été présentée dans un document qui est provisoirement accepté par IEEE Transactions on Industrial Informatics.


 

 

 

Li, Nan                                                                                                                  DiplômePh.D.

 

 

Titre:

 

 

La détection de Neural Spikes avec le Modified Maximum and Minimum Spread Estimation (mMMS) méthode.

 

 

Résumé:

 

 

Nous présentons une architecture simplifiée, intitulé le Modified Maximum and Minimum Spread Estimation Method (mMMS). La méthode vise à détecter les pointes de neurones efficacement. Les deux détecteurs, avec différentes tailles de mémoire tampon, sont conçus et mis en œuvre.

 

 

Problématique:

 

 

La détection des pointes de neurones est une étape très importante pour la compression de signaux des neurones dans les systèmes d'enregistrement de neurones. Une bonne méthode de détection des pics de neurones est obligatoire de faire effectivement l’enregistrement de neurones, en particulier dans les systèmes d’enregistrement multicanaux à forte densité de neurones. Il existe plusieurs méthodes d’estimation mathématiques qui peuvent être utilisées pour déterminer le seuil d’amplitude pour la détection des pics. Parmi ces méthodes, le détecteur mMMS, basé sur le MMS, fournit la précision de l’estimation attendue alors que sa mise en œuvre au niveau circuit ne nécessite pas d’architecture complexe.

 

 

Méthodologie:

 

 

Afin d'évaluer la précision de l’estimation et de la consommation de puissance des deux détecteurs MMS et MMM, les signaux enregistrés à partir de neurones du cortex d’un signe sont utilisés pour la simulation. Les signaux sont, d’abord, filtré passe-bande avec un filtre Butterworth du troisième ordre entre 0.3 Hz et 7.5 kHz, échantillonnés à 30 kHz et numérisés à 10 bits avec une précision de 1 mV. Après l’échantillonnage, les données ont été traitées avec un filtre passe-haut de Butterworth d'ordres 4 à 300 Hz pour éliminer le potentiel de champ local; et les données d’échantillonnage ont été ré-échantillonnées à 24 kHz. Enfin, les segments de bruit libre ont été extraits à partir des données disponibles pour construire une banque de bruit.

 

 

Résultats:

 

 

Grâce à la simulation, il est démontré que le circuit mis en oeuvre avec le procédé mMMS permet de réduire la consommation d'énergie et la région de dispositif de 30% et 20% respectivement, par rapport au détecteur en fonction de la méthode MMS. Dans un même temps, la précision de l’estimation du détecteur MMM est semblable à celle du détecteur MMS.

 

 

 


 

Ly, My Sandra                                                                                                    DIPLÔME:  M.Sc.A.

 

 

TITRE:

 

 

Mesure de l’impédance d’une solution de neurotransmetteurs.

 

 

RÉSUMÉ:

 

 

Ce projet porte sur la mesure de l’impédance d’une solution de neurotransmetteurs. Nous voulons pouvoir détecter les changements en concentration d’une solution de neurotransmetteurs.

 

 

PROBLÉMATIQUE:

 

 

Les neurotransmetteurs sont des molécules chimiques circulant dans le cerveau qui agissent comme messagers en voyageant d’un neurone à un autre. Chez certains sujets, le nombre de ces neurotransmetteurs est déséquilibré, ce qui engendre des maladies neurodégénératives telles que les maladies d’Alzheimer et de Parkinson. Elles causent des coûts faramineux à la société étant donné l’invalidité des sujets et les médicaments que ceux-ci doivent prendre quotidiennement. À ce jour, les connaissances sur le développement de telles maladies sont limitées et les chercheurs qui veulent en savoir davantage disposent de peu d’outils pour le faire.

 

Les laboratoires sur puces sont une solution idéale pour ce type de problématique puisqu’ils sont en général peu coûteux, portables, requièrent qu’une toute petite quantité de l’échantillon à analyser et sont faciles d’utilisation. Nous voulons développer un système capable de détecter un changement dans la concentration de neurotransmetteurs par la mesure de l’impédance de la solution.

 

 

MÉTHODOLOGIE:

 

 

Des tests ont été effectués avec des composants discrets afin de valider s’il y a une relation entre la concentration en neurotransmetteurs d’une solution et son impédance. Par la suite, un circuit intégré sera conçu pour répondre aux exigences spécifiques nécessaires pour réaliser les mesures désirées. Finalement, des tests de validation seront effectués sur le circuit intégré.

 

 

RÉSULTATS:

 

 

À partir des résultats obtenus avec le système discret, il est possible d’affirmer qu’il y a une relation entre la concentration d’une solution de neurotransmetteurs et son impédance.

 

La prochaine étape consiste en la conception d’un circuit discret permettant la mesure d’impédance.


 

 

MASSICOTTE, Geneviève                                                                                                              DIPLÔME: M.Sc.A.

 

 

TITRE:

 

Potentiostat intégré à  basse consommation et dédié à un laboratoire-sur-puce pour la détection et quantification de neurotransmetteurs.

 

 

RÉSUMÉ:

 

Dans ce projet, nous proposons un Potentiostat (capteur électrochimique) intégré avec une technologie CMOS 0.13µm dédier à la détection des neurotransmetteurs. Le design proposé offre l'avantage d’offrir une large plage dynamique de courant d'entrée et une basse consommation de puissance.

 

 

PROBLÉMATIQUE:

 

La communication neuronale par stimulation chimique est au cœur des processus neurologiques du cerveau humain. Ce phénomène intervient par un échange de molécules distinctes, appelé neurotransmetteurs, à la surface membranaire des neurones. L’enregistrement de cette activité à différents endroits dans le cortex cérébral fournirait les données nécessaires à une compréhension neurophysiologique avancée du cerveau humain et à ses pathologies neurodégénératives. Afin de fournir un outil aux chercheurs du domaine médical intéressé par ces enjeux, Polystim  développe actuellement un laboratoire sur puce (LoC) dont l’objectif est d’explorer, analyser et superviser l’activité des neurotransmetteurs au niveau du cortex cérébral.

L’objectif principal de ce projet consiste à concevoir la partie détection du dispositif LoC afin de détecter et quantifier plusieurs neurotransmetteurs simultanément. Pour ce faire, la conception d’un Potentiostat intégré, soit un capteur électrochimique, est réalisée. Ce capteur doit répondre aux comportements physiologiques des neurotransmetteurs tout en consommant le moins de puissance possible, puisque les implants cérébraux sont soumis à de fortes contraintes en terme de puissance. Nous proposons une nouvelle architecture microélectronique permettant une faible consommation de puissance et une large plage dynamique. Le prototype est réalisé sur puce avec une technologie 0.13µm CMOS. La deuxième partie du projet implique la conception d’électrodes de mesure sélectives à la dopamine et au glutamate afin de démontrer la validité du prototype conçu. Enfin, l’intégration finale du capteur dans le LoC sera réalisée.

 

 

MÉTHODOLOGIE:

 

Dans un premier temps, les spécifications du capteur ont été définies en fonction du comportement physiologique des neurotransmetteurs du cerveau humain, ainsi que des caractéristiques du laboratoire-sur-puce. Par la suite, un design basé sur des mesures de temps a été proposé et des simulations avec la technologie CMOS 0.13µm ont été effectuées; afin de valider le concept. Enfin, le design a été implémenté sur puce.

 

 

RÉSULTATS:

 

Les résultats de simulation post-lay-out démontrent une plage d’entrée dynamique de plus de 94dB, incluant la détection de courant allant du pA au µA. La consommation de puissance varie de 13 µW à 56 µW, pour une fréquence d’échantillonnage minimale de 1.25 kHz. Les tests de la puce fabriquée sont en cours. 


 

MEHRI-DEHNAVI, Marzieh                                                                                                       DIPLÔME: M.Sc.A.

 

 

TITRE:

 

Pixel intégrateur différentiel pour la minimisation du courant de noirceur à capteurs d’images CMOS.

 

 

RÉSUMÉ:

 

Les capteurs d’images CMOS prennent le dessus sur le marché de capteurs d’image principalement en raison de leur faible coût, faible consommation d’énergie et compacité. Les imageurs Charged Couped Device (CCD) étaient la technologie dominante dans les deux dernières décennies en raison de leur qualité et la flexibilité d’image. Par rapport aux capteurs d’images CCD, les capteurs d’images CMOS ont un courant de noirceur élevé et une plus grande quantité de bruit schéma fixe. Un grand courant de noirceur dans la matrice de photo-diodes d’un imageur CMOS conduit à un bruit élevé, un faible rapport signal sur bruit (SNR), une non-uniformité et une faible évolutivité. Il limite également la plage dynamique d’un capteur. Ce projet propose d’améliorer la qualité du capteur d’image par la méthode d’échantillonnage différentiel d’indemnisation du courant de noirceur du pixel actif CMOS. L’objectif est de concevoir un circuit de pixel de petite taille. Le circuit de pixel est lié à un circuit de lecture de colonne afin de copier la réponse en tension du photo-détecteur sur le pixel et sur la colonne pendant la séquence de lecture de pixel, sans modifier le signal. Un prototype de réseau de capteurs sera fabriqué pour prouver la fonctionnalité du circuit.

 

 

PROBLÉMATIQUE:

 

L’objectif principal de ce projet est de concevoir le circuit de commande assurant de traiter les signaux analogiques d’une matrice de pixels et de fournir une méthode pour la détection de mode de la réponse du capteur d’image. Comme le courant de noirceur limite considérablement la performance d’un capteur d’image en terme de dynamique et de sensibilité, la nouvelle architecture CMOS APS réduit et compense le courant de noirceur en ayant une bonne gamme dynamique et une excellente linéarité.

 

 

MÉTHODOLOGIE:

 

Une technique de compensation de courant de noirce de capteurs d’images pour des situations de faible luminosité est présentée dans ce travail. Un circuit amplificateur capacitif différentiel (CTIA) multi-branche est proposé pour compenser l’effet du courant de noirceur des capteurs d’image CMOS. Afin d’obtenir une application de détection de faible niveau, un interrupteur de type T avec un faible courant de fuite est utilisé. La nouvelle configuration de l’amplificateur différentiel multi-input à sorties multiples présente l’avantage d’une gestion rigoureuse des courants sub-femto Ampère de la photodiode.

 

 

RÉSULTATS:

 

Ce projet a débuté à l’hiver 2012. Une haute sensibilité de pixel actif du capteur d’image CMOS avec une bonne gamme dynamique a été développée en utilisant le procédé TSMC CMOS 0.18µm.


 


MONTEIRO, Fellipe 

DIPLÔME: M.Sc.A

 

TITRE:

 

Automatisation du processus de caractérisation de la consommation de puissance pour l’estimation au niveau modèle transactionnel.

 

 

RÉSUMÉ:

 

Ce travail propose une méthodologie capable de caractériser automatiquement la consommation de puissance des processeurs configurable de type « soft-processors » et de générer un modèle efficace pour l’estimation de l’énergie consommée au niveau système. À l'aide de ce modèle, une étude comparative entre trois techniques d’estimation est présentée.

 

 

PROBLÉMATIQUE:

 

De nos jours, la consommation de puissance est une contrainte clé et une métrique de performance essentielle lors du design des systèmes numériques. La dissipation de chaleur excessive sur les circuits intégrés diminue leurs performances. Également, plus que jamais, nous avons le besoin d’augmenter le temps de vie des batteries de produits électroniques portables. Avec les techniques de design classiques, RTL («Register Tranfer Level»), une estimation de puissance  précise est  possible seulement aux dernières étapes du processus de développement. Pour remédier à cette problématique, on a récemment proposé dans la littérature de hausser le niveau d’abstraction de la conception de systèmes embarqués à l’aide de méthodologie de niveau système: «Electronic System Level» (ESL). Dans cette perspective, ce travail propose une méthodologie pour permettre l’estimation de puissance des processeurs au niveau système.

 

 

MÉTHODOLOGIE:

 

Les étapes à suivre sont les suivantes:

 

Ø  Établir un moyen d’automatiser le processus de caractérisation des processeurs configurable de type « soft-processors ». Ce processus existe déjà, toutefois, il est essentiellement manuel.

Ø  Implémenter l’automatisation du processus.

Ø  Évaluer la précision de la caractérisation obtenue en ayant comme modèle de référence la consommation donnée par l’outil de Xilinx, Xpower.

 

 

RÉSULTATS:

 

Les résultats de cinq programmes tests montrent une estimation de puissance 8000 fois plus rapide que les techniques d’estimation conventionnelles et une erreur quadratique moyenne de seulement 3.98 % pour le processeur LEON3 et de 10.69 % pour le processeur Microblaze.

 

 


 



 MORADI, Arash

DIPLÔME: Ph.D.

 

TITRE:

 

Émetteur de faible puissance et haut débit de données dédié aux microsystèmes biomédicaux implantables.

 

RÉSUMÉ:

 

Dans ce travail, le chemin de transmission d’un émetteur-récepteur sans fil de fréquence radio est mis en œuvre pour l’interface sans fil de capteurs biomédicaux avec une consommation d’énergie ultra faible. Un nouveau schéma de modulation Frequency Shift Keying (FSK) est proposé et mis en oeuvre utilisant les Technologies CMOS 90nm de TSMC et de 130 nm d’IBM de réduire la consommation d’énergie et d’améliorer le début de données. L’émetteur RF opère en Amérique du Nord entre 902-928 MHz bande ISM fournissant un débit élevé de données pour les transmettre à un récepteur externe sur une courte distance. L’émetteur est ciblé pour consommer un courant très faible tiré à partir d’une tension d’alimentation de 1 ou 1.2V.

 

PROBLÉMATIQUE:

 

Le comportement du corps de certains patients atteints de maladies spécifiques du cerveau, telles que l’épilepsie, a besoin d’être surveillé en permanence. Pour ce faire, un réseau de capteurs est nécessaire pour détecter et produire les données associées. Les données générées doivent être transmises à un récepteur externe pour une analyse ultérieure. En effet, en utilisant de tels capteurs, les patients n’ont pas besoin d’être connectés à une machine pendant une longue période. Les émetteurs-récepteurs RF comme la partie communication des réseaux de capteurs sans fil sont nécessaires dans de nombreuses applications biomédicales comportant des dispositifs implantables. Ces dispositifs implantés doivent consommer une très faible puissance, tout en maintenant un haut débit de données de communication, sinon, la batterie de ces appareils doit être rechargée fréquemment dans des cabinets médicaux. En général, l’objectif est de maintenir l’émetteur-récepteur implantable aussi simple et d’aussi faible consommation de puissance que possible. En contrepartie, le récepteur externe peut être plus compliqué.

 

MÉTHODOLOGIE:

 

Dans cette recherche, nous proposons de concevoir et de mettre en oeuvre un émetteur-récepteur RF à faible puissance pour l’interface sans fil de capteurs biomédicaux.  L’émetteur-récepteur cible doit également répondre à d’autres spécifications, telles que l’intégrabilité à faible coût et sa simplicité.  Employer la technique proposée pour moduler la transmission de données permettra de réduire la consommation électrique totale. Mettre en oeuvre la conception nanométrique utilisant un procédé CMOS ainsi que la conception technique du circuit analogique permet d’atteindre les performances souhaitées. En utilisant des composants passifs pour mettre en œuvre, la voie de transmission permet également de consommer une très faible puissance. En outre, une partie de la recherche sera concentrée sur les blocs gourmands en énergie pour tenter de les mettre en oeuvre avec de nouvelles techniques de conception de circuits.

 

RÉSULTATS:

 

La section émetteur de faible puissance et de données à haut débit sans fil dans l’émetteur-récepteur de fonctionnant dans la bande 902-928 MHz) est conçue et mise en oeuvre dans les procédés 90nm et 130nm CMOS. Grâce à l’emploi de composants de faible puissance et de la technique de modulation de fréquence, l’émetteur proposé a réduit la consommation d’énergie totale. Sur la base des structures proposées et les réalisations connexes, trois articles scientifiques ont été publiés à des conférences de l’IEEE. Les résultats des mesures montrent la fonctionnalité et l’efficacité de l’émetteur fabriqué. En résumé, l’émetteur proposé est capable de communiquer avec plus de 1 Mb/s de débit de données tout en ne consommant que peu de puissance.

 


 

MOURET, Geoffroy                                                                                         DIPLÔME: M.Sc.A.

 

 

TITRE:

 

Approche statistique de l’économie d’énergie pour animât.

 

 

RÉSUMÉ:

 

L’Ecole Polytechnique de Montréal dispose de plusieurs unités mobiles intelligentes (animât) équipées de capteurs (infrarouges, accéléromètres, intensité lumineuse, intensité électrique...) leur permettant de percevoir leur environnement interne comme externe. Les applications des mini-drones sont nombreuses: établissement d'un réseau de communication d'urgence, cartographie d’un environnement inconnu, recherche de survivants lors de catastrophes naturelles, poursuite d’individus, etc. Les robots doivent en permanence calculer, communiquer, analyser, et ce, au détriment de leurs réserves en énergie. L’idée ici est de déterminer les ressources superflues pour la tâche en cours à l’aide de méthodes statistiques de sélection de variables.

 

 

PROBLÉMATIQUE:

 

Les algorithmes de «machine learning» actuels sont bien souvent empiriques et dans certains cas, sans justifications théoriques. Dans le cas des recherches en statistiques, on observe le phénomène inverse avec des algorithmes bénéficiant d’arguments mathématiques solides, mais déconnectés des problématiques physiques de certains problèmes. On souhaite développer certaines de ces méthodes et les valider par simulation pour comparer leurs performances vis-à-vis des approches classiques du domaine. L’objectif est d’obtenir des algorithmes valables pouvant utiliser les animâts comme plate-forme de test pour de futurs projets.

 

 

MÉTHODOLOGIE:

 

La première partie du projet a été menée en partenariat avec le professeur Partovinia du département de génie industriel et de mathématiques appliquées. Il s’agit d’une généralisation de la pénalisation de type «Elastic Net» pour la sélection de variables La deuxième partie est en cours de finition sur la méthode de clustering «no-means algorithm»qui est une optimisation de la méthode de «clustering k-means». Ce deuxième travail sera présenté au congrès annuel de la Société Statistiques du Canada et soumis à une revue scientifique pour publication.

 

 

RÉSULTATS:

 

Nous sommes capables de trouver les paramètres de pénalisation optimaux de la régression «Elastic Net» pour les cas particuliers des régressions sur les valeurs estimées ou sur les paramètres en utilisant une approche bayésienne pour la norme quadratique. L’algorithme «no-means» permet un clustering similaire à celui effectué par «k-means», mais en s’affranchissant du problème des valeurs initiales. La complexité en temps de calcul est la même que «k-means», mais reste globalement plus lente. Des optimisations sont à réaliser à ce niveau.


 

NABOVATI, Ghazal                                                                                         DIPLÔME: Ph.D.

 

 

TITRE:

 

 

Biocapteur sur puce implantable pour la surveillance de la taille de tumeurs

 

 

RÉSUMÉ:

 

 

Dans ce projet, nous développons un biocapteur pour la surveillance des cellules à haute résolution et grande précision. Chaque pixel de détection est constitué d’un capteur de pH et d’un capteur capacitif. Le microchip est un système de télémétrie de données sans fil et est conçu pour envoyer les données enregistrées à l’extérieur du corps du patient. Une interface est aussi conçue pour envoyer les données à l’ordinateur pour le stockage et pour analyses subséquentes.

 

 

PROBLÉMATIQUE:

 

 

Malgré de grands progrès au niveau de l’instrumentation biomédicale, il n’existe pas d’outil pour la surveillance continue des activités de croissance tumorale. Un réseau de capteurs bio-implantables peut offrir plusieurs avantages pour détecter les facteurs biologiques (par exemple, la prolifération) ou chimiques (par exemple, le pH ou le taux d’oxygène) pour l’étude du cancer, ainsi que le contrôle de la chimiothérapie du cancer. Ce projet conduit à un nouvel outil et un protocole pour une meilleure compréhension de la biologie sous-jacente au cancer ainsi que la chimiothérapie anticancéreuse améliorée.

 

 

MÉTHODOLOGIE:

 

 

La mise en œuvre de ce projet de recherche sera divisée en trois phases principales:

 

Ø  Conception des capteurs microélectroniques (interface de lecture, convertisseur analogique-numérique);

Ø  Microfluidique et emballage;

Ø  Conception et mise en œuvre d’un système de télémétrie sans fil.

 

 

RÉSULTATS :

 

 

La puce est fabriquée en utilisant la technologie 0.35µm TSMC. La première étape de ces expériences est réalisée par la mise en culture des lignées cellulaires de cancer sur puce CMOS. Le capteur a fourni des informations en temps réel sur le taux de prolifération des cellules et également la variation de pH du milieu de culture cellulaire.

 

 


 

NAJAPOUR FOROUSHANI, Armin                                                                                             DIPLÔME: M.Sc.A.

 

 

TITRE:

 

Performance des systèmes basés sur le classificateur dégradé XCS avec opérateur de précision dans les problèmes d’animât

 

 

RÉSUMÉ:

 

Le problème de l’animât, qui est le problème d’un agent qui tente de survivre dans un environnement de labyrinthe avec des récompenses distribuées, sont considérés dans cette thèse. L’animât utilise des systèmes de classificateurs XCS qui permettent à son cerveau d’apprendre dans ce type d’environnements. La complexité de l’environnement dépend de la distribution des objets qui le composent et XCS sera modifié par l’ajout de nouveaux mécanismes pour être en mesure d’apprendre dans des environnements plus complexes.

 

 

PROBLÉMATIQUE:

 

L’environnement qui est considéré dans cette thèse est un environnement de labyrinthe composé d’objets alimentaires et d’obstacles nuisant à la collecte de ces récompenses. Donc, nous sommes soumis à un problème de l’apprentissage par renforcement. L’animât apprend à atteindre la nourriture en explorant d'abord l’environnement et en apprenant à se procurer une nourriture aussi vite que possible. Deux capacités de base  des animâts sont la détection et l’action qui sont reliés par une architecture de commande qui donne la possibilité de comportement adaptatif à l’animât. Dans cette thèse, les environnements sont un labyrinthe où l’animât est entouré de huit cellules. Pour les animâts, huit détecteurs sont considérés pour les objets disponibles à chaque endroit.

 

 

MÉTHODOLOGIE:

 

La méthode qui est considérée est de concevoir l’architecture de contrôle de l’animât, pour lui permettre d’apprendre dans l’environnement pour trouver de la nourriture et survivre, basée sur le système classificateur XCS. XCS est un algorithme adaptatif qui est une combinaison de Q-apprentissage et d’un algorithme génétique qui inclut une population de classificateurs. Les classificateurs sont des règles sensori-action qui sont équipées de trois paramètres de prédiction, «erreur de prédiction» et «fitness». Chacun de ces paramètres est mis à jour en fonction de la récompense que l’animât reçoit. Les règles sont produites par le mécanisme de l’algorithme génétique. Pour certains types d’environnement, XCS ne parvient pas à apprendre à atteindre la nourriture aussi vite que possible. Pour résoudre ce problème, deux mécanismes lui sont ajoutés: spécifier un opérateur comme algorithme génétique et un mécanisme de descente de gradient qui est utilisé dans la procédure de mise à jour.

 

 

RÉSULTATS:

 

Les résultats montrent que dans les environnements XCS woods 1 et woods 2 seuls, l’animât fonctionne très bien et peut apprendre et le nombre d’étapes à la nourriture diminue et se stabilise après quelques itérations, mais que, dans des environnements plus complexes tels que maze5, la précision de l’opérateur et le mécanisme de descente de gradient sont nécessaires pour être permettre à l’animât d’apprendre.

.

NISHI, Romain                                                                                                   DIPLÔME:  M.Sc.A.

 

 

TITRE:

 

 

Développement d’un algorithme d’allocation «max-min fair» de bande-passante dans un réseau de communications multi-trajet.

 

 

RÉSUMÉ:

 

 

Internet ou les réseaux de communication sans fil tel que pour les réseaux de téléphones cellulaires sont aujourd’hui considérés comme des dus par la société qui en font usage constamment dans leurs vies personnelle et professionnelle. Ces réseaux qui sont de plus en plus grande envergure nécessitent cependant des ressources croissantes capables de gérer le trafic des données. Bien que certaines fonctions soient aujourd’hui implémentées dans des circuits intégrés spécialisés, l’utilisation d’autres plateformes plus flexibles telles que des serveurs semble être l’avenir de cette technologie. Le présent projet vise ainsi à développer un algorithme capable de fournir des résultats optimaux ou quasi optimaux pour un problème d’allocation de bande-passante dans des réseaux multi-chemins de grande envergure sur une plateforme logicielle et dans un temps limité.

 

 

PROBLÉMATIQUE:

 

 

Bien qu’il existe des algorithmes bien connus aujourd’hui pour l’allocation de bande-passante, ces derniers sont, soit trop inefficace pour réaliser les calculs dans les temps impartis sur plateforme logicielle, soit inadaptés pour les réseaux de type multi-trajet. Dans le but d’obtenir une telle performance, l’algorithme développé doit permettre non seulement d’obtenir un partage de bande-passante optimal ou quasi-optimal du point de vue «max-min fair», mais aussi de trouver ces résultats dans un temps réduit possiblement en prenant avantage de processeurs multi-cœur et de coprocesseurs GPU.

 

 

MÉTHODOLOGIE:

 

 

La première phase de ce projet consiste à étudier l’état de l’art concernant les méthodes d’allocation de bande-passante, et de développer un modèle d’allocation satisfaisant les contraintes du problème. Dans une deuxième phase, les algorithmes connus seront implémentés selon les modèles développés afin de servir de référence pour les futurs travaux. Par la suite, un nouvel algorithme satisfaisant les contraintes d’équité de partage de la bande-passante sera développé et testé. Enfin, l’algorithme sera implémenté, testé et optimisé afin de satisfaire aux contraintes temporelles du problème. L’algorithme pourra potentiellement être parallélisé sur processeur multi-cœur et GPU.

 

 

RÉSULTATS:

 

 

Un algorithme basé sur l’algorithme dit «Progressive filling» a été développé et implémenté. Celui-ci présente des résultats encourageants au niveau de l’équité de la bande-passante allouée aux différents flux de données. L’algorithme est théoriquement parallélisable à différents niveaux et son optimisation 3 est présentement en cours.

 


 

NSAME, Pascal                                                                                                                                  DIPLÔME:  Ph.D.

 

 

TITRE:

 

Techniques et méthodes de conception et de vérification des systèmes cognitifs intégrés sur puces.

 

RÉSUMÉ:

 

Ce projet vise l’élaboration de techniques et méthodes avant-gardistes de conception et de vérification des circuits intégrés cognitifs sur puces. La complexité grandissante des systèmes de type System-on-Chip (SoC) impose une utilisation efficace des ressources matérielles et logicielles centrées sur des méthodes de conception qui complémente la synthèse logique avec les techniques d’adaptation en temps-réel grâce à l’accès aux réseaux mobiles et hybrides. Toutefois, à cause de la dépendance entre les représentations au niveau comportemental, RTL et portes, et leur impact sur le partitionnement matériel/logiciel, la performance, la dissipation de puissance et surtout l’effort de vérification, il est nécessaire de développer une approche intégrée à la méthode de conception elle-même. L’objectif du projet consiste à étudier les interfaces matériel-matériel, matériel-logiciel et matériel-utilisateur régissant l’intégration des systèmes cognitifs afin de proposer des modèles d’interface améliorés et d’explorer les architectures VLSI intégrées qui permettent d’implanter efficacement une synchronisation non-bloquante pour des systèmes complexes multiprogrammés et à mémoire partagée dans un contexte de traitement de données à très haut débit.

 

 

PROBLÉMATIQUE:

 

La capacité d’intégration offerte par la nanotechnologie rend l’implantation des systèmes de type SoC très intéressante. Toutefois, les besoins en vérification croissent de façon exponentielle.  Cette capacité d’intégration élevée impose au concepteur un niveau de productivité extrêmement élevé. En effet, les besoins des applications en temps réel, l’augmentation constante du niveau d’intégration matérielle/logicielle, du parallélisme au niveau instruction et de la complexité de la hiérarchie de mémoires intégrées et partagées conduisent à un risque augmentation de la dégradation de performance effective due à une synchronisation bloquante entre agents communicants en temps-réel. Ceci rend inadéquates les méthodes traditionnelles de conception et de vérification basées sur la simulation et la synthèse logique seulement. Un défi majeur consiste à développer une méthodologie qui facilite le travail du concepteur dans un environnement de design, où les outils CAD/CAE et la technologie de fabrication sont en constante évolution et où les bibliothèques de composants deviennent de plus en plus complexes.

 

 

MÉTHODOLOGIE:

 

Étude comparative de l’état-de-art en matière de méthode de conception et vérification des systèmes cognitifs intégrés sur puce Définition et spécification d’une architecture VLSI avant-gardiste basée sur l’utilisation efficace des tissus de calcul adaptatifs. Validation du prototype réalisé.

 

 

RÉSULTATS:

 

Une nouvelle méthode de conception basée sur une technique adaptative de la fiabilité basée sur une optimisation à deux phases a été proposée. La première phase identifie les opérations asynchrones implémentées à l’aide d’une librairie de tissus de calcul adaptatifs. La deuxième phase minimise la consommation d’énergie afin de satisfaire la contrainte de température moyenne. Deux problèmes d’optimisation ont été formulés à l’aide de la technique de programmation linéaire entière validée avec les applications HEVC/H.265. Des articles de journaux et brevets sont en préparation.


 

RIVARD GIRARD, Simon                                                                               DIPLÔME:  M.Sc.A.

 

TITRE:

Filtrage de nuages de points désorganisés par fovéation non-linéaire à multiples fovéas

 

RÉSUMÉ:

Ce projet tente d’améliorer les performances d’algorithmes de synchronisation de nuages de points basés sur la technique ICP en minimisant leur vitesse d’exécution et en maximisant leur précision. Pour ce faire un filtre basé sur le comportement neurobiologique de l’oeil, bien connu dans le domaine du traitement d’image, sera adapté à des vecteurs de données 3D désorganisés (nuages de points dont l’indice de position d’un point dans le vecteur n’est pas relié au positionnement du point dans l’espace comme ce serait le cas pour une image).

 

PROBLÉMATIQUE:

La performance des algorithmes de synchronisation ICP dépendent en majeure partie de la taille et de la répartition dans l’espace des deux nuages de points qui devront être synchronisés. En réduisant la taille de ces nuages à l’aide de filtres, la vitesse d’exécution des algorithmes sera nécessairement améliorée, mais la précision de la synchronisation pourrait en être affectée. De plus, plus un nuage est réparti dans l'espace, plus l’algorithme aura tendance à converger rapidement vers une solution précise, surtout lorsque des objets ou le senseur lui-même causent de l’obstruction dans la scène créant des incohérences entre deux nuages à synchroniser qui se suivent temporellement. Ainsi, dû à la nature des algorithmes ICP, un bon filtre pour ceux-ci se doit de: réduire au maximum le nombre de données 3D; tout en maintenant une bonne distribution des points dans l’espace.

Deux filtres bien connus dans la littérature sont le sous-échantillonnage uniforme et la fovéation. Le premier répond bien au critère (2), mais pourrait garder plus de points que nécessaire. Le deuxième répond bien au critère (1), mais localise les points retenus à un seul endroit (autour de la fovéa). Ainsi, une fovéation à plusieurs fovéas serait un bon compromis entre les deux méthodes. D'autre part, la fovéation a toujours été appliquée aux données 2D, telles que des images, qui nécessitent que l’indice de position d’un point dans son conteneur soit un indicateur de la position du point dans l’espace. Ainsi, lorsqu’on veut l’utiliser sur des données 3D désorganisées (qui ne respectent donc pas la règle de l’indice de position du point dans son conteneur), il faut d’abord convertir le nuage de point désorganisé en une image de profondeur (nuage de points organisés) ce qui peut s’avérer une opération lente pour des senseurs qui ne supportent pas la création de telles images. Certains travaux ont pu transférer certaines techniques de la fovéation d’images vers les nuages de points désorganisés telle la fovéation à simple fovéa et à interpolation linéaire dans le cadre de la détection d’objets. Ainsi, dans le cadre de ce projet, on tentera d’adapter d’autres techniques de fovéation d’images à la fovéation de nuages de points désorganisés. Dans l’optique d’améliorer les algorithmes ICP, il s’gira d’adapter la fovéation à multiples fovéas. De plus, un sous-échantillonnage non-linéaire y sera appliqué afin de réduire davantage le nombre de point final.

 

MÉTHODOLOGIE:

Acquisition et prétraitement d'une base de données de nuages de points pour les tests subséquents. Implémentation de deux variantes d’algorithmes ICP: «Generalized ICP» et «levenberg-marquardt optimized ICP». Implémentation de quatre filtres: sous-échantillonnage uniforme, fovéation à simple fovéa classique, fovéation à deux fovéas et fovéation à deux fovéas avec sous-échangillonnage non-linéaire. Pour chaque couple filtre, algorithme ICP, récolter le temps d’exécution et l’indice de précision du filtre ainsi que la synchronisation pour chaque couple de nuages qui se suivent temporellement dans la base de données. À l’aide de tests d’hypothèses statistiques Mann-Whitney U, valider qu’une réduction de la vitesse de la synchronisation à l’aide du filtre développé n’affecte pas la précision de l’algorithme, comparativement aux autres filtres présents dans la littérature.

 

RÉSULTATS:

 

Pour l’instant, le filtre de fovéation classique et celui proposé ont été appliqués à l’algorithme «Generalized ICP». Le filtre proposé dans ce projet a statistiquement réduit la vitesse d’exécution tout en n’influençant pas significativement la précision finale de la synchronisation, en comparaison au filtre de fovéation classique.

 

 

 

 

SALAM, Muhammad Tariqus

DIPLÔME: Ph.D.

 

TITRE:

 

Microsystème biomédical implantable pour le traitement de l’épilepsie.

 

RÉSUMÉ:

 

Environ 50 millions de personnes dans le monde souffrent d’épilepsie, dont un tiers sont réfractaires aux médicaments antiépileptiques. Un nombre de ces derniers ne sont pas de bons candidats à la chirurgie ou ont continués à avoir des crises malgré la chirurgie. Ainsi, de nouvelles options thérapeutiques pour l’épilepsie réfractaire sont nécessaires. Un stimulateur cortical approprié pourrait être un mode plus sûr et efficace de traitement alternatif pour l’épilepsie réfractaire. L’idée de ce traitement est d’identifier le début des crises et de bien stimuler la zone épileptogène de façon à supprimer une saisie à venir. Par conséquent, une faible puissance de détection de début des crises est nécessaire et elle doit être très sensible aux décharges anormales spécifiques électrographiques.

 

PROBLÉMATIQUE:

 

De nombreux modèles mathématiques ont été développés pour détecter les crises, dont l’EEG intracérébral. Les modèles de base ont montré de meilleures performances que l’EEG de surface. Ces modèles ont été traduits en filtres passe-bande et en logiciels qui sont utiles pour les applications à court terme. En outre, l’amplification du signal neuronal est un enjeu crucial, parce que la performance relativement faible en termes de bruit de la technologie CMOS provoque plusieurs types de bruits indésirables, module le signal et diminue le rapport signal/bruit. Beaucoup de méthodes de pré amplification des signaux neuronaux ont été proposées, et certaines ont démontré des capacités impressionnantes à amplifier le potentiel de très faible amplitude-action. Il existe une variabilité dans le modèle de saisie en fonction de la localisation, de l’étiologie de la saisie et le placement des électrodes intracrâniennes. En outre, la détection des rythmes biologiques peut causer de fausses alarmes.

 

MÉTHODOLOGIE:

 

Le détecteur de crise épileptique à faible puissance a un gain d’amplification réglable de sorte qu’il puisse mettre l’accent sur le niveau d’amplitude d’intérêt. Aussi les tensions de seuil variables d’un détecteur de niveau de tension délimitent les emplacements des signaux détectés et extraient les informations de la fréquence ainsi que l’augmentation progressive de l’amplitude. Permettre la syntonisation de détecteur haute fréquence facilite la détection précise de la fréquence des crises d’un patient. L’effet global du bruit et la consommation électrique de l’appareil sont réduits. Cette détection est censée être très fiable dans un dispositif implantable sans risquer de fausses détections des rythmes physiologiques (sommeil de broche).  L’algorithme propose la saisie de détection et est applicable à tous les patients qui ont subi des crises fréquentes caractérisées par une augmentation progressive de la basse tension en pleine activité sur les enregistrements EEG intracérébraux.

 

RÉSULTATS:

 

Sept patients ont subi une étude intracrânienne pour mieux délimiter la zone épileptogène.  Plusieurs saisies ont été enregistrées et elles étaient toutes originaires de l’hippocampe droit et avec diffusion au néocortex latéral temporal et à l’insula. Les «on sets» saisis ont été marqués par un épileptologue (DKN). Le début des crises a été caractérisé par une activité tonique initiale basse tension alpha dans l’évolution de dopage rythmique. Le signal enregistré lors d’une saisie a été introduit dans le CLNS pour tester la performance. Le CLNS utilise les propriétés de l’iEEG mesuré pour déclencher une suppression de la crise bi phasique par stimulation électrique dès l’apparition de la crise. La performance de la CLNS testée chez un patient souffrant d’épilepsie réfractaire a montré une détection précoce de la saisie à la stimulation sensible ultérieure. Une telle stimulation du foyer épileptogène permet d’espérer perturber la progression, la saisie et la propagation dans les régions adjacentes. Des stimulations préliminaires indiquent que la performance de ces dispositifs est satisfaisante. La validation expérimentale est réalisée.

 

SHARAFI, Azadeh

DIPLÔME: Ph.D.

 

 

TITRE:

 

Conception et mise en œuvre d'un micro-capteur non attaché pour la détection précoce de tumeur du sein.

 

 

RÉSUMÉ:

 

Selon l'Agence internationale de recherche sur le cancer (CIRC), avec 1.38 millions de nouveaux cas de cancer et 485 décès en 2008, le cancer du sein est le cancer le plus fréquent chez les femmes.  Alors, il est nécessaire de développer de nouveaux outils pour diagnostiquer et traiter ce genre de cancer.  En outre, un risque de récurrence du cancer se pose après le traitement.  Dans un tel cas, il est indispensable de détecter la tumeur le plus rapidement possible. Le moyen le plus efficace pour détecter les cellules tumorales est l’imagerie par résonance magnétique (IRM). Cependant, cette technique n'est pas en mesure de détecter de petites tumeurs en développement (<5 mm). Par conséquent, il est nécessaire de trouver de nouvelles méthodes pour détecter les tumeurs de moins de 5 mm. Des études montrent que, lorsque la tumeur commence à grandir, certains paramètres micro-environnementaux, tel que le niveau de pH, changent. Il est possible de détecter la tumeur à son stade précoce par la mesure de ces paramètres en les comparants aux valeurs moyennes à l’aide d’un micro-capteur.  Les contraintes sur la taille, l'alimentation et le système de communication entre le micro-capteur et le monde extérieur sont les questions les plus importantes qui devraient être abordées dans cette solution.

 

 

PROBLÉMATIQUE:

 

Comment détecter la récurrence du cancer lorsque la tumeur est inférieure à 5 mm?

 

 

MÉTHODOLOGIE:

 

Ø  Concevoir un micro-capteur pour détecter une tumeur en développement par mesure de variations de pH.

Ø  Trouver la taille minimale détectable de la tumeur par le micro-capteur.

Ø  Trouver une résolution minimum de détection de pH par le micro-capteur.

Ø  Proposer un nouveau système de communication sans fil entre le micro-capteur et le monde extérieur.

Ø  Proposer un nouveau bloc d'alimentation pour le micro-capteur.

Ø  Validation du micro-capteur à travers des expériences in-vitro.

 

 

RÉSULTATS:

 

Ø  HSOC: en surveillant les variations de pH à l’aide de micro-capteur conçu, il est possible de détecter de nouvelles tumeurs en développement qui ne sont pas détectables par les techniques d’imagerie clinique actuelles;

Ø  Justification de l’originalité: la visualisation des tumeurs de petite taille (<5mm) reste au-delà de la capacité des techniques cliniques actuelles;

Ø  Réfutabilité : l’hypothèse serait réfutée si la taille de la tumeur plus petite détectée par le micro-capteur conçu est plus de 5 mm dans l’une des dimensions spatiales.


 



SIADJINE NJINOWA, Marcel

 

DIPLÔME: Ph.D.

TITRE:

 

Conception d’un transmetteur de faible consommation de puissance et applications dans les réseaux WBAN

 

RÉSUMÉ:

 

Ce travail de recherche porte sur la réduction de la consommation de puissance dans un transmetteur utilisé dans les réseaux sans fil sur la personne humaine (WBAN). Ces réseaux sont essentiellement constitués de capteurs et d’actuateurs disposés sur ou à proximité du corps humain pour mesurer différents paramètres physiologiques en différents endroits du corps humain. Les mesures effectuées sont remontées par voie radio vers une unité déportée laquelle va les traiter, les renvoyer, prendre des décisions, alerter, les enregistrer, etc. Afin d’améliorer les performances de ces réseaux, de grands efforts sont mis à contribution pour les rendre totalement intégrables sur puce. Ceci a pour effet de minimiser leurs tailles et leurs prix. La consommation de puissance dans ces réseaux sans fil doit aussi être minimisée dans l’optique d’améliorer la durée de vie des batteries qui assurent leur alimentation. Dans un premier temps, nous nous intéresserons à la consommation de puissance du générateur d’horloge dans ces réseaux. Nous proposerons des architectures d’oscillateur consommant moins de puissance et des techniques de réduction de la puissance et de gigue. Le choix de la focalisation de notre attention sur la réduction de l’énergie de l’oscillateur est justifié par le fait que 50% de l’énergie totale du synthétiseur d’horloge est consommée par l’oscillateur. Dans un second temps, notre attention sera portée sur la réduction de la consommation totale de puissance du transmetteur. Selon l’architecture, la consommation de puissance de l’amplificateur de puissance dans ces réseaux varie entre 40 et 60%.

 

PROBLÉMATIQUE:

 

Les principales caractéristiques des WBAN sont leurs fiabilités, tailles et faibles consommations de puissance étant donné que leur source d’énergie est généralement limitée. Comme le bloc de génération d’horloge joue un rôle capital dans ces réseaux, il est nécessaire d’optimiser sa consommation de puissance et de son bruit de phase, ce que nous visons dans ce projet de recherche. Par ailleurs, nous nous intéresserons aussi à la réduction de la consommation de puissance du transmetteur en entier. En d’autres termes comment concevoir un système fiable, totalement intégrable et consommant le mois de puissance possible?

 

MÉTHODOLOGIE:

 

Dans un premier temps, nous proposerons de nouvelles cellules à délai consommant moins de puissance et qui serviront à la conception de l’oscillateur faible puissance. La conception et la simulation de cet oscillateur faible puissance se fait par le biais de l’outil Cadence. Nous proposerons une technique de réduction de la gigue de phase

 

Dans un second temps, nous nous intéresserons à l’augmentation de l’efficacité de notre transmetteur. Cette efficacité est définie comme le rapport de la puissance transmise et de la consommation totale de puissance du transmetteur. Étant donné qu’environ 60% de puissance est dissipée par l’amplificateur de puissance. Nous proposerons de nouvelles architectures de transmetteur qui tiendront compte de cette réalité.

 

RÉSULTATS:

 

À ce stade de nos travaux de recherche, nous avons déjà conçu un convertisseur de donnée DAC utilisant seulement des cellules normalisées. La technique de réduction de gigue utilise ce DAC et une application de cette technique dans un générateur d’horloge, le FRPS, montre bien que la gigue initiale sur le FRPS a été réduite de moitié. Ces deux contributions ont fait l’objet de deux articles de conférence. Nous proposons aussi une nouvelle cellule à délai à faible consommation et son application dans un oscillateur. Ce qui fait présentement l’objet d’un article soumis. D’autres résultats sont également attendus, à savoir un transmetteur simple et efficace.


 

 


STIMPFLING, Thibaut

DIPLÔME: M.Sc.A.

 

 

TITRE:

 

Optimisation d'un algorithme de classification de paquets dans le contexte d'OpenFlow en vue d'une implémentation matérielle.

 

 

RÉSUMÉ:

 

Les opérateurs de télécommunication (internet, téléphonie) font face à une explosion de l’utilisation en bande passante par leurs clients. En effet, les utilisateurs ont changé leurs habitudes de consommation pour un usage nomade. Désormais, les consommateurs veulent pouvoir accéder à Internet, à partir d’un Smartphone, ordinateur, tablette ou télévision.  La quantité de données échangées n’a cessé ainsi d’augmenter, poussant les fournisseurs d’accès à mettre en place des stratégies d’optimisation de l’utilisation des ressources de leur réseau. En effet, le déploiement d’une nouvelle architecture (fibre optique) entraine des couts très élevés. Ainsi, les opérateurs cherchent à identifier et traiter de manière optimale chaque type de trafic passant sur leurs liens. À cet égard, la classification de paquets (c’est-à-dire l’identification du trafic) doit se faire à une granularité très fine. Faisant face à un nouveau contexte, les algorithmes de classification de paquets doivent donc être repensés et optimisés.

 

 

PROBLÉMATIQUE:

 

Le problème considéré porte sur l’isolation entre chacun des opérateurs partageant l’équipement physique. Il s’agit en effet de garantir à chacun d’eux des ressources dédiées d’une part, mais aussi la capacité à utiliser des ressources sous-utilisées par certains autres opérateurs. On comprend ainsi que ce partage des ressources s’effectue de manière dynamique.

 

 

MÉTHODOLOGIE:

 

La méthodologie suivante sera suivie :

 

Ø  Adaptation de l'algorithme EffiCuts au contexte d’OpenFlow

 

Ø  Identification des causes de la sous-performance de l’algorithme

 

Ø  Proposition de plusieurs optimisations algorithmiques préliminaires

 

Ø  Conception d’un nouvel algorithme

 

Ø  Proposition d’une architecture matérielle

 

 

RÉSULTATS:

 

Suite à la phase de test, plusieurs optimisations ont été intégrées et permettent dans un premier temps de diminuer la taille de la structure de donnée générée par l'algorithme de 35% tout en réduisant le nombre moyen d'accès mémoire par 2. Par ailleurs, les modifications apportées ont été réalisées dans le but de réaliser une implémentation matérielle de l’algorithme. La deuxième phase consistait à désigner un algorithme optimisé pour le contexte d’OpenFlow et permet de diminuer le nombre d’accès mémoire par un facteur 3 en moyenne.


 

TABOUBI, Mohamed                                                                                                              DIPLÔME: M.Sc.A.

TITRE:

Localisation des terminaux mobiles dans les environnements intérieurs en utilisant la technologie Wi-Fi.

 

RÉSUMÉ:

En 2013, notre travail est divisé en quatre grands volets. Le premier volet concerne l’amélioration des résultats de la méthode de «Fingerprinting» aboutie en 2012. Le deuxième volet concerne l’établissement théorique des équations qi simulent les données du réseau afin de prévoir la valeur théorique de la puissance du signal Wifi reçu de chaque point d’accès du bâtiment. Le troisième volet concerne l’étude théorique de la méthode de multi altération. Finalement, le quatrième volet consiste à la simulation des résultats.

PROBLÉMATIQUE:

Trois problématiques sont notées:

Ø  Les résultats obtenus auparavant prennent en considération tous les points d’accès même si ces derniers sont défectueux ou affectés par l’environnement. Il serait logique de ne pas considérer ces points d’accès dans nos calculs.

Ø  La méthode de Fingerprinting demande un grand travail de collecte de données. Il sera logique de réduire ce travail en arrivant à simuler les données ou d’utiliser une autre méthode de localisation dans quelques endroits de l’édifice.

Ø  La complexité de l’environnement a rendu difficile l’estimation des paramètres du modèle de propagation.

 

MÉTHODOLOGIE:

Ø  On a amélioré l’algorithme de calcul de signatures et d’estimation de position. L’amélioration consiste à exploiter la différence de puissances et à ne pas utiliser les données reçues par les points d’accès affectés par l’environnement.

Ø  Pour simuler les données reçues par le réseau, on a utilisé un modèle de propagation. Les paramètres de ce modèle ont été calculés en utilisant les valeurs empiriques déjà collectées.

Ø  La localisation par multilateration introduite consiste à localiser les terminaux mobiles en calculant les distances à partir des différences de puissances reçues. Ceci est possible seulement dans le cas où on a au moins un point d’accès central pour lequel on connaît bien sa puissance partout dans l’étage.

Ø  Nos résultats ont été simulés sous forme de statistiques et de cartes d’erreur. Ceci nous permet non seulement d’évaluer notre travail, mais aussi de trancher sur nos choix d’algorithmes et de fonctions d’erreur. Ces résultats sont aussi utilisés pour réajuster les valeurs des atténuations choisies pour avoir le positionnement le plus précis possible.

 

RÉSULTATS:

Les résultats obtenus avec les nouvelles méthodes et manières de faire montrent que :

Ø La simulation des données était validée pour quelques endroits de l’étage seulement ce qui va nécessairement alléger le grand travail qui doit être fait lors des collectes des données.

Ø L’ensemble des points d’accès utilisés peut regrouper seulement ceux de l’étage actuel, d’un étage en dessous et un étage en dessus sans avoir besoin d’utiliser tous les points d’accès du bâtiment.

Ø La non considération de quelques points d’accès qui causent des interférences améliore la précision de localisation de 3%.

Ø Notre méthode de calcul d’erreur améliore les résultats de localisation de 4% en la comparant à une méthode classique.

Ø l’erreur de précision de localisation par «Fingerprinting» est de moins de 2 mètres pour 57% des cas (contre 37% pour l’année 2012) et atteint 72% pour une localisation dans les corridors (contre 55% pour l’année 2012).

Ø Quelques endroits dans les corridors (généralement les milieux et les coins) peuvent être exclus de la collecte de données puisque les valeurs dans ces endroits peuvent être trouvées théoriquement par nos équations établies. Le travail de collecte de données fait au préalable peut être réduit donc de 40%.

Ø La méthode de multilateration est valable dans quelques endroits seulement dans les espaces ouverts. Les statistiques de cette méthode ne sont pas encore quantifiées à l’heure actuelle.


 






TREMBLAY, José Philippe

DIPLÔME: Ph.D.

 

TITRE:

 

Développement et validation d’une nouvelle architecture de réseau de transducteurs dans le domaine avionique.

 

RÉSUMÉ:

 

Dans le cadre de ce projet, une nouvelle topologie d’un système de communications basée sur le protocole avionique AFDX/ARINC664 est proposée. Des ensembles de capteurs et d’actuateurs, géométriquement rapprochés, seront reliés entre eux par un bus secondaire régi par la norme ARINC825. La garantie de l’intégrité des données transmises, l’interopérabilité avec tous types de transducteurs ainsi que le respect des différentes contraintes du domaine avionique constituent les aspects prioritaires pris en compte lors du développement du réseau.

 

PROBLÉMATIQUE:

 

Dans l’industrie aéronautique, de nombreux systèmes de capteurs et d’actuateurs sont requis afin d’assurer un nombre grandissant de fonctions à bord d’un avion. Avec la technologie actuelle, la connexion de ces instruments demanderait un réseau encombrant de fils. Les différentes normes de sécurité des systèmes avioniques viennent encore plus compliquer les choses en demandant l’installation redondante de tous les composants à bord. De plus, la communication entre différents modules appartenant à divers domaines d’applications est maintenant requise dans les nouvelles plateformes avioniques, ce qui entraine une augmentation marquée de la demande en bande passante à l’intérieur d’un aéronef tout en devant s’assurer de maintenir l’intégrité des données critiques lors de leur transmission.

 

MÉTHODOLOGIE:

 

La première étape a été de proposer une architecture pour le réseau secondaire basée sur la norme ARINC 825 reliant les transducteurs au réseau principal. Cette architecture est conçue pour être le plus générique possible afin de desservir une quantité variable de transducteurs de toutes sortes. Pour ce faire, l’architecture proposée s’inspire du standard IEEE 1451, qui suggère un modèle de référence standard permettant l’accès et le contrôle de transducteurs, d’une manière le plus générique possible, à travers des interfaces communes vers tous systèmes de contrôle ou d’instrumentation. La topologie proposée peut ultimement être implémentée avec une liberté totale quant au choix du protocole de transmission et des couches physiques du réseau, pouvant même jusqu’à supporter une éventuelle implémentation sans fils. Afin de pouvoir valider l’architecture proposée ainsi que les contraintes imposées par le domaine avionique, nous avons également développé une plateforme matérielle. Cette plateforme, basée sur deux FPGA Spartan 6 LX45T de Xilinx, est configuré pour maintenir une bande passante de 1 Mbit/s et de garantir un flot complètement déterministe d’information. Cette plateforme nous permet de facilement connecter plusieurs types de transducteurs à un «End System» AFDX à travers un réseau secondaire basé sur le protocole ARINC 825. Notre implémentation dédiée nous a également permis d’y inclure des mécanismes de gestion de la redondance, de mesure de la latence et d’un système de gestion des erreurs plus robuste.

 

RÉSULTATS:

 

À l’aide de cette nouvelle architecture, il est maintenant possible d’ ajuster la fiabilité du réseau en fonction du niveau de criticité requis par l’application visée. Lors de la première implémentation de notre architecture à l’aide de notre prototype, nous avons été en mesure de réduire la consommation de ressources de 87% comparée aux designs traditionnels pour un réseau de 24 capteurs.


 

TRIGUI Aref                                                                                                       DIPLÔME: M.Sc.A.

 

TITRE:

 

Asservissement de l'énergie inductive transmise aux implants électroniques.

 

RÉSUMÉ:

 

L’alimentation des implants médicaux électroniques (IME) par couplage inductif a toujours été appréciée pour sa biocompatibilité et sa capacité à transmettre une quantité d’énergie suffisante aux IME. Cependant, la performance du lien inductif se dégrade en fonction de la variation de la fréquence de résonance primaire suite aux changements du facteur de couplage entre les bobines et de la charge secondaire. Dans ce contexte, nous présentons une nouvelle technique pour maintenir l’état de résonance dans le transmetteur en dépit de ces variations. Un transmetteur d’énergie inductive asservi est alors proposé. Il est composé d’un système de transfert d’énergie (STE) classique et d’une boucle d’asservissement. Le STE classique émet un champ inductif grâce à un oscillateur à quartz de 13.56 MHz, un amplificateur de puissance de classe E et un circuit résonant primaire constitué d’un condensateur et d’une bobine d’émission. La boucle d’asservissement, quant à elle, comporte principalement un bloc de détection de la tension aux bornes de la bobine d’émission (image de la puissance à transférer vers l’IME) et un micro moteur pas-à-pas à haute résolution qui agit sur le condensateur de résonance primaire et indirectement sur la fréquence de résonance. Le transmetteur proposé a montré des améliorations remarquables par rapport à un STE classique. Il permet également d’alimenter divers implants sans l’intervention du concepteur.

 

PROBLÉMATIQUE:

 

Bien que l’alimentation des IME par couplage inductif fût introduite il y a longtemps, plusieurs défis restent à relever. Le défi majeur est la sensibilité de l’efficacité du transfert d’énergie à la variation de certains paramètres du lien comme le facteur de couplage entre les bobines, la charge du côté récepteur et l’inductance des bobines. Une variation de l’un de ces paramètres est en mesure d’altérer la fréquence de résonance primaire et de réduire en conséquence la quantité d’énergie transférée vers l’IME.

 

MÉTHODOLOGIE:

 

Dans un premier temps, nous passerons en revue les différentes techniques d’alimentation des IME, leurs avantages ainsi que leurs limitations, puis nous présenterons brièvement les IME déjà commercialisés qui emploient le couplage magnétique. Ensuite, les aspects fondamentaux du système d’alimentation par couplage magnétique seront présentés. Ce couplage va être aussi modélisé afin d’étudier la problématique de la sensibilité des performances à la variation des paramètres du lien. Également, une étude qualitative des principaux éléments constituants un STE sera présentée tout en accordant une grande importance à l’AP de classe E, ses performances et ses limitations. Puis, une revue de la littérature sur les techniques de compensation de la variation des paramètres du lien inductif sera entreprise. Ensuite, une description détaillée du transmetteur asservi proposé sera faite. Chaque module fera l’objet d’une étude minutieuse pour aboutir à un système de transfert d’énergie de qualité. Finalement, le système proposé sera testé et les résultats seront analysés et validés.

 

RÉSULTATS:

 

Les résultats obtenus montrent une transmission à une fréquence précise de 13.56 MHz. Le système d’asservissement réalisé est fonctionnel et sa performance est nettement meilleure que celle d’un système de transfert d’énergie (STE) classique. Il atteint en effet un taux d’amélioration moyen de puissance reçue d’environ 60% par rapport à un STE classique (pour une vitesse de rotation du moteur de 0.25 tr/s) et une résolution de variation de capacité de 0.032pF. Le système peut également alimenter différents implants sans l'intervention du concepteur. Le concept donne par ailleurs la possibilité d’utiliser une variété de bobines d’émission dans la gamme d’inductance de  à. Il présente ainsi une solution efficace pour alimenter différents IME de l’équipe Polystim de Polytechnique.





VAKILI, Shervin

DIPLÔME: Ph.D.

 

TITRE:

 

Optimisation de la largeur d'unités fonctionnelles et de chemins des données de processeurs configurables pour le traitement vidéo

 

RÉSUMÉ:

 

Ce projet propose deux nouvelles techniques d'optimisation pour le processus de conception de processeurs spécialisés (ASIP) et évalue leur efficacité.

 

PROBLÉMATIQUE:

 

Ø  La spécialisation du processeur (ou la conception ASIP) est une approche de conception du matériel, qui vise à combler le fossé entre des processeurs programmables et la conception ASIC. L'idée de base de cette méthode est de spécialiser les éléments architecturaux d'un processeur de base reposant sur l'application cible en vue d'améliorer les facteurs d'efficacité.

Ø  L'objectif de ce projet est d'introduire deux problèmes d’optimisation nouveaux, qui peuvent être utilisés dans le processus de conception ASIP. Ces optimisations sont directement liées au calcul en virgule fixe.

Ø  Dans les systèmes embarqués temps réel, le calcul en virgule fixe est normalement utilisé pour implémenter des applications de DSP et traitement vidéo.

Ø  Les éléments suivants représentent de brèves descriptions de ces optimisations.

Ø  L'optimisation de la longueur des mots des variables dans l'application cible visant à améliorer la longueur du chemin de données (y compris les unités fonctionnelles, registres, etc) dans l'ASIP.

Ø  La sélection des techniques et des architectures appropriées pour implémenter les unités fonctionnelles. La complexité de ce problème dépend du nombre de techniques disponibles pour chaque fonction, la longueur des opérandes, etc.

 

MÉTHODOLOGIE:

 

Ø  La recherche proposée est prévue pour être réalisée en quatre phases principales basées sur les objectifs. Pendant la première phase, nous allons développer un processeur personnalisé (ASIP), qui offre une capacité suffisante pour mettre en œuvre et évaluer les activités proposées dans les étapes ultérieures de ce projet.

Ø  Dans la deuxième phase, nous allons développer une méthodologie pour modéliser l'erreur de quantification et pour optimiser la largeur des mots de la réalisation matérielle en virgule fixe.

Ø  Dans la troisième phase, nous allons développer une méthodologie de sélection automatique de largeurs des mots pouvant être intégrée dans le processus de conception ASIP. Cette méthodologie est basée sur l'exploration de l'espace de conception et vise à optimiser le compromis coût-précision.

Ø  La quatrième phase introduira une méthodologie pour optimiser l'architecture et la mise en œuvre des unités fonctionnelles utilisées dans l'ASIP. Cette méthodologie est également intégrée dans le processus de développement de processeurs personnalisés.

 

RÉSULTATS:

 

Nous avons présenté un environnement de conception ASIP, appelé PolyCuSP, qui offre une façon rapide et flexible pour la conception des processeurs personnalisés. Cette approche comble le fossé entre les deux méthodes bien connues: langages de description de l'architecture (ADLs) et processeurs extensibles.

 

Dans un autre travail, nous avons proposé une nouvelle méthode pour optimiser la largeur des mots de réalisation matérielle en virgule fixe. Nous avons proposé une méthode analytique pour simplifier le processus d'optimisation et deux nouveaux algorithmes pour la sélection de la largeur des mots.

 

Dans la dernière étape, nous utilisons l'idée de l'optimisation de longueur de mot dans la conception ASIP pour optimiser la longueur du processeur en fonction des besoins de l'application cible.


 

 

WANG, YIQIU                                                                                                                                    DIPLÔME: M.Sc.A.

 

TITRE:

 

Conception d’un système à trois bands pour la récupération de l’énergie à fréquence radio.

 

RÉSUMÉ:

 

Les dispositifs autonomes sont de plus en plus importants pour un large éventail d'applications. Les dispositifs autonomes ne nécessitent aucune source d'alimentation interne puisque la puissance nécessaire à partir de l'énergie ambiante robuste. De nombreux types d’énergie sont disponibles pour les appareils autonomes: vibration mécanique, thermoélectriques, matériaux thermo-ioniques, et la propagation d'ondes RF. Une des méthodes de récolte d'énergie la plus populaire est la récupération d'énergie RF, quand on utilise l'identification par radiofréquence (RFID).  Pour employer l’énergie RF ambiante, les systèmes les plus intéressants à explorer sont GSM850, GSM1900 en Amérique du Nord (GSM 900 et GSM 1800 en Europe et en Asie) et WiFi (2,4 GHz). Ces systèmes sont omniprésents dans l'environnement urbain et utilisent des fréquences qui permettent antennes de résonance des tailles de l'ordre de 10-50 cm2.

 

PROBLÉMATIQUE :

 

Étant donné que la puissance RF ambiante est inférieure à celle peuvent être fournis par une source RF désigné, le niveau de puissance capté par l’antenne est très faible. En plus, il existe une perte sur le réseau d’adaptation, donc la puissance disponible au bloc redresseur est trop faible pour faire fonctionner des redresseurs classiques. Par conséquent, beaucoup de topologies de redresseurs dédiés à faible puissance d'entrée sont proposées. La plupart d’entre eux sont motivés par les applications RFID, et seuls quelques-uns d’entre eux sont conçus directement pour la récolte d’énergie RF.

 

MÉTHODOLOGIE:

 

Tout d'abord, la faisabilité de la récupération d'énergie GSM RF sera étudiée. Dans ces recherches, les densités de puissance de signaux RF des stations de base GSM et WiFi sources sont étudiées.

Ensuite, des redresseurs avec différentes topologies seront mis en œuvre et comparés à partir des résultats de simulation en utilisant le logiciel Cadence. Comme la densité de puissance de l’énergie RF de la station de base GSM et WiFi est extrêmement faible dans l'air ambiant, la topologie du redresseur doit être adaptée à faible tension d'entrée.

 

Toutefois, la charge de seuil est inférieure au courant de fuite relativement grande. Par conséquent, la performance de redresseurs utilisant des transistors à seuil bas sera explorée.

 

RÉSULTATS:

 

Quatre topologies de redresseurs classiques sont conçues et simulées à l'aide de Cadence. Les résultats des simulations montrent que le redresseur à couplage croisé a le meilleur rendement à faible tension d'entrée. Ainsi, cette topologie est choisie pour le projet.

 

On obtient les résultats de la simulation de deux redresseurs de la scène à l'aide de transistors standard et à bas seuil respectivement. Les deux redresseurs ont la même taille de transistor et la valeur du condensateur. La seule chose différente est le type de transistor. La fréquence du signal d’entrée en courant alternatif est de 2.4 GHz. Nous obtenons la conclusion des comparaisons d’efficacité que le redresseur de base à transistor à seuil bas donne une meilleure efficacité à faible niveau d’intrants.


 

 

WATSON, Meghan                                                                                                                            DIPLÔME: Ph.D.

 

TITRE:

 

Optimisation des paramètres de micro stimulation intracorticale pour implants visuels

 

RÉSUMÉ:

 

Cette recherche prend place au sein du projet prothétique visuel intracortical qui vise à convertir une image numérique en un signal de stimulation électrique qui, lorsqu’il est transmis au tissu cortical, peut produire l’activité neuronale nécessaire pour générer une représentation de l’image par phosphènes. Le défi consiste à déterminer la corrélation entre la stimulation électrique (microstimulation) et l’activité neuronale. Ce projet explore systématiquement les influences que chaque paramètre du signal de microstimulation a sur  l’activation de neurones, et il identifie les relations qui existent entre les paramètres du signal de microstimulation. Avec cette connaissance, nous pouvons alors déterminer les paramètres optimaux de signal de stimulation qui minimisent les dommages de tissu, les interactions entre les électrodes et la perturbation de circuit cortical, tout en veillant à la compréhension et l’encodage naturel des informations de signal.

 

PROBLÉMATIQUE:

 

L’activation neuronale produite par microstimulation électrique est très différente de celle produite par un stimulus naturel (par exemple: auditif, tactile, visuel). Les effets de microstimulation tendent à se propager beaucoup plus loin et ils durent beaucoup plus longtemps. Ces différences doivent être soigneusement examinées afin de concevoir un protocole de stimulation pour produire des configurations spécifiques de l'activation de neurones.

 

MÉTHODOLOGIE:

 

Ce projet examine les effets des paramètres de microstimulation sur tissu cortical, comme en témoignent le comportement et la transmission du signal ainsi que l'excitabilité neuronale, en utilisant des expériences de neurophysiologie animale selon les étapes suivantes:

 

Ø  Une étude théorique des dernières expériences de microstimulation corticales va évaluer les variations des paramètres et leur efficacité pour définir la gamme fonctionnelle.

Ø  Une méthode de stimulation sera développée pour tester systématiquement les effets des paramètres de signal sur l'activation neuronale

Ø  Expérience 1: explore les effets de paramètres de stimulation sur le comportement chez des rats anesthésiés

Ø  Expérience 2: examine les effets des paramètres de stimulation sur la transmission du signal à travers le tissu cortical (effets spatiaux et temporels).

Ø  Expérience 3: compare l'excitabilité neuronale provoquée par micro stimulation à celle d’un stimulus naturel.

Ø  Les ensembles de données obtenues à partir des expériences seront unifiés avec le développement d’une simulation pour modéliser les réponses corticales à la micro stimulation et optimiser le signal.

 

RÉSULTATS:

 

L’étude théorique a été complétée et la méthodologie de stimulation développée. J'ai complété ma formation à effectuer des expériences neurophysiologies animales et à maîtriser l'équipement nécessaire pour mener des expériences. Le test et l’installation du nouvel équipement ont été complétés. Actuellement, les trois expériences sont en phase de développement méthodologique, où le test initial est en cours pour valider le paradigme expérimental avant le début de la collecte de données officielles.


 

ZGAREN, Mohamed                                                                                                                         DIPLPÔME: Ph.D.

                                    

 

TITRE:

 

Récepteur sans fil à ultra basse puissance en bande ISM 915 MHz dédié à des dispositifs médicaux.

 

 

RÉSUMÉ:

 

Notre objectif de recherche consiste en la mise en œuvre d’un système de réception sans fil haute performance et à faible puissance. Nous voulons examiner deux architectures principales. La première, destinée à être intégrée dans des implants qui ne nécessitent pas un débit de transmission élevé, serait à très bas niveau de consommation d’énergie. La seconde serait conçue pour des applications exigeant un débit de transmission élevé à savoir quelques mégabits par seconde. Avec le développement des piles d’alimentation miniaturisées à haute efficacité, le défi est donc d’atteindre une durée de vie la plus longue possible.

 

 

PROBLÉMATIQUE:

 

La supervision biomédicale touche un espace considérable dans le domaine de l’instrumentation biomédicale qui comprend la partie communication des données physiologique et biologique à partir d’un point de mesure vers une unité externe de supervision et de traitement des données et vice-versa. L’avantage est de faire continuellement l’échange des données sans déranger les patients et sans endommager les résultats de mesure. Les méthodes de collecte des données classiques telles que le lien filaire ne sont plus recommandées à cause des risques d’infection. D’autre part, plusieurs méthodes de transmission sans fil ont été développées afin d’assurer la communication montante ou descendante de l’implant vers l’unité de contrôle externe telles que les ultrasons, l’électromagnétique, l’infrarouge et les radiofréquences (RF). D’une façon générale, les dispositifs implantables se basent sur les communications sans fil et comprennent deux modules principaux. Le premier est une station de contrôle placé à l’extérieur du patient et qui a pour rôle de traiter les informations reçues ou bien à envoyer vers l’implant. Le deuxième élément est un microsystème implantable qui permet de prendre des mesures biologiques et de transmettre celles-ci vers la station de contrôle où elles seront par la suite traitées et sauvegardées. Les ultrasons ou l’infrarouge sont considérés insatisfaisants.

 

 

MÉTHODOLOGIE:

 

Pour accomplir l’objectif proposé, nous planifions les étapes suivantes:

 

Ø  Une révision détaillée de la littérature sera effectuée;

Ø  Le design sera fait pour un procédé CMOS dans l’environnement de Cadence. Pour ce faire, il faudra une maîtrise adéquate de l’environnement de Cadence pour la conception de circuits mixtes;

Ø  La vérification oost-lay-out sera comparé avec la simulation du circuit;

Ø  La puce fabriquée sera testée.

 

 

RÉSULTATS:

 

Toutes les simulations ont être réalisées à l’aide du logiciel Cadence Design System en technologie TSMC 90 nm. Nous avons envoyé le système proposé pour la fabrication et nous l’attendons sous peu pour vérification finale.


 

ZHANG, Kai

DIPLÔME: Ph.D.

 

TITRE:

 

Spectromètre en technologie CMOS basé sur le phénomène d’absorption du rayonnement électromagnétique.

 

 

RÉSUMÉ:

 

Les éléments de dispersion sont irremplaçables dans les spectromètres modernes. Dans ce projet, nous proposons une nouvelle méthode pour la détection du spectre basée sur l’absorption des longueurs d’onde dans du silicium fabriqué en technologie CMOS sans utilisation d’éléments de dispersion.

 

La technologie CMOS est une technologie très mature de sorte que le détecteur et les composants de traitement de signal peuvent être implémentés sur la même puce. Ce principe de détection est différent de celui des spectroscopes traditionnels. La profondeur de pénétration de la lumière incidente dépend de la longueur d’onde pour un matériau semi-conducteur spécifique de sorte qu’on peut avoir l’information spectrale en mesurant les paires électron-trou générées par les photons en fonction de la profondeur.

 

PROBLÉMATIQUE:

 

Les photons avec différentes longueurs d’onde pénètrent à différentes profondeurs et génèrent des pairs électrons-trou dans le silicium. Nous détectons le profil des charges en excès dans le but de dresser l’information spectrale. Pour y arriver, la génération et la recombinaison des charges et le transport des charges doivent être étudiés. Le transport des charges en excès dépend de la concentration des dopants, de la distribution des champs électrique et magnétique, du taux de génération et de recombinaison, des courants de dérive et de diffusion, des recombinaisons en surface qui réduisent le nombre de charges générées prés de la surface, de la durée de vie des charges, de la température et de la géométrie du dispositif. Étudier ces facteurs et optimiser le design nous aideront à dresser le profil des longueurs d’ondes incidentes. En outre, pour une fabrication en technologie CMOS, la taille et la forme du détecteur doivent se conformer aux règles de conception.

 

MÉTHODOLOGIE:

 

Nous commençons notre recherche par le calcul de la génération et la recombinaison des charges en excès dans le substrat de silicium dopé légèrement et dans la région de déplétion respectivement. Par la suite, nous calculons les courants de dérive et de diffusion dans des conditions idéales avec des champs électriques et magnétiques uniformes. Certains résultats expérimentaux valident l’idée de détection. Par la suite, nous considérons plus de facteurs comme le taux de génération-recombinaison, la recombinaison en surface, le transport dans la région de déplétion et le champ électrique non uniforme, pour décrire le transport des charges en excès dans tout le dispositif et les effets de chaque facteur. En même temps, dans le but de soutenir et modifier le calcul théorique, nous simulons le modèle du dispositif à l’aide de COMSOL, un logiciel de calcul par éléments finit et nous fabriquons des prototypes pour faire des expériences.

 

RÉSULTATS:

 

L'équation de continuité sert à décrire le transport des porteurs générés en excès dans le substrat de silicium. Des expériences préliminaires sur des prototypes ont validé l’idée de détection. Elles ont prouvé la possibilité de faire un spectromètre avec le principe de l’absorption de longueur d’onde générée par la détection des porteurs en excès en fonction de la profondeur. Les résultats MATLAB ont montré une certaine différence par rapport aux expériences. L’analyse théorique a encore des difficultés à expliquer tous les détails des données expérimentales exactement. De nombreux efforts sont réalisés pour améliorer le processus théorique. Des simulations COMSOL sont également utilisées pour chercher les raisons de la différence et plus de modèles sont en cours de simulation. Un nouveau circuit PCB a été fabriqué et des expériences sont en cours.

 


 

 

 





ZHENG, Yushan

DIPLÔME: Ph.D.

 

 

TITRE:

 

Un microsystème pour l’immunologique magnétique de détection de toxines protéiques.

 

 

RÉSUMÉ:

 

Ce travail se concentre sur le circuit et le système mise en œuvre d'un test immunologique basé sur une plate forme de microsystème magnétique pour être utilisé comme borne de capteur pour la détection de protéines toxines dans l’environnement.

 

 

PROBLÉMATIQUE:

 

Récemment, des efforts considérables ont été axés sur l’alimentation et les questions de sécurité de l’eau causées par des toxines qui sont produites par des bactéries, telles que Staphylococcus aureus et Escherichia coli. En raison de la multiplication rapide des bactéries, il est toujours important de développer des méthodes de détection rapide et précoce des contaminants des aliments et de l'eau. Comme une technologie habilitante, le microsystème pour des applications environnementales attire de plus en plus d'intérêts. Les trois principaux défis la conception d'un capteur de haute performance, de l’emballage technique et du circuit intégré.

 

 

MÉTHODOLOGIE:

 

Une micro-bobine fabriquée à la fois sur substrat de silicium et substrat de polymère est exploitée en tant que capteur de particules magnétiques, tandis que des microcanaux et une microplaque ultra mince pour ELISA classique a été utilisée pour les réactifs.

 

 

RÉSULTATS:

 

Les résultats de simulation de deux circuits de détection prouvent que notre système est capable de détecter des particules magnétiques dans des volumes différents, ainsi le microsystème proposé a le potentiel pour la médecine diagnostic, la détection de pathogènes alimentaires et l’analyse de l’eau.


SUBVENTIONS ET CONTRATS

 

Les projets de recherche mentionnés dans ce rapport sont, pour la plupart, financés par les subventions individuelles ou de groupe des chercheurs (montants annuels.)

 

Subventions, contrats et conventions de recherche individuels

 

Chercheur

Organisme, Programme

Montant annuel

Période de

validité

Titre

Bois, G.

CRSNG

125,000.00 $

2009 – 2014

«Design and Verification of Embedded Systems in the Context of the ESL Paradigm»

David, J.P.

MDEIE

150,000.00 $

2012 – 2014

«Déduction de contenu numérique connu èa 40/100 Gbits Application à la détection de flux vidéos»

David, J.P

CRSNG

15,000.00 $

2012-2017

«Implantation efficiente d'applications adaptées à la technologie FPGA sans expertise spécialisée en conception de circuits»

David, J.P.,

MDEIE

300,000.00 $

2012 - 2014

«Détection de contenu  numérique connu a 40/100 Gbits Application a la détection de flux vidéos»

David, J.P.,

FCI

460,000.00 $

2011-2013

«Fonds des leaders»

Kashyap, R.,

Gouvernement du Canada

1,400,000.00 $

2010-2017

Chaire de Recherche du Canada

Kashyap, R.

NSERC PGS for PhD student: J. Lapointe

105,000.00 $

2011-2013

Fs Laser Writing of Waveguides in Crystalline

Media

Kashyap, R.

NSERC

240,000.00 $

2011-2015

SOCRATES:Solid state Optical Cooling in Rare

earth

Kashyap, R.,

Canada Council for the Arts : Killiam Research Fellowship

140,000.00 $

2012-2014

Philosopher

Kashyap, R.,

NSERC ENGAGE

394,000.00 $

2012-2015

QUDOS (QD Cooling)

Langlois, P.

MITACS

57,500.00 $

2013

«Système de classification automatique de la rétinopathie diabétique à partir d’images de fond d’oeil»

Langlois, P.

CRSNG

 

25,000.00 $

2013

«Algorithmes et architectures pour le contrôle embarqué de cameras à EMCCD»

Langlois, P.,

CRSNG

18,000.00 $

2012-2016

Réduire la consommation d’énergie a la source : repenser la nature des processeurs dans les centres de traitement de données

Martel, S.,

Chaire de Recherche Ecole Polytechnique

60,000.00 $

2011 – 2015

Développement et construction de plateformes de ciblage thérapeutique directe

Martel, S.

Natural Sciences and Engineering Research

82,000.00 $

2012-2016

Development of a local drug transport mechanism through the blood brain barrier via magnetic nanoparticles induced hypothermia

Nicolescu, G.

CRSNG

130,000.00 $

2009 – 2014

«Modelling and Validation for automatic Design of On-Chip Heterogeneous Systems»

Savaria, Y.

Chaire de Recherche du Canada

200,000.00 $

2008 – 2014

«Conception des microsystèmes et systèmes microélectroniques»

Savaria, Y.

CRSNG

56,000.00 $

2009 – 2013

«Tools and Design Techniques for High-Performance Low-Power MPSoCs Using Optimized Asip Architectures»

Sawan, M.

CRSNG

576,000.00 $

2010– 2013

«Intercortial Multiunit Implant to Create Vision for Blinds: Integration and Validation»

Sawan, M.,

Bombardier

MITACS

CRD

240,000.00 $

200,000.00 $

480,000.00 $

2010-2013

Data Networks and Smart Sensors for Safety-=Criticals Avionics Applications

Sawan, M.,

Chaire de Recherche du Canada

140,000.00 $

2008– 2014

«Dispositifs médicaux intelligents»

Sawan, M.,

CRSNG

260,000.00

2012-2017

«Smart Brain Interfaces for Diagnostic and Therapeutic Applicatoins: A Multidisciplinary Approach»

 

 


 

Subventions, contrats et conventions de recherche de groupe

 

Chercheurs

Organisme

Programme

Montant annuel

Période de validité

Titre

Bois, G., David, J.P., Langlois, P.,

FQRNT

99,000.00 $

2012-2015

Systèmes MPSoC extensibles: de l’exploration aux applications

Bois, G., Boland, Nicolescu, G., Thibeault, C.

CRIAQ

81,000.00 $

2011-2014

«Architecture Exploration for High-Integrated and Low-Cost Avionic Systems»

Bois, G., Boland, Nicolescu, G., Thibeault, C.,

CAE Electronics

223,300.00 $

2011-2014

«Architecture Exploration for High-Integrated and Low-Cost Avionic Systems»

Bois, G., Boland, Nicolescu, G., Thibeault, C.,

CRSNG

312,900.00 $

2011-2014

«Architecture Exploration for High-Integrated and Low-Cost Avionic Systems»

Bois, G., Boland, Nicolescu, G., Thibeault, C.,

CMC Electronics

75,000.00 $

2011-2014

«Architecture Exploration for High-Integrated and Low-Cost Avionic Systems»

Cheriet, F., Langlois, P.,

CRSNG

125,919.00 $

2012-2014

«Système d’analyse automatique en temps réel des images de la rétine»

David, J.-P., Savaria, Y.,

FCI

263,091.00 $

2011-2013

«Laboratoire VESI (Very Efficient System Implemention)»

Duchesneau, M, François Boyer et 30 autres de 6 univ et 2 cegep

FQRSC

333.333$

2011-2015

«Observatoire interdisciplinaire de création et de recherche en musique (OICRM)»

Kashyap, R., et 7 autres

CRSNG

1,150,000.00 $

2010-2013

«Integrated Sensor Systems»

Kirk, Kashyap, R., et 7 autres

CRSNG

1,150,000.00

2010-2013

«Integrated Sensor Systems»

Martel, S. et 8 autres

CQDM

684,155.00 $

2011-2014

«SN-38 (or5-FU) drug encapsulation in liposomes transported by magnetotactic bacteria for localized colorectal cancer treatment»

McWalter, I., Savaria, Y., et 8 autres

FCI – Équipement

9 600,000.00 $

2009– 2014

«EmSYSCAN : Embedded Systems Canada»

Moss, L., Bois, G.,

CRSNG

200,242. 00 $

2013-2014

«Automated System-Level HW/SW Co-Simulation and Co-Synthesis»

Nicolescu, G., Bois, G.,

STMicroelectronics

12,750.00 $

2011-2014

«3D System-level design for next generation ubiquitous networks»

Nicolescu, G., Bois, G.

CRSNG

76,500.00 $

2011-2014

«3D System-level design for next generation ubiquitous networks»

Savaria, Y. Langlois, P., Bois, G., David, J.-P.,

FQRNT

33,000.00 $

2012-2015

«Méthodes et outils pour faciliter l’exploitation des FPGA avec des tissus de calcul pré-synthétisés configurables et des processeurs hétérogènes.»

Savaria, Y., Bois, G.,

FQRNT

99,000.00 $

2012-2015

«Systèmes MPSoC extensibles: de l exploration aux applications»

Savaria, Y., Langlois, P.,

FQRNT

33,000.00 $

2012-2014

«Méthodes et outils pour faciliter l’exploitation des FPGA avec des tissus de calcul pré-synthétisés configurables et des processeurs hétérogènes»

Sawan, M., Lesage, F., L

Lassonde, M., Tardif, J-C

Nguyen, D., Deschamps, A., Denault, A., Lanthier, S.,

Instituts de recherche en Santé du Canada (IRSC)

1 745,500.00 $

2009– 2014

«A portable wireless near infrared spectroscopy system combined with electroencephalography for bedside monitoring of stroke and cardiac patients»

Sawan, M., Lesage, F., Lassonde, M., Tardif, J-C.

Nguyen, D., Deschamps, A., Denault, A., Lanthier, S.,

Fondation des maladies du cœur du Canada (FMCC)

625,000.00 $

2009– 2014

«A portable wireless near infrared spectroscopy system combined with electroencephalography for bedside monitoring of stroke and cardiac patients»

Sawan, M., Savaria, Y., Bois, G., et 24 autres

FQRNT

ReSMiQ

412,500.00 $

2008– 2014

«Analog, digital and RF circuits and systems design»

Sawan, M., Kashyap, R., et 6 autres

CRSNG/CRIAQ

480,000.00 $

2009-2013

«Sky Sensors»

Sawan, M., Savaria, Y., et 6 autres

CRIAQ-AVIO402, CRIAQ, NSERC-CRD, Mitacs, Bombardier, Thales

440,400.00 $

2010 - 2013

«Data Networks and Smart Sensors for Safety-Critical Avionics Applications»

Thibeault, C., Audet, Y., et 5 autres

CRSNG-MDEIE-CRIAQ-MITACS

328,000.00 $

2011-2013

«Méthodologie de conception, vérification et test des systèmes embarqués tolérants aux radiation»

Zhu, G., Liu, X., Savaria, Y.,

CRIAQ, MDEIE, Bombardier, Thales

185,000.00 $

2012-2013

«Développement d'un r éseau AFDX avec niveau de sûreté renforcé pour la prochaine génération de réseaux de communication d'aéronef»


 ÉQUIPEMENT ÉLECTRONIQUE

 

Le groupe GR2M possède un ensemble diversifié d’équipements électronique provenant de diverses subventions (FCI, NATEQ, NSERC, SCM/CMC) obtenues par les différents professeurs membre du GR2M.

 

ÉQUIPEMENT APPARTENANT AU GROUPE (www.GR2M.polymtl.ca)

 

Nb

Fabriquant

       Modèle

                   Description

 

1

AAEROFLEX

IFR34133

Générateur de signal RF 3GHz

1

Agilent

16034H

test fixture

1

Agilent

16047E

Test Fixtures 40 Hz to 110 MHz

1

Agilent

16048G

Test Leads

1

Agilent

16065A

Ext Voltage Bias Fixture

1

Agilent

16314A

balance /unbalance 4 terminal converter

1

Agilent

33250A

0-80MHz WaveForm Generator

1

Agilent

4294-61001

Impedance Analyser fixture 100W

1

Agilent

4294A

Impedance Analyzer 40Hz-110MHz

2

Agilent

E3631A

Power Supply

1

Agilent