Magister Thesis

Permanent URI for this collection

Browse

Recent Submissions

Now showing 1 - 20 of 22
  • Item
    Proposition d’un Framework basé sur les services Web pour les entreprises virtuelles
    (CHEHILI Hamza, 2010-10) CHEHILI Hamza
    Le développement des frameworks pour la gestion du cycle de vie des entreprises virtuelles doit exploiter des technologies et des paradigmes amenant à l’agilité et la flexibilité attendues en se concentrant sur la communication, la gestion efficace des informations partagées et la coordination des travaux des partenaires. Dans ce contexte, nous proposons un framework supportant la gestion de l’environnement des entreprises virtuelles. Ce framework est basé sur les deux technologies ‘services Web’ et ‘portails d’entreprise’. La technologie des services Web est exploitée pour permettre la publication et l’invocation des services des différentes entreprises. Au moment où, la deuxième technologie fournit une gestion flexible et sécurisée des informations communes et du cycle de vie d’une entreprise virtuelle. Ce mémoire présente l’entreprise virtuelle, notamment ces caractéristiques et ces avantages. Ainsi, il fait un survol sur les caractéristiques des deux technologies sur lesquelles est basé le framework. Dans la suite, l’architecture du framework et la démarche de gestion des EV sont présentés. Enfin, une étude de cas et quelques aspects d’implémentation sont présentés pour valider les idées annoncées.
  • Item
    Intégration de la logique floue dans la gestion des bases de données Application à PostgreSQL
    (Kamel SEMASSEL, 2012-04-21) Kamel SEMASSEL
    Les systèmes de gestion de base de données les plus répandus actuellement sont les systèmes relationnels. Cependant, ils sont incapables de représenter ou de manipuler des données imprécises ou incertaines. Différentes approches d‘intégration des données imparfaites (nulles, imprécises, incertaines…) ont conclu sur l‘utilisation de la logique floue qui constitue un cadre très adapté et unifié pour la représentation de ces types de données. Le modèle GEFRED constitue le modèle le plus général des bases de données floue, mais par rapport à la complexité et à la variété des informations du monde réel, sa représentation reste rigide et limitée. Dans ce mémoire, Nous proposons une extension du modèle GEFRED , afin de lui permettre une représentation multidimensionnelle des concepts floues avec un module d‘adaptabilité floue aux différentes situations de l‘utilisateur, ainsi le système peut attribuer aux concepts flous (comme les étiquettes linguistiques par exemple) plusieurs significations floues répondants aux différents situations trouvés dans le monde réel , ce qui permet d‘obtenir un modèle multidimensionnel de représentation des données imprécises et de préférences des utilisateurs. AFSQL (Adaptive FSQL) est notre extension pour traiter les requêtes floues adaptatives. Nous proposons également une nouvelle méthode d‘implémentation du modèle sous le SGBD open source PostgreSQL.
  • Item
    Une ontologie d’application pour la localisation des compétences intra organisationnelles
    (Keltoum BENLAHARCHE, 2013-02-23) Keltoum BENLAHARCHE
    Le management des compétences et la gestion des connaissances sont aujourd‟hui des enjeux stratégiques majeurs pour toute organisation. Ils ouvrent la voie à des stratégies coopératives fondées sur l‟intelligence collective. Dans le cadre de la réforme des enseignements à l‟ESI et compte tenu des rôles joués par les enseignants, enseignants-chercheurs, post-graduant ainsi que des professionnels (formateurs, évaluateurs, experts…) susceptibles de contribuer aux activités de l‟établissement, savoir qui fait quoi et qui sait quoi ? Ainsi que mettre en place une carte cognitive des compétences intra organisationnelles s‟avère une nécessité pour une administration qui se doit d‟être réactive voire proactive face aux exigences du marché. Cependant, contrôler les connaissances communiquées (la sémantique) par le biais d‟une ontologie d‟application, support au système automatique de localisation des compétences existant (ESI_Clever_Network développé dans le cadre d‟un projet de PFE à l‟ESI) apportera une valeur ajoutée indéniable à l‟efficacité du système. Pour cela, nous proposons une nouvelle architecture au système dont l‟élément crucial est une architecture basée sur une ontologie des compétences. « NeOn Methodology » est la méthodologie de construction d‟ontologie choisie et le scénario adopté est une combinaison de plusieurs stratégies de construction «réutilisation, réingénierie et construction d‟une ontologie à partir de zéro». La structure résultante est dédiée à la modélisation explicite des compétences intra-école. Enfin, nous avons intégré cette ontologie dans le système existant et apporté des modifications au niveau des interfaces et au niveau de la base de données existante pour aboutir à un système amélioré baptisé « ESI_Clever_Network 2.0 »
  • Item
    Segmentation cognitive d’image IRM par un système multi-agents
    (Boussalem Mohamed, 2011-10-08) Boussalem Mohamed
    Il existe un grand nombre de méthodes de segmentation d'images. Celles-ci sont généralement adaptées à un type d'image particulier (photographie numérique, IRM, image satellite,. . .). Cependant, les résultats de segmentation d’image demeurent jusque là insuffisants et sujet de critiques de la part des utilisateurs. L’émergence des systèmes multi-agents a ouvert à la vision cognitive une nouvelle perspective très prometteuse quant à la conception de systèmes à la fois fortement autonomes, scalables dans la mesure de faire spécialiser chaque agent pour une tâche bien précise. Dans ce mémoire, nous proposons une méthode de segmentation des IRM cérébrales, et ce reposant sur un système multi agents cognitif. L’objectif de cette méthode est de segmenter une IRM cérébrale d’une façon distribuée, en utilisant un ensemble de connaissances. Ces connaissances relèvent d’une part de la segmentation d’images en général, et à l’anatomie cérébrale, d’une autre part. Le système cognitif développé est composé de quatre agents. Chaque agent est responsable de l’extraction d’une région particulière du tissu cérébral (matière blanche, matière grise, et LCR), ainsi qu’un agent contrôleur.
  • Item
    Métaheuristiques parallèles hybrides pour résoudre le problème Q3AP sur grille de calcul
    (Guefrouchi Ryma, 2009) Guefrouchi Ryma
    L'Affectation Quadratique, QAP, est un problème classique d'Optimisation Combinatoire, où on vise à chercher l’affectation optimale de n usines sur n sites, en minimisant le coût quadratique influencés par la distance inter-sites et le flux de matière interusines. Un nouveau problème constituant une extension du QAP, il s’agit de l'affectation quadratique en trois dimensions Q3AP, cette fois on cherche à optimaliser l’affectation de n usines et n managers sur n sites. Le coût quadratique dans ce cas dépend de la distance intersites, les volumes de matières échangés inter-usines et aussi du taux d’échanges intermangers. Peux de travaux dans la littérature ont été proposés pour résoudre ce problème, surtout pour les applications de grande de taille où l’utilisation des métaheuristiques est recommandée. L’approche des métaheuristiques dite « A solution unique », en se basant sur l’aspect de l'intensification, donne rapidement une bonne solution, mais risque d’être piégée par un optimum local. Ce ci est évité avec l’aspect de la diversification fourni par l’approche « à population de solution », cette dernière possède le désavantage que l’ensemble de solutions trouvées est juste une approximation de l’optimum .Ce pendant on voit que l’hybridation des deux approches peut mieux guider le processus de la recherche vers la solution optimale, le mécanisme du parallélisme basé sur l’utilisation des grille de calcul, constitue une puissance de calcul et peut accélérer le processus de l’optimisation. Afin de saisir les gains de cette hybridation parallèle on propose dans ce mémoire une application de cette dernière sur les deux problèmes QAP et Q3AP, notre expérimentation est réaliser sur la plateforme Paradiseo dédiée à la conception des métaheuristique parallèles hybrides.
  • Item
    INDEXATION DE BASE DE DONNEES AUDIO à l’aide de cartes auto-organisatrices (SOM) basée sur une ontologie
    (CHERGUI WAHID, 2009) CHERGUI WAHID
    Pour regrouper les documents audio de sorte que les appels similaires appartiennent au même groupe. Une méthode qui peut résoudre le problème d’indexation audio doit comprendre les quatre éléments suivants: la méthode de transcription, la méthode de représentation des documents, l'algorithme de regroupement et la méthode de représentation des résultats. A travers la méthode de transcription, les documents audio sont transcris par le système ASR (Automatic Speech Recognition) sous forme de documents texte dans différentes langues, et pour les indexer thématiquement il faut qu’on résolve le problème de multilinguisme, pour cela la méthode de présentation doit présenter les documents transcrits sous forme de vecteur de concepts obtenus par la projection sur l’ontologie de domaine. C’est la raison pour laquelle la méthode basée sur une ontologie a été choisie, où les instances des termes sont de type multi langue. La méthode de regroupement doit être suffisamment puissante pour pouvoir grouper un grand ensemble de documents et permettre à l’utilisateur de visualiser des résultats. Les cartes auto organisatrices « SOM » ont été choisies pour cette raison.
  • Item
    Apprentissage automatique et fusion d’informations Application à l’extraction des connaissances des documents web
    (AZIZI Nabil, 2010) AZIZI Nabil
    Ces dernières années, l’accès à l’information textuelle a connu une évolution rapide, avec en particulier le développement de grandes bases de données textuelles et du web. En particulier, il est devenu important d’être capable de traiter d’énormes quantités de données textuelles, d’apporter des solutions diversifiées aux nouvelles demandes des utilisateurs, et d’automatiser les outils qui permettent d’extraire et d’exploiter l’information textuelle. Les méthodes classiques d’extraction de connaissances échouent la plupart du temps parce qu’elles n’utilisent en fait qu’une seule source d’information. De plus, la diversité de langues dans un même document, d’une part, et la diversité de sens qu’on peut avoir pour le même mot rendent l’extraction de connaissances, à partir de ce type de document, une tâche ardue et difficile. Parallèlement aux documents de type HTML, de nouveaux documents appelés documents semi structurés sont apparus. Ce type de document représente un compromis entre les données fortement structurées issues de la communauté base de données (données relationnelles par exemple) et les données faiblement structurées issues des communautés document numérique et recherche d’information (documents plats, images . . . etc) [Denoyer, 2004]. Le format de représentation le plus utilisé par excellence est le format XML (eXtensible Markup Langage) qui se caractérise par sa simplicité, extensibilité et puissance de représentation de n’importe quels types de données. Notre étude s’intéresse à la classification (catégorisation) des documents semi structuré XML. L’apprentissage automatique propose une gamme d’outils qui permettent d’avancer dans cette direction. C’est dans ce cadre que se situe notre travail qui vise à explorer le potentiel des techniques d’apprentissage pour répondre aux besoins de recherche et d’analyse d’information semi structuré comme la méthode à base de SVM, de réseaux de neurones, modèle bayésien,...etc. Toutes ces méthodes s’accordent sur l’efficacité et la robustesse et afin de tirer profit des avantages de chacune d’elles nous allons proposé une architecture de fusion d’information qui permet d’améliorer la classification des documents semi structurés en tenant compte de la structure et le contenu de ces documents.
  • Item
    Cinétique de formation et caractérisation des couches minces tel que ZnO, formées par pulvérisation ultrasonique
    (Guerrab FAHIMA, 2008) Guerrab FAHIMA
    Les couches minces de d'oxyde de zinc (ZnO) avec différentes orientations cristallines préférentielles (OCP) ont été préparées par la technique de pulvérisation ultrasonique utilisant l'acétate de zinc dihydraté dessous dans du méthanol, de l'éthanol et l'eau désionisée. L'analyse thermochimique de la réaction d’obtention des couches minces ZnO, a conduit à l’établissement de la forme analytique de la variation de la constante d’équilibre en fonction de la température. L'évolution des orientations cristallines préférentielles des couches minces de ZnO a été étudiée systématiquement. L'augmentation de TS fait changé l'OCP de (1 0 0) à (0 0 2) avec une étape intermédiaire semblable à la structure de la poudre de ZnO. Les mesures optiques révèlent que ces films ont un maximum de transmittance au environ de 90% et un gap optique direct large de 3.26 eV.
  • Item
    Contribution à la Fouille de Données : Clustering de Données basé sur les Colonies de Fourmis avec Contrôle de l’Emergence
    (Billel KENIDRA, 2013) Billel KENIDRA
    Le problème de clustering de données ou classification non supervisée a été identifié comme une des problématiques majeures en fouille de données ou datamining. Son but est d'identifier et d’extraire des groupes significatifs à partir d’un ensemble, souvent très large, de données définies par des valeurs d’attributs. Ce problème est de nature combinatoire car le nombre de partitions qu’il est possible d’avoir croît de façon exponentielle avec le volume de données à classer et le nombre de clusters. C’est la raison pour laquelle il est souvent traité sous l’angle de l’optimisation. Par ailleurs, la nature est une immense source d'inspiration pour résoudre des problèmes complexes tels que le clustering des données, puisqu'elle est riche en systèmes naturels extrêmement divers, dynamiques, robustes et complexes. Dans ce contexte, les algorithmes inspirés de la nature sont des méta-heuristiques qui imitent des systèmes naturels, pour résoudre des problèmes d'optimisation. Dans les systèmes complexes à organisation autonome, les effets émergents peuvent se produire sans qu'ils ne soient ni voulus, ni prévus dans la phase de conception. Pour rendre les systèmes fiables, il est nécessaire de prendre soin de ce problème. Le contrôle de l’émergence consiste à introduire des boucles de rétroaction pour rendre les systèmes auto-adaptatifs. Dans le présent travail, nous présentons une nouvelle approche de clustering de données à des fins de datamining basé sur les colonies de fourmis avec contrôle de l’émergence par boucle de rétroaction. Cette approche est caractérisée par trois éléments essentiels à savoir :  doter chaque fourmi d’une mémoire courte gérée selon une stratégie FIFO,  modifier les opérations de ramassage et de dépôt des objets ou fonction Pick and Drop,  introduire des agents anti-clustering pour détruire l’émergence négative. Ces agents agissent de façon inverse par rapport au comportement de fourmis artificielles. L’approche proposée a été implémentée sur la plateforme multi agents NETLOGO et a été testée sur des jeux de données synthétiques et réels. Les résultats obtenus en utilisant une mesure de qualité interne et une mesure de qualité externe sont très prometteurs.
  • Item
    Classification Automatique des documents XML
    (Makhlouf LEDMI, 2010-10-17) Makhlouf LEDMI
    La quantité d'information accessible aujourd'hui est telle que les outils, même sophistiqués, utilisés pour rechercher l'information dans les documents et pages Web ne suffisent plus: il faut maintenant pouvoir "découvrir" une information non explicitement contenue dans ces documents, afin de présenter une vue synthétique de grande quantité d'information. C'est précisément l'objectif de ce qu'on appelle la fouille de documents. Celle-ci utilise différentes techniques, extraire une information structurée dans du texte libre, regrouper les documents dans des classes existantes ou émergeantes, afin d'agréger ou de synthétiser l'information contenue dans une large collection. De plus, l’apparition des données semi structurées de type XML ou HTML a considérablement modifié le cadre habituel de la Recherche d’Information (RI). En effet, la notion même d’unité d’information est aujourd’hui complètement remise en cause et il est donc nécessaire d’une part d’adapter les modèles pour prendre en compte ce nouveau type de documents et d’autre part il faut s’intéresser aux nouvelles problématiques qui émergent. Dans le cadre de ce sujet de Magister, nous nous intéressons plus particulièrement aux techniques de classification de documents XML. Plus précisément, le classement associe des documents à des catégories (ou classes) prédéfinies alors que le clustering a pour but d'identifier des classes non connue à l'avance. Pour cela on s'appuie traditionnellement sur des modèles statistiques qui manipulent des ensembles de mots. Certaines méthodes de classification réduisent donc les documents XML à leur partie purement textuelle, sans prendre avantage de la structure XML qui pourtant véhicule une information riche: le même mot n'a pas forcément même impact ou le même sens dans un titre et dans une autre partie du document. Nous proposons de développer des modèles et des méthodes de classification prenant en compte à la fois le contenu des documents et/ou leurs structures. Par ailleurs, nous proposons d’utiliser une ontologie reliée aux termes du corpus pour modéliser la notion de voisinage sémantique à l’aide d’un calcul de similarité entre termes. A fin de valider les résultats, nous proposons d’utiliser un corpus déjà établi comme INEX, par exemple.
  • Item
    Interaction Robuste et Efficace des Systèmes Autonomes et Hétérogènes
    (MESSIKH Chouaib, 2013) MESSIKH Chouaib
    A travers les développements récents des technologies sans fil, nous constatons une évolution rapide vers un écosystème technologique complexe où l’hétérogénéité devient une caractéristique récurrente à tous les niveaux. En particulier, l’hétérogénéité des besoins applicatifs (temps réel, bande passante, QoS, autonomie, portée radio, etc.) et les contraintes technologiques (énergie, spectre, …) ont engendré divers standards de communication (WiFi, ZigBee, Bluetooth, WiMax, 3G/LTE, etc.). Ces standards hétérogènes couplés à l’hétérogénéité des systèmes communiquant, rendent leur interaction complexe, coûteuse (implémentation matérielle d’interfaces multiples) et parfois inefficace (connectivité faible, interférences, affaiblissement du signal, etc.). Ce projet a pour objectif de développer une architecture d’interaction robuste et efficace des systèmes autonomes hétérogènes. Cette architecture sera basée sur une radio intelligente adaptative prenant en compte le contexte des interactions et son évolution dans le temps : besoins applicatifs (temps réel, QoS, sécurité, …), état d’utilisation de spectre, paramètres externes ayant un impact avéré sur la qualité des transmissions radio (présence de champ électromagnétique, température, humidité, etc.)
  • Item
    Comportement Mécanique du Matériau Type E24-2 Lors d'un Soudage par Résistance par Point
    (MOUSSAOUI Abderrahmane, 2010-10-28) MOUSSAOUI Abderrahmane
    Le but de ce travail est axé principalement sur l'étude du comportement mécanique et structural des joints soudée par résistance par points et l'effet des traitements thermiques sur ces derniers à travers des essais mécanique (cisaillement, arrachement, dureté), des analyses métallographiques et enfin des calculs de la résistance du joint soudé
  • Item
    Une hybridation de méthodes de segmentation d’images pour l’interprétation des mammographies
    (LOUAFI Wafa, 2010-02-21) LOUAFI Wafa
    La mammographie est actuellement le moyen le plus efficace du dépistage précoce des cancers du sein car il permet, même le dépistage des tumeurs asymptomatiques et non palpables manuellement. De nombreuses équipes de recherche travaillent sur la détection automatique du cancer du sein [Mag 89], [Cha 90], [Ann 92], [Idi 05],… ; mais à notre connaissance, aucune équipe n'a mis au point une méthode efficace pour déterminer automatiquement la forme exacte de la zone de doute, ce qui semble pourtant être un paramètre important de malignité. Notre travail rentre dans le cadre de la segmentation d’images pour l’interprétation des mammographies en proposant une solution d’hybridation de méthodes ; l’ensemble des mammographies utilisées dans notre projet provient de la base d’images médicales de 230 GB de données mammographiques de l’université de South Florida [Dds 04]. La base de données contient plus de 2500 cas numérisés, avec 4 clichés par cas (deux vues de chaque sein), et certaines informations relatives au patiente (âge, densité du sein,…) et à l'image (scanner, résolution…), ces dernières ont été sujet à une série d’opérations de prétraitement (acquisition, filtrage…) ; ensuite une approche hybride de segmentation sera appliquée sur ces images afin d’obtenir une bonne illustration capable d’interpréter une mammographie. Tout d'abord, une région est déterminée par une technique de seuillage ; on prend seulement cette région et le reste sera exclu de l'étude. Par la suite une tâche de segmentation Markovienne sera appliquée sur la zone d’étude; cette dernière sera segmentée en plusieurs régions, on prend encore seulement la région qui nous intéresse et le reste sera exclu de l‘étude. On lui applique la technique de LPE pour extraire la forme exacte de la zone de doute. Donc en bougeant d’une macro-région à une microrégion jusqu’à l’obtention de la forme exacte de la zone de doute. Le diagnostic de la maladie dépend de cette forme.
  • Item
    Une extension de l’architecture BDI : prise en considération du contexte et le partage des croyances
    (BECHOUA Khaled, 2016-03-02) BECHOUA Khaled
    Les systèmes sensibles au contexte sont des systèmes capables de capter, représenter et gérer le contexte, leurs composants doivent également pouvoir raisonner et adapter leur comportement aux évolutions de leur environnement. Dans ce travail de recherche on s’intéresse à intégrer le concept de contexte aux agents BDI (Belief, Desire, Intention) pour construire Une extension de l’architecture BDI capable de la prise en considération du contexte. L’architecture que nous avons proposé résoudre trois problèmes essentiels sont: 1. Comment représenter le contexte dans l’agent BDI ? 2. Comment mettre à jour la structure de données de contexte? 3. Comment le contexte affecte dans le processus de prise de décision? La résolution de ces trois problèmes permet de construire des agents BDI plus sensible au contexte et d’améliorer leur fonctionnement dans les différents environnements
  • Item
    Aspects de la gestion intégrée, personnalisable et adaptable aux systèmes E-Learning
    (Assma BEZZA, 2013) Assma BEZZA
    a recherche confirme que les apprenants ont des exigences et des caractéristiques différentes. Chacun assimile l'information en fonction de son propre style d'apprentissage, son niveau intellectuel, ses intérêts et ses besoins. Et comme résultat, le contenu d’apprentissage doit être capable d’être personnalisé et adapté pour répondre aux besoins escomptés par les apprenants tels que l’utilité, l’utilisabilité, et l’acceptabilité. Dans ce mémoire nous abordons le thème de la personnalisation d’apprentissage dans les systèmes e-Learning. D’abord, nous présentons deux méthodes de personnalisation pour la modélisation du profil de l’apprenant et l’adaptation du contenu d’apprentissage pour correspondre ce profil : méthode inductive (sans intervention de l’utilisateur) et méthode déductive (avec intervention de l’utilisateur). Ensuite, et due aux limites des systèmes e-Learning quand il s'agit d'adapter les ressources (données, interface) aux besoins escomptés par les apprenants, nous avons opté pour l’amélioration de ces systèmes avec la gestion des connaissances pour la modélisation du profil ainsi que pour l’adaptation du contenu à ce profil. Nous proposons un nouveau modèle de personnalisation « KM enhanced e-Learning system’s personalization » à deux phases : modélisation d’utilisateur et adaptation du contenu d’apprentissage à ce modèle d’apprenant. Enfin, nous avons procédé à une évaluation en utilisant l’outil eRaUI afin de déterminer les implications importantes et les avantages résultant de l’adoption de KM dans une perspective d’amélioration et de promotion de la personnalisation des systèmes d’apprentissage. Les résultats de nos expérimentations montrent une grande corrélation entre l’interface utilisateur et la satisfaction de l’apprenant. L
  • Item
    Vérification des critères de validité fonctionnelle des assemblages dans les applications à base de composants (Approche basée Agents mobiles)
    (Abderaouf BAKHOUCHE, 2013-11) Abderaouf BAKHOUCHE
    L’informatique d’aujourd’hui est de plus en plus distribuée, connectée et hétérogène, , les applications sont de ce fait plus compliquées à développer par leurs nombre et leur taille et surtout leur dynamicité, la réutilisation est devenue une nécessité pour palier à l’explosion du nombre et de la complexité des applications. Le paradigme composant représente une approche de conception et de développement de logiciel ayant un grand impact. En proposant des abstractions pour organiser le logiciel comme une combinaison d’éléments logiciels, avec pour objectif de faciliter son évolution (en premier lieu, remplacement et ajout d’éléments). La validité d’une application à base de composant consiste en trois point de vue, un point de vue fonctionnel dans lequel on cherche à s’assurer que le comportement global issus des comportements individuels des composants se rencontre bien avec les besoins prévues de l’application; le deuxième point de vue concerne l’aspect structurel de l’application c à d lié à la dynamique de l’environnement d’exécution de l’application, et finalement un point de vue de consistance qui consiste à vérifier la compatibilité entre les signatures des composants. Le travail demandé cible à traiter le point de vue fonctionnel c.à.d. proposer un mécanisme pour une vérification automatique des critères de validité fonctionnelle d’un assemblage de composants en faisant intervenir les agents mobiles.