Archives 2007-2008

CENTAL

> Archives 2007 - 2008

- Lundi 10 mars 2008

Stijn Christiaens, Semantics Technology and Applications Research Laboratory (STARLab), VUB.
The meaning of semantics

Résumé:
A major problem in todays information society is the large amount of available ontent. It can be a tedious task to find the information one seeks. The main reason for this problem is that the data is highly instructured or semi-structured and that meaning is only visible to human agents. A lot of research is trying to solve this problem in order to enable the Semantic web, and beyond that, the Pragmatic Web. In todays research, topics like ontology creation, representation, merging and alignment and evolution receive a lot of attention. Research on collaborative ontology engineering has already begin, but needs further exploration. Currently, high quality ontology engineering is a task mostly done by knowledge engineers. An ontology is seen as a shared and agreed upon resource, but most ontologies are created by single (or a small group of) knowledge engineers. Current trends in the Web (the so-called Web 2.0) succeed in activating the users to participate in metadata creation. Although rather limited in quality, these mechanisms deliver metadata in a quantity that Semantic Web researchers can only dream of.  It is clear that we need to investigate how users in communities can get deeply involved in meaning creation. Stakeholders need the power to capture and evolve their ontologies themselves. We have to find out how and where we can glue the Semantic Web to the user interaction in the so- called Web 2.0.
affiche, support de la présentation

Lundi 21 avril 2008

Pierre Zweigenbaum, LIMSI-CNRS, Orsay
Acquisition de ressources lexicales spécialisées monolingues et multilingues
Résumé:
Pierre Zweigenbaum présentera des travaux menés dans l'équipe du LIMSI et en collaboration pour mettre au point et appliquer des méthodes d'aide à l'acquisition de ressources lexicales spécialisées. Ces travaux visent à aider à obtenir plusieurs types de connaissances sur des mots et des termes : relations morphologiques, variantes, traductions. Les méthodes employées incluent l'exploitation de thésaurus existants et de corpus monolingues et multilingues.
affiche, support de la présentation

Lundi 25 février 2008
Christophe Lejeune, Université de Liège.
Cassandre, ou la rencontre de l'analyse textuelle et de la sociologie qualitative

Résumé:
Docteur en sociologie, l'auteur présente le logiciel Cassandre, issu d'un partenariat entre l'Université de Liège et l'Université de Technologie de Troyes. Destiné à l'analyse qualitative en sciences humaines et sociales, Cassandre repose sur des dictionnaires construits par les utilisateurs. Grâce au protocole Hypertopic, il constitue en outre une plateforme collaborative (un /collaboratoire/) permettant aux chercheurs de confronter leurs analyses. La conférence discute en outre l'apport de fonctionnalités lexicométriques à un outil de ce type.
affiche, website

- Lundi 11 février 2008
Matthieu Constant, Université Paris-Est
LGExtract : un outil générique pour reformater les informations des tables du lexique-grammaire

Résumé:
Les tables du lexique-grammaire forment un lexique-syntaxique à large couverture d'une précision linguistique remarquable. Leur forme tabulaire facilite leur lecture et leur maintenance. Cependant, ce format est très rarement compatible avec le format de lexiques utilisés dans des applications de TAL comme les analyseurs syntaxiques. Pour pallier ce problème, nous proposons un outil de reformatage des tables dans différents formats. Contrairement aux approches travaillant table par table avec une configuration différente pour chaque table, notre outil n'a qu'une seule configuration et est conçu pour fonctionner à l'aide de la table des tables (en cours de construction à l'IGM). Nous avons mis au point un petit langage où chaque propriété est associée à une opération et un objet linguistique sous la forme de listes ou/et de structures de traits. Suivant les propriétés sélectionnées pour chaque entrée, les opérations et objets linguistiques associés seront combinés pour former une entrée reformatée. Dans cet exposé, nous présenterons d'abord une description des principes généraux de l'outil. Nous illustrerons ensuite notre propos de différents exemples de lexiques que l'on peut obtenir et d'une démonstration.
affiche

- Lundi 28 janvier 2008
Olivier Ferret, CEA, Paris.
Segmentation thématique de textes : au-delà de la récurrence lexicale

Résumé:
A la suite de la méthode TextTiling proposée par Marti Hearst, de nombreux algorithmes de segmentation thématique de textes fondés sur le contenu, et plus précisément sur la récurrence lexicale, ont été développés. Toutes ces méthodes se fondent plus ou moins explicitement sur l'hypothèse que la proximité thématique de deux segments de texte est liée au nombre de mots qu'ils partagent. Cette hypothèse est opérante lorsque les concepts véhiculés par les textes se manifestent au travers d'un vocabulaire spécifique mais se trouve mise en défaut lorsqu'ils apparaissent sous des formes plus diverses. Dans cette présentation, je proposerai deux pistes de solution pour faire face à ce problème. La première est de nature endogène et exploite la similarité distributionnelle des mots au sein des documents pour en découvrir les thèmes. Ces thèmes sont ensuite utilisés pour faciliter l'identification des similarités thématiques entre segments de texte. La seconde réalise le même but en faisant appel à une ressource externe, en l'occurrence un réseau de cooccurrences lexicales construit à partir d'un large corpus.
affiche, support de la présentation

- Lundi 10 décembre 2007
Jean-Michel Renders, XEROX XRCE
Quelques perspectives récentes en recherche documentaire trans-lingue et trans-media


Résumé:
Cette presentation sera consacrée à un panorama non-exhaustif de méthodes récentes en recherche d'information multi-lingue d'une part, et multi-media (texte + image) d'autre part. Nous montrerons comment certaines de ces méthodes peuvent émerger d'un cadre commun, en mettant en évidence la similarité des processus mis en oeuvre (processus de "traduction" et d'enrichissement généralisés). En particulier, nous examinerons comment des mécanismes de pseudo-boucles de pertinence permettent de résoudre, primo, des problèmes d'adaptation de dictionnaires de traduction  (cas multi-lingue) et, secundo, des problèmes de représentation transmodale (texte vers image ou image vers texte) pour combler le fossé sémantique entre les deux modes. Les concepts présentés seront illustrés dans le cadre de tâches de la Conférence d'Evaluation CLEF 2007.
affiche

- Lundi 19 novembre 2007
Guy Deville
Mise en oeuvre d'un outil original d'aide en ligne à la lecture de textes en langue étrangère

affiche, support de la présentation

- Lundi 22 octobre 2007
Sophie Roekhaut
L'analyse morpho-syntaxique dans un synthétiseur de parole
affiche , support de la présentation

- Mercredi 3 octobre 2007
Carl Vogel
Intensional Semantics for Sense Extension and Metaphoricity
affiche

- Jeudi 10 mai 2007
Laurent Kevers
Traitement des expressions temporelles dans les dépêches de presse
affiche

Vendredi 4 mai 2007
Richard Beaufort
Synthèse de la parole par sélection d'unités non uniformes
affiche , support de la présentation  

Jeudi 26 avril 2007
Hubert Naets
Traitement automatique des langues peu dotées
affiche

Vendredi 20 avril 2007
Piet Mertens
Un analyseur syntaxique pour grammaires de dépendance et de valence
affiche