Conférence > Appel à communications

Cette année la 19ème édition de la conférence EGC aura lieu à Metz du 21 au 25 janvier 2019 sur le Campus de Metz de CentraleSupélec.

La conférence Extraction et Gestion des Connaissances (EGC) est un événement annuel réunissant des chercheurs et praticiens de disciplines relevant de la science des données et des connaissances. Ces disciplines incluent notamment l’apprentissage automatique, l’ingénierie et la représentation de connaissances, le raisonnement sur des données et des connaissances, la fouille et l’analyse de données, les systèmes d’information, les bases de données, le web sémantique et les données ouvertes, etc.

Le traitement et l’intégration de sources de données et de connaissances posent sans cesse de nouveaux besoins et de nouveaux défis en termes de méthodes, de techniques et d’outils pour acquérir les données, les classifier, les intégrer, les représenter, les stocker, les indexer, les visualiser, interagir avec elles, les protéger et surtout les transformer en connaissances utiles, pertinentes et respectueuses de nos droits.

Aux besoins de passage à l’échelle posés par de grandes collections de données, s’ajoutent les besoins de traitement de données hétérogènes, de qualité variable et parfois très dynamiques allant de l’article de journal en ligne, à la température d’un capteur connecté, de la photo ou la vidéo virale à la position géographique de nos voitures, des messages courts d’un microblog aux données liées d’une base de génomique, etc.

Un défi majeur est la conception d’algorithmes d’analyse et de raisonnement sur des données, plus transparents, capables de repérer les biais dans les données, d’expliquer la provenance de leurs résultats tout en garantissant le respect de la vie privée et l’équité.

La conférence EGC est l’occasion de faire se rencontrer académiques et industriels afin de confronter des travaux théoriques et des applications pratiques sur des données réelles et de communiquer des travaux de qualité, d’échanger et de favoriser la fertilisation croisée des idées, à travers la présentation de travaux de recherche récents, de développements industriels et d’applications originales.

Les actes d’EGC 2019, comprenant les articles des communications orales ainsi que ceux associés aux posters paraîtront dans un numéro de la revue RNTI. Les auteurs des meilleurs articles seront invités à soumettre une version étendue de leurs articles pour être publiés dans des post-actes internationaux édités chez Springer.

Cette année, il n’y aura pas de session défi mais plutôt un Hackathon sur données réelles qui fera l’objet d’un appel à participations spécifique. Le ou les lauréats seront invités à présenter leurs résultats à EGC 2019.

Prix :

Cinq prix scientifiques seront attribués lors de la conférence :

  • un prix pour la catégorie "article académique" (1500 euros),
  • un prix pour la catégorie "article applicatif" (1500 euros),
  • un prix pour le défi Hackathon (500 euros),
  • un prix pour la catégorie "démonstration" (500 euros),
  • un prix de thèse (500 euros) décerné à un jeune docteur dont la thèse a été soutenue depuis moins de trois ans dans les thématiques liées à l’extraction et la gestion des connaissances.

Ces prix seront décernés par un jury composé de membres du comité de pilotage. Le prix de thèse fait l’objet d’une annonce spécifique.

Thématiques :

Les sujets d’intérêt de la conférence incluent (liste non-exhaustive) :

Fondements de l’extraction et de la gestion de connaissances

  • Apprentissage supervisé : apprentissage profond, apprentissage de règles, apprentissage statistique, modèles probabilistes, méthodes d'ensembles, régression, classes déséquilibrées, classification guidée par les connaissances
  • Apprentissage non supervisé : méthodes de partitionnement et de recouvrement, méthodes hiérarchiques, multi-vues, multi-stratégies, co-clustering, clustering sous contraintes
  • Méthode de découverte de motifs et d'ensembles de motifs : séquences, graphes, tenseurs.
  • Cadre théorique pour la fouille de données, langages de requêtes déclaratifs pour la fouille de données, fouille de données sous contraintes, méthodes incrémentales
  • Algorithmes de fouille de données robustes au passage à l’échelle, systèmes distribués / parallèles pour la fouille de données
  • Méthodes statistiques en fouille de données
  • Programmation logique inductive
  • Apprentissage topologique, variétés mathématiques
  • Analyse des données symboliques
  • Détection d'exceptions, d'inattendus, d'anomalies, de signaux faibles.
  • Visualisation et fouille visuelle de données massives
  • Interrogation et raisonnement sur des données en présence d’ontologies
  • Représentation, traitement et échange de données et connaissances sur le Web sémantique et le Web des données liées
  • Variété des données et données complexes : données structurées, semi-structurées, textuelles ; données temporelles, spatiales, géolocalisées ; données multimédia ; données relationnelles ; données en réseau, en graphes ; données dynamiques ; flux de données ; données annotées à l'aide d'ontologies ; données hétérogènes sémantiquement
  • Préservation de la confidentialité et de l'anonymat
  • Transparence, équité  et explicabilité des algorithmes de traitement et d’analyse des données

Aspects méthodologiques de l’extraction et de la gestion de connaissances

  • Acquisition, nettoyage, filtrage des données,  réduction de dimensions, sélection et modification des caractéristiques
  • Gestion des connaissances et d'ontologies (acquisition, stockage, mise à jour, interopérabilité, interconnexion, évolution)
  • Cycle de vie et alignements des vocabulaires (ontologies, thésaurus, méta-données) sur le Web
  • Préparation, architecture et modèles de données liées sur le Web.
  • Intégration de connaissances dans le processus d'extraction (ontologies, expertise,...)
  • Traçabilité, sécurité et intégrité de l'information et des données
  • Plateformes et systèmes pour l'extraction et la gestion de données et de connaissances
  • Etudes expérimentales sur des données volumineuses
  • Interaction et apprentissage actif
  • Visualisation, explication et compréhension de résultats
  • Critères et évaluation de la qualité des données, des connaissances extraites
  • Protocoles d'évaluation et validation de modèles à partir d'utilisateurs
  • Interaction homme-machine en fouille de données

Extraction et gestion de connaissances dans des domaines émergents ou connexes

  • Analyse de liens, communautés en ligne, réseaux sociaux, médias sociaux.
  • Fouille de données d'opinions, de dépêches, de microblogging
  • Mobilité, géo-localisation, découverte de connaissances et ubiquité, intelligence ambiante, réseaux de capteurs, internet des objets
  • Big Data et nouveaux paradigmes de traitement des données : calcul haute performance, parallélisme, systèmes distribués
  • Crowdsourcing, modélisation de comportements
  • Fouille du Web de données, extraction pour le Web sémantique, annotation de ressources multimédia pour le Web, annotation du Web des Objets
  • Fertilisation croisée entre extraction de connaissances et autres domaines de recherche ou d'applications : intelligence artificielle, sciences sociales et humanités numériques, traitement automatique des langues, traitement d’images, vision par ordinateur.

Applications de l'extraction et de la gestion de connaissances

  • Développement durable, transports et lieux intelligents
  • Informatique verte pour la gestion et l'extraction de connaissances
  • Modélisation des épidémies, recherche clinique, médecine, biologie
  • Détection d'intrusion, prévention de fraude, sécurité
  • Mémoires d'entreprise, veille technologique, intelligence économique
  • Système de recommandation, commerce électronique, publicité en ligne
  • Applications dans d'autres domaines comme la chimie, l'environnement, les sciences sociales, l'éducation, l'économie, la finance, le tourisme, la défense, le génie logiciel.

 

Personnes connectées : 1