Home » Évènement (Page 4)

Soutenance de thèse de Tarek BENKHELIF (équipe DUKe)

Tarek Benkhelif, doctorant au sein de l’équipe DUKe, soutiendra sa thèse intitulée « Publication de données individuelles respectueuse de la vie privée : Une démarche fondée sur le co-clustering » / « Privacy preserving microdata publishing »

mardi 27 novembre à 14h, dans l’amphi 2 du bâtiment IRESTE à Polytech.

Jury : Marc Gelgon (directeur), Guillaume Raschia (co directeur), Benjamin Nguyen (Rapporteur, INSA Centre Val de Loire), Christophe Rosenberger (Rapporteur, ENSI CAEN), Pierre Gancarski (UNISTRA), Maryline Laurent (Telecom Sud Paris), Matthieu Grall (invité, CNIL), Françoise FESSANT (Orange Labs Lannion, invitée)

Résumé :
Il y a une forte demande économique et citoyenne pour l’ouverture des données individuelles. Cependant, la publication de telles données représente un risque pour les individus
qui y sont représentés. Cette thèse s’intéresse à la problématique de l’anonymisation de tables de données multidimensionnelles contenant des données individuelles dans un objectif de publication.
On se concentrera plus particulièrement sur deux familles d’approches pour l’anonymisation: la première vise à fondre chaque individu dans un groupe d’individus, la deuxième est basée sur l’ajout d’un bruit perturbateur aux données originales. Deux nouvelles approches sont développées dans le cadre de l’anonymisation par groupe, elles consistent à agréger les données à l’aide d’une technique de coclustering puis à utiliser le modèle produit, pour générer des enregistrements synthétiques, dans le cas de la première solution.
La deuxième proposition quant à elle, cherche à atteindre le formalisme du k-anonymat. Enfin, nous présentons DPCocGen un nouvel algorithme d’anonymisation respectueux de la confidentialité différentielle. Tout d’abord, un partitionnement sur les domaines est utilisé pour générer un histogramme multidimensionnel bruité, un co-clustering
multidimensionnel est ensuite effectué sur l’histogramme bruité résultant en un schéma de partitionnement. Enfin, le schéma obtenu est utilisé pour partitionner les données originales de manière différentiellement privée. Des individus synthétiques peuvent alors être tirés des partitions.

Mots-clés : protection de la vie privée, k-anonymat, confidentialité différentielle

**********

Abstract:
There is a strong economic and civic demand for the opening of individual data. However, the publication of such data poses a risk to the individuals represented in it. This
thesis focuses on the problem of anonymizing multidimensional data tables containing individual data for publishing purposes. In particular, two data anonymization approaches families will be focused on: the first aims to merge each individual into a group of individuals, the second is based on the addition of disruptive noise to the original data. Two new approaches are developed in the context of group anonymization. They aggregate the data using a co-clustering technique and then use the produced model, to generate synthetic records, in the case of the first solution. While the second proposal seeks to achieve the formalism of k-anonymity. Finally, we present a new anonymization algorithm “DPCocGen” that ensures differential privacy. First, a data-independent partitioning on the domains is used to generate a perturbed multidimensional histogram, a multidimensional co-clustering is then performed on the noisy histogram resulting in a partitioning scheme. Finally, the resulting schema is used to partition the original data in a differentially
private way. Synthetic individuals can then be drawn from the partitions.

Keywords: privacy preserving data publishing, k-anonymity, differential privacy

Soutenance de thèse de Marwa EL ABRI (équipe DUKe)

Marwa El Abri, doctorante au sein de l’équipe DUKe, soutiendra sa thèse intitulée « Apprentissage des Modèles Probabilistes Relationnels à partir des Bases de Données Graphe »

Mardi 2 octobre à partir de 9h30, à Polytech.

Jury : Philippe Leray (directeur de thèse), Nadia Essoussi (co directrice, ISG Tunis), Simon de Givry (rapporteur, INRA Toulouse), Nicolas Lachiche (U Strasbourg ICube), Nahla Ben Amor (ISG Tunis), Emmanuel Mazer (Inria Rhône Alpes)

Soutenance de thèse de Romain RINCE (équipe DUKe)

Romain Rincé, doctorant au sein de l’équipe DUKe, soutiendra sa thèse intitulée « Behaviour Recognition on Noisy Data-Streams Constrained by complex Prior Knowledge »

mercredi 7 novembre 2018 à 14h, à ONERA Palaiseau (salle J. Dorey, bâtiment J3).

Jury : Philippe Leray (Directeur), Romain Kervarc (co encadrant ONERA, Audine Subias (Rapporteur, LAAS), Thomas Schiex (Rapporteur, INRA MIAT), Benoit Delahaye, Céline Rouveriol (LIPN), Jean Loup Farges (ONERA Toulouse, Invité)pe

Soutenance de thèse de Wissam SIBLINI (équipe DUKe)

Wissam Siblini, doctorant au sein de l’équipe DUKe, soutiendra sa thèse intitulée « Apprentissage multi-label extrême : Comparaisons d’approches et nouvelles propositions »

vendredi 23 novembre à 14h, à Polytech, en salleD004 bâtiment Ireste.

Jury : Pascale Kuntz (Directrice de thèse), Amaury Habrard (Rapporteur, U Jean Monnet St Etienne), Stéphane Canu (Rapporteur, INSA Rouen), Elisa Fromont (IRISA, autre membre), Jean Michel Poggi (U Paris Descartes, autre membre), Franck Meyer (Orange Labs Lannion, invité)

Résumé :
Stimulé par des applications comme l’annotation de documents ou d’images, l’apprentissage multi-label a connu un fort développement cette dernière décennie. Mais les algorithmes classiques se heurtent aux nouveaux volumes des données multi-label extrême (XML) où le nombre de labels peut atteindre le million. Cette thèse explore trois directions pour aborder la complexité en temps et en mémoire du problème : la réduction de dimension multi-label, les astuces d’optimisation et d’implémentation et le découpage arborescent. Elle propose d’unifier les approches de réduction à travers une typologie et deux formulations génériques et d’identifier des plus performantes avec une méta-analyse originale des résultats de la littérature. Une nouvelle approche est développée pour analyser l’apport du couplage entre le problème de réduction et celui de classification. Pour réduire la complexité mémoire en maintenant les capacités prédictives, nous proposons également un algorithme d’estimation des plus grands paramètres utiles d’un modèle classique de régression one-vs-rest qui suit une stratégie inspirée de l’analyse de données en flux. Enfin, nous présentons un nouvel algorithme CRAFTML qui apprend un ensemble d’arbres de décision diversifiés. Chaque arbre effectue une réduction aléatoire conjointe des espaces d’attributs et de labels et implémente un partitionnement récursif très rapide. CRAFTML est plus performant que les autres méthodes arborescentes XML et compétitif avec les meilleures méthodes qui nécessitent des supercalculateurs. Les apports de la thèse sont complétés par la présentation d’un outil logiciel VIPE développé avec Orange Labs pour l’analyse d’opinions multi-label.

Mots-clés : multi-label extrême, réduction de dimension, arbre de décision, méthodes économes

***********

Title: Extreme multi-label learning: comparisons of approaches and new proposals

Abstract : Stimulated by many applications such as documents or images annotation, multi- label learning have gained a strong interest during the last decade. But, standard algorithms cannot cope with the volumes of the recent extreme multi-label data (XML) where the number of labels can reach millions. This thesis explores three directions to address the complexity in time and memory of the problem: multi-label dimension reduction, optimization and implementation tricks, and tree-based methods. It proposes to unify the reduction approaches through a typology and two generic formulations and to identify the most efficient ones with an original meta-analysis of the results of the literature. A new approach is developed to analyze the interest of coupling the reduction problem and the classification problem. To reduce the memory complexity of a classical one-vs-rest regression model while maintaining its predictive performances, we also propose an algorithm for estimating the largest useful parameters that follows a strategy inspired by data stream analysis. Finally, we present a new algorithm called CRAFTML that learns an ensemble of diversified decision trees. Each tree performs a joint random reduction of the feature and the label spaces and implements a very fast recursive partitioning strategy. CRAFTML performs better than other XML tree-based methods and is competitive with the most accurate methods that require supercomputers. The contributions of the thesis are completed by the presentation of a software called VIPE that is developed with Orange Labs for multi- label opinion analysis.

Keywords: extreme multi-label, dimensionality reduction, decision tree, efficient methods

 

 

Régis Gras, professeur émérite du LS2N (équipe DUKe), publie un nouvel ouvrage sur l’A.S.I. aux éditions Cépaduès

La théorie de l’Implication Statistique ou l’Invraisemblance du faux.
Cépaduès, mai 2018.
Auteur : Régis GRAS, Professeur émérite, LS2N/DUKe
Préface : Pascale KUNTZ, Professeur, LS2N/DUKe

Cet ouvrage récapitule les méthodes et les concepts fondés initialement par Régis Gras au cours des années 80 pour évaluer, de façon nouvelle, des performances d’élèves français à des épreuves de mathématiques. Grâce aux nombreux travaux de Régis Gras et ses collègues, l’Analyse Statistique Implicative (A.S.I.), se présente maintenant comme une large méthode d’Intelligence Artificielle visant l’extraction de causalités sous forme de règles, mais aussi de règles de règles, dans un ensemble de variables de nature variée. Elle est basée, de façon originale, sur l’invraisemblance de l’existence de ces relations, c’est-à-dire sur la faiblesse relative de leurs contre-exemples par rapport à ce que donnerait le hasard seul. L’ AS.I. a été appliquée dans des domaines variés comme la psychologie, la sociologie, la médecine, la biologie, l’économie, l’histoire de l’art, etc.

Tous ces travaux ont fait l’objet de plusieurs ouvrages, principalement chez Cépaduès, mais aussi chez Springer ou à la Pensée Sauvage éditions, en Didactique des Mathématiques. Dans ce nouvel ouvrage, de nombreuses situations problématisées et illustrées, sont présentées et des exemples numériques sont traités à des fins didactiques.

Notons que de nombreux collègues de l’équipe DUKe du LS2N ont participé aux colloques centrés sur l’ASI et sur CHIC – son logiciel de traitement des données- et ont collaboré au développement et à l’illustration de l’ASI. Citons particulièrement Pascale Kuntz, Fabrice Guillet, et Gérard Ramstein.

Informations et achat en ligne sur le site de l’éditeur.

L’équipe DUKe représentée à la conférence ICML 2018 !

L’article « Clustering-based Random Forest of Predictive Trees for Extreme Multi-label Learning » signé Wisssam Siblini, Pascale Kuntz, F. Meyer vient d’être accepté à la conférence ICML 2018 (International Conference on Machine Learning, classée A*). Cette conférence aura lieu à Stockholm du 10 au 15 juillet 2018.

Ce sont une partie des résultats des travaux de thèse CIFRE de Wissam Siblini, LS2N/DUKe & Orange.

Atelier PRISME-G dans le cadre de la conférence EGC 2018 : Penser la Recherche en Informatique comme pouvant être Située, Multidisciplinaire Et Genrée

Cet atelier vise à constituer un espace de réflexion sur des questions relatives à l’égalité femmes-hommes en informatique. Deux volets seront particulièrement concernés.

  1. Le premier porte sur les objets de recherche : la neutralité des techniques est souvent posée comme une évidence, mais qu’en est-il vraiment ? Et comment la question de l’égalité femmes-hommes peut traverser les objets de recherche en informatique, et en particulier dans la science des données ?
  2. Le deuxième volet porte sur les actrices et acteurs de la recherche en informatique : quelles sont les conditions de l’égalité dans l’environnement quotidien ? Y a-t-il des postures scientifiques genrées en informatique ?

Ces questions, relevant d’une certaine pluridisciplinarité, pourront inciter la participation de chercheur.es d’autres disciplines concernées.

Organisatrices :
– Cécile FAVRE : Université de Lyon, Lyon 2, ERIC et CMW
– Pascale KUNTZ : Université de Nantes, LS2N / équipe DUKe

Voir le programme.

Cet atelier ayant lieu dans le cadre de la conférence internationale EGC (extraction et gestion des connaissances), il est nécessaire de s’acquitter des droits d’inscription à EGC 2018 (soit 500 euros) pour pouvoir y assister.

 

Soutenance d’HDR de Mounira HARZALLAH (équipe DUKe)

Mounira Harzallah soutiendra son Habilitation à Diriger des Recherches, intitulée « Contributions à l’Ingénierie des Connaissances : Construction et validation d’ontologie et mesures sémantiques »
mercredi 13 décembre à 14h, dans l’amphithéâtre 2 du bâtiment IREST de Polytech.

Jury :
Mme Nathalie Aussenac-Gilles, Directrice de recherche, CNRS/IRIT, Univ. Paul Sabatier, Toulouse (Rapporteur)
M. Jean Charlet, Chargé de mission recherche à l’AP-HP & Inserm, Université Pierre et Marie Curie (Rapporteur)
M. Serge Garlatti, Professeur, Institut Mines Télécom (IMT) Atlantique (Rapporteur)
Mme Bénédicte Le Grand, Professeur, Université Paris 1 Panthéon – Sorbonne, Centre de Recherche en Informatique (CRI) (Examinateur)
Mme Pascale Kuntz, Professeur, École Polytechnique de l’Univ. de Nantes (Examinateur)

Résumé :
Les connaissances sont reconnues depuis quelques décennies comme le capital de l’économie immatérielle. Leur ingénierie (extraction, modélisation, capitalisation, exploitation…) est une problématique permanente et omniprésente dans les activités de chacun. Elle a connu plusieurs mutations en s’adaptant au cours du temps à l’évolution des connaissances. Elle a notamment dû prendre en compte une évolution dans le temps des ressources des connaissances (experts, livres, bases de données, réseaux sociaux, tweeters, web des données…), de leurs formes (implicite, explicite, structurée, semi ou non structurée), de leurs utilisateurs (organisation, apprenant, utilisateur du web…), des supports de leur utilisation (livres, bases de données, systèmes experts, systèmes à bases de connaissances, applications du web sémantique…), du volume et de la vitesse de multiplication de leurs ressources, des techniques de leur extraction, des langages de leur représentation…
Dans ces différentes évolutions, l’ontologie a été reconnue comme une représentation sémantique pertinente d’une conceptualisation explicite et formelle d’un domaine. Dans la communauté de l’ingénierie des connaissances, l’aspect formel des ontologies et la possibilité de raisonner avec elles et de les réutiliser, ont conduit de nombreux chercheurs à s’y intéresser et à les utiliser dans plusieurs applications. Au passage à l’échelle, le challenge de leur utilisation dans des projets réels s’est vu confronté à plusieurs obstacles, par exemple : (1) des méthodes de construction peu opérationnelles et non adaptées à la construction d’ontologies larges ; (2) des méthodes de validation plutôt adaptées à certains problèmes logiques ; (3) la difficulté de bien choisir une ontologie pour une application, parce que cette ontologie devrait bien couvrir le domaine de cette application et prendre en compte ses évolutions, et parce qu’il faut y appliquer une mesure sémantique adéquate dont les résultats devraient être et rester proches du jugement humain, même si cette ontologie évolue. Dans le web des données, on s’est focalisé sur les techniques de fouille de données, d’apprentissage automatique, etc., pour gérer les paramètres de volume des données, de la vitesse de leur changement, de leur véracité… tout en oubliant le paramètre de leur hétérogénéité sémantique.
Je me suis intéressée depuis plus de 15 ans, aux problématiques liées aux ontologies, à leur construction, à leur validation et à leur exploitation, en ingénierie des connaissances. Mes contributions à ce domaine sont principalement des modèles sémantiques, des cadres ou des méthodes dont certaines utilisent des techniques de raisonnement logique, de fouille de données ou de traitement automatique de langues. Elles s’organisent autour de 3 axes. Le premier axe porte sur l’ingénierie des compétences et son articulation à l’ingénierie des connaissances. Mes deux contributions majeures dans cet axe sont : (1) des modèles de connaissances (i.e. une ontologie noyau des compétences basée sur le modèle CRAI (Comptency Resource Aspect Individual) conçu dans mes travaux de thèse et le modèle CKIM (Competency and Knowledge Integrated Model) pour une représentation intégrée des compétences et connaissances) et (2) une architecture intégrante pour l’ingénierie des compétences. Cette architecture se base sur une
modélisation ontologique et fine des compétences permettant d’intégrer la réalisation des différents processus d’ingénierie des compétences. En plus, elle permet de répertorier des
techniques d’ingénierie des connaissances et les ressources associées pour l’extraction des compétences. Cette architecture pourrait s’étendre à une architecture intégrante pour l’ingénierie des connaissances et porter sur tout type de processus d’une organisation qui requière des connaissances. D’autres types de données (e.g. données structurées, traces) et de techniques pourraient être rajoutés à cette architecture. Cette architecture a orienté mes travaux de recherche vers les deux autres axes : l’axe 2 qui porte sur les méthodes et techniques d’ingénierie des connaissances pour la conceptualisation et la validation d’ontologie, l’ontologie et les méthodes et techniques d’ingénierie des connaissances étant deux composants principaux de cette architecture ; l’axe 3 porte sur les mesures sémantiques de comparaison d’objets, une mesure sémantique étant une technique de cette architecture, appliquée à une ontologie pour aider à accomplir certains processus d’une organisation. Plus précisément, dans l’axe 2, j’ai traité des approches et outils de conceptualisation semi-automatique d’ontologie et j’ai proposé un cadre pour les comparer. J’ai traité également l’étape de validation d’ontologie, considérée dans mes travaux comme un processus qui devrait se réaliser en parallèle avec la conceptualisation. En outre, à partir de mon expérience en construction d’ontologie dans différents projets, il m’a semblé évident le rôle clé qu’une ontologie noyau pourrait jouer dans ces deux processus (i.e. la conceptualisation et la validation). J’ai donc proposé deux approches de validation d’ontologie dans lesquelles j’ai cherché, d’une part, à coupler la validation à la conceptualisation, et d’autre part à leur intégrer des contraintes générées à partir d’une ontologie noyau formelle. La première approche est basée sur l’identification des problèmes pouvant nuire à la qualité d’une ontologie. J’ai proposé une nouvelle typologie évolutive de ces problèmes ; une liste de dépendances de vérification et correction des problèmes pour optimiser le processus de validation ; des anti-patrons partiels pour l’aide à l’identification des problèmes de « Contradiction sociale »; et une méthode, utilisant des règles inductives, pour l’aide à la correction du problème « Ontologie Plate ». La deuxième approche de validation est appliquée à une ontologie pour l’annotation. Elle utilise des règles générées du méta-modèle d’annotation et/ou d’une ontologie noyau pour guider l’annotation d’un objet avec cette ontologie, enrichir cette ontologie si nécessaire et valider ces deux tâches. Ces deux approches pourraient se fusionner et s’étendre vers une approche semi-automatique de construction et validation intégrées d’ontologie, basée sur une ontologie noyau formelle. Dans l’axe 3, j’ai proposé un cadre unifiant pour la définition de trois familles de mesures
sémantique de comparaison d’objets selon leur annotation par une ontologie. Chaque famille de mesure se distingue par le type d’annotation pris en compte dedans : un objet peut être annoté par un concept unique, un ensemble de concepts ou un graphe sémantique d’une ontologie. Ce cadre unifiant se caractérise par l’utilisation d’une approche similaire pour l’approximation du contenu informationnel apporté par chaque type d’annotation, le contenu informationnel étant un élément principal et commun à la définition de ces trois familles de mesures. Par ailleurs, ce cadre unifiant aide aussi à analyser les résultats des mesures et à choisir une mesure adéquate pour une ontologie et une application données.
Dans mon mémoire de HDR, je présente ces différentes contributions, en les positionnant par rapport à l’évolution des connaissances et par rapport à des travaux connexes de l’état de l’art. Je discute en conclusion la pertinence de mes travaux par rapport aux challenges du web des données et je présente mon projet de recherche et des perspectives liées à ce challenge.

4ème École d’Hiver é-EGC « Social Networks » : formation et conférence

La quatrième École d’Hiver é-EGC, sur le thème « Social Networks », est un évènement organisé par l’Association Extraction et Gestion de Connaissances (EGC).
Cet événement s’organise autour de deux activités principales :
• deux jours de formation : les 22 et 23 janvier 2018
• participation à la conférence EGC2018 : les 24, 25 et 26 janvier 2018

THÈMES DE L’ÉCOLE : LES RÉSEAUX SOCIAUX
Les réseaux sociaux en ligne sont des plates-formes très largement utilisées pour permettre des interactions sociales et professionnelles entre des millions d’utilisateurs à travers le monde. Il n’est pas surprenant qu’à partir de janvier 2016, les sites de réseaux sociaux tels que Facebook, Twitter, Linkedin et Weibo figurent parmi les 20 sites les plus visités sur le Web, d’après Alexa. Les réseaux sociaux en ligne sont une source d’informations précieuse sur les individus, qui attirent de plus en plus l’attention des spécialistes dans différents domaines tels que l’informatique, la politique, l’économie et les sciences sociales. Dans ces différents domaines, on s’intéresse notamment à la détection de communautés dans les graphes d’individus, à la recherche d’experts/leaders dans les groupes sociaux, à la réconciliation de profils mais aussi à la fouille d’opinions.

OBJECTIFS DE L’ÉCOLE
Les deux jours de formation ont pour but principal d’offrir aux participants des tutoriaux d’initiation dans le domaine des réseaux sociaux: notions principales et techniques d’analyses, mais également des tutoriaux plus spécifiques présentant les récentes avancées proposant des solutions et des techniques nouvelles pour les différentes problématiques ayant émergées dans ce domaine, telles que la détection de communautés, la sécurité et la vie privée des utilisateurs, et les réseaux centrés sur l’égo. Les exposés, de 1h30 ou 2h30, couvriront une large gamme des problématiques et des solutions existantes autour de la gestion et de l’analyse de graphes de données sociales. Ces exposés seront associés à des séances plus pratiques afin de permettre aux participants de manipuler les différents outils existants.
La participation à la conférence permettra aux participants de prendre part à un des événements majeurs de la communauté francophone de l’extraction et la gestion de connaissances. Elle leur permettra d’assister à des présentations de nouvelles avancées et approches développées dans la communauté, ceci pouvant ainsi inspirer leurs parcours scientifiques futurs.
Enfin, cette École souhaite offrir aux jeunes chercheurs (doctorants, post-doctorants et ingénieurs) et aux chercheurs confirmés du domaine la possibilité de se rencontrer et d’échanger des idées autour des problématiques et défis abordées dans l’école é-EGC 2018, ce qui devrait également permettre aux jeunes chercheurs d’accroître leur réseau.

PROGRAMME DE L’ÉCOLE
Lundi22/01/2018
08h30 – 09h00 : Bienvenue / Welcome !
09h00 – 10h30 : Arnaud Martin (Université de Rennes 1, IRISA) : “An introduction to social network challenges”
10h00 – 10h30 : Pause café
10h30 – 13h00 : Ernesto Estrada (University of Strathclyde Glasgow) : “Network Analytics: traditional vs modern methods”
13h00 – 14h00 : Déjeuner
14h00 – 15h30 : Oana Goga (LIG, Grenoble) – “Security and privacy aspects of social media systems”
15h30 – 16h00 : Pause café
16h00 – 18h30 : Mauro Sozio (Télécom ParisTech) – “Finding dense subgraphs and communities in real-world graph”

Mardi 23/01/2018
08h30 – 10h00 : Florence Sèdes (Université de Toulouse, IRIT) – “Social networks: all goes to the ego”
10h00 – 10h30 : Pause café
10h30 – 12h00 : Michalis Vazirgiannis (École Polytechnique, LIX) – “Graph degeneracy and applications in social networks”
12h00 – 13h30 : Déjeuner
13h30 – 15h00 : Christine Largeron (Université Jean Monnet, Saint-Etienne, LHC) – “Community detection on attributed network”
15h00 – 15h30 : Pause café
15h30 – 18h00 : Rémy Cazabet (Université de Lyon, LIRIS) – “Community detection in dynamic networks, theoretical and practical aspects”

PUBLIC CONCERNÉ
L’École d’Hiver é-EGC « Social Networks » vise la formation par la recherche et la promotion des recherches dans le domaine des réseaux sociaux.
Elle s’adresse particulièrement aux doctorants et étudiants, de manière générale, désirant approfondir leurs connaissances dans le domaine des réseaux sociaux– et plus particulièrement aux techniques d’analyse des réseaux sociaux, à la détection de communautés, aux problématiques liées à la sécurité et la vie privée, et aux réseaux sociaux centrés utilisateur.

COMITÉ SCIENTIFIQUE ET ORGANISATION
Claudia Marinica (LS2N et ETIS – ENSEA / UCP / CNRS 8051)
• Fatiha Saïs (LRI – Université Paris Sud, CNRS 8623, Université Paris Saclay)
• Christine Largeron (Laboratoire Hubert Curien – Université Jean Monnet de Saint-Etienne, CNRS 5516)
Fabrice Guillet (LS2N – Polytech’Nantes, CNRS 6241)
• Hanene Azzag (LIPN – Université Paris Nord, CNRS 7030)
• Mustapha Lebbah (LIPN – Université Paris Nord, CNRS 7030)
• Dimitris Kotzinos (ETIS – ENSEA / UCP / CNRS 8051)

DATES IMPORTANTES
• Date limite pré-inscriptions (CV à fournir) : 15/11/2017
• Inscription effective (École (formation + conférence EGC), sur le site de la conférence) : 07/12/2016

L’INSCRIPTION SE REALISE EN DEUX ÉTAPES
1/ Les participants doivent manifester leur intérêt, avant le 15/11/2017, pour participer à l’École en s’inscrivant avec ce formulaire.
Pour que la pré-inscription soit prise en compte, elle doit être accompagnée d’un CV récent du participant.
2/ Après la confirmation de la pré-inscription par le comité d’organisation, et avant le 07/12/2017, les participants doivent s’inscrire via la page d’inscription de la conférence EGC-2018 (attention de bien choisir le tarif comprenant l’École).

INSCRIPTIONS
Le nombre total de participants est limité à 30 personnes.
 L’inscription s’élève pour les étudiants à 390€ et elle comprend :
– la participation à l’École d’Hiver (22 et 23 janvier) ;
– la participation à la conférence (24-26 janvier) ;
– les déjeuners et le repas de gala.

Journée d’étude sur l’analyse des savoirs humains dans les environnements numériques

Jeudi 7 décembre, Marc Jahjah (équipe DUKe) organise à la MSH Ange-Guépin une journée d’étude sur l’analyse des savoirs humains dans les environnements numériques.
Des chercheurs/chercheuses en communication, sociologie, anthropologie, linguistique sont attendus pour faire part de leurs terrains et leur méthodologie.

Dans cette journée d’étude, nous nous proposons d’interroger la notion d’ environnement numérique en l’articulant aux enjeux de l’analyse des savoirs humains, dans une approche ouverte, pluridisciplinaire et fraternelle. Plus précisément, nous aimerions comprendre :
1. Quelles opérations matérielles, techniques, corporelles, langagières et affectives les acteurs mobilisent pour donner du sens à/agir sur leurs environnements numériques ;
2. Ce qu’est un « environnement ». Comment prend-il forme, s’organise-t-il matériellement et quelles ressources offrent-ils à l’action des individus appareillés ?
3. Comment les différentes disciplines en SHS enquêtent sur les relations entre les acteurs humains et les « environnements numériques ». Comment les corpus sont-ils constitués
et traités ? Quels outils théoriques sont convoqués ? Y’a-t-il une dimension interdisciplinaire (socio-sémiotique, techno-langagière etc.) ? Comment les concepts d’une discipline sont travaillés, transformés, appropriés par d’autres disciplines ?

Programme de la journée « Analyser les savoirs dans les environnements numériques : approche pluridisciplinaire »

10h-10h15 : Accueil
10h15-11h00 : Marc Jahjah (Maître de conférences en Sciences de l’Information et de la Communication) – Mot de bienvenue, présentation de la journée : « Environnement, milieu, écosystème, cadre…un “air de famille” »
11h00-12h00 : Nadia Elmrabet (consultante en stratégie de communication, Jule21) : « Littératies numériques dans les programmes pédagogiques au Panama »
12h-14h : pause déjeuner
14h-15h : Marion Coville (post-doctorante en sociologie, Télécom ParisTech) – « Les usages des jeux vidéo dans un cadre muséal : articuler les approches socio-techniques et
communicationnelles »
15h-16h00 : Julien Pierre (chercheur en Sciences de l’Information et de la Communication, Audencia) – « Le web affectif »
16h-17h00 : Yosra Ghliss (doctorante en Sciences du langage, Université de Montpellier) – « “Habiter” WhatsApp ? Perspectives et verrous analytiques d’une écologie discursive »
17h-17h30 : Discussions et conclusion de la journée

Copyright : LS2N 2017 - Mentions Légales - 
 -