Version imprimable
Chaque séance comprend une présentation théorique et des travaux pratiques

Matin
  • Identification et utilisation des bases de données. Quelle base de données pour quelle recherche ? L’offre publique / privée : panorama des contenus. Recherche de doctrine, de jurisprudence et de législation dans les sources françaises, européennes et étrangères
  • TP : recherches thématiques à partir de questions d’usagers

Après- midi

  • Comprendre ce qu’est un PGD / DMP
  • Connaître et analyser différents modèles de PGD / DMP
  • Identifier les difficultés de rédaction
  • Explorer l’outil de saisie DMP OPIDoR à travers un atelier pratique
Important : cette formation s'adresse prioritairement aux enseignants-chercheurs.
Si les stagiaires sont dans un contexte qui le leur permet, ils peuvent bien sûr venir avec les éléments pour (commencer à) rédiger leur propre plan.

 

(l'ordre de traitement des sujets pourra varier)
  • Présentation du logiciel
  • Installation d'extensions
  • Import et export de données et de traitements
  • Repérage et harmonisation de variantes ou d'anomalies (tris, facettes, clusterisation)
  • Modification de l'organisation générale des données
  • Croisement de plusieurs fichiers
  • Extraction de motifs (introduction aux expressions régulières)
  • Scission de cellules contenant plusieurs valeurs, et regroupement de plusieurs valeurs dans une même cellule

Première partie – 3h

  • Utilisation de la méthode qualitative : rappel (si besoin) et introduction aux CAQDAS et à SONAL
  • Retranscrire
  • Organiser ses données
  • Remplir une base de données
  • Thématiser des entretiens
  • Réaliser des synthèses thématiques

Deuxième partie – 3h

  • Effectuer des analyses chronométriques
  • Analyser et interpréter le temps de parole
  • L’analyse lexicométrique
  • Rappel sur les différentes étapes d’une recherche documentaire ;
  • Spécificités, méthodologie et typologie des outils de recherche d’informations sur internet ;
  • Moteurs de recherche généralistes : Google et les autres (DuckDuckGo, Qwant, Twitter) ;
  • Recherches par type de documents : sites web, images, actualités ;
  • Moteurs de recherche scientifique : Google Scholar et Isidore ;
  • Open access et archives ouvertes ;
  • Thèses ;
  • Evaluation de l’information ;
  • Notions de veille.
  • Les bases théoriques de la statistique lexicale (segmentation, lemmatisation et partition du corpus) et de la méthode Alceste (unités de contexte et classification hiérarchique descendante)
  • Recommandations sur l'installation du logiciel IRaMuTeQ, la configuration requise et les paramètres d’analyse
  • Opérations de codage du corpus
  • Fonctions d’analyse de base : classes de discours, spécificités lexicales, analyse factorielle des correspondances (AFC), segments répétés
  • Possibilités de fonctions avancées selon demande et temps disponible