Sidebar

Patrimoine et numérique
  • Accueil
  • Tutoriels
  • Data-visualisations
  • Journées d'études
  • Ressources
    • Fichiers
    • Tags
    • Liens
  • À propos

Le Parisien chez lui au XIXe siècle, ou reconstituer une exposition sur Commons

Détails
22 décembre 2022
Affichages : 4717

parisien chez lui

Un an après l'opération "70 ans d'expositions aux Archives nationales" sur Wikidata, le contexte sanitaire n'ayant pas beaucoup évolué, l'occasion est parfaite pour tenter une reconstitution de l'une des expositions qui a le plus marché : "Le Parisien chez lui au XIXe siècle", qui a eu lieu en 1976 et 1977.

Armée du catalogue d'exposition, qui liste pas moins de 700 oeuvres (peintures, documents d'archives, estampes), je vais tâcher de catégoriser une partie des documents exposés sur Wikimédia Commons.

Reconstitution partielle car :

  • 700, c'est beaucoup !
  • une bonne partie des oeuvres d'art (à commencer par celle utilisée pour l'affiche et le catalogue), sont issues de collections privées, et donc introuvables en ligne. De très nombreuses pièces proviennent ainsi de la collection Debuisson
  • un grand nombre d'autres font partie de collections publiques (Bibliothèque historique de la Ville de Paris en particulier) mais ne sont pas nécessairement numérisées et (librement) accessibles et réutilisables en ligne.

Néanmoins, c'est l'occasion d'aller à la pêche, de téléverser de nouveaux documents dans Commons (archives, estampe publiées dans des magazines, etc), d'avoir un peu de beau sous les yeux en cette période compliquée, et de redonner un peu de couleurs au catalogue noir et blanc.

 

commons parisien chez lui

 

Pour aller pluis loin

  • Catégorie Le Parisien chez lui au XIXe siècle sur Wikimedia Commons
  • 70 ans d'expositions aux Archives nationales"
  • Requête Wikidata sur les expositions des Archives nationales

Sur la Collection Debuisson :

  • Cohen, Évelyne, et Julie Verlaine. « Paris documenté. Parcours dans la collection Debuisson », Sociétés & Représentations, vol. 33, no. 1, 2012, pp. 183-196, en ligne.
  • Catalogue de la vente aux enchères (2019)
Lire la suite : Le Parisien chez lui au XIXe siècle, ou reconstituer une exposition sur Commons
Ecrire un commentaire (0 Commentaires)

#38 - D'un inventaire PDF à un fichier XML : cas pratique OpenRefine

Détails
22 mai 2020
Affichages : 8378

38 cas pratique openrefineÀ l'occasion d'un récent encodage d'inventaire parfait pour l'exercice et après plusieurs formations partielles et expresses tronquées faute de temps, voici enfin le pas à pas illustré et détaillé du cheminement permettant de passer d'un magnifique inventaire PDF très textuel à un inventaire électronique publiable sur un portail d'archives.

L'inventaire PDF initial faisait 55 pages et concerne un peu plus de 700 descriptions de dossiers, mais le cheminement est identique (et a été éprouvé) pour des contenus de milliers de notices.

Il ne s’agit pas ici de fournir la meilleure ou la plus rapide méthode pour arriver au but. Tout dépend du contenu initial, de la maîtrise de l’outil OpenRefine, et de la façon de penser et de construire des sous-ensembles auxquels appliquer des transformations en masse. Ce cas pratique vise à donner des idées de méthodes et de logiques applicables pour l'encodage et la normalisation de contenus volumineux et sériels.

Enfin, loin de moi l'idée de laisser entendre que l'encodage XML EAD est la solution idéale pour ce genre de données. Les données nettoyées et enrichies dans OpenRefin sont d'ailleurs exportables en différents formats (CSV, JSON, HTML, etc.) et donc facilement réinjectables dans des structures informatiques. Néanmoins, le XML EAD est à l'heure actuelle souvent le seul outil de publication en ligne de contenus archivistiques. Et mieux vaut un inventaire électronique normalisé et interrogeable en recherche qu'un fichier PDF ou Word noyé au fin fond d'un serveur en local ou en ligne.

Le cas pratique se découpe en 4 grandes parties :

  • 1. Transformation du contenu en tableur structuré (diapos 4 à 27) : c'est la phase la plus longue (environ deux grosses heures sur le jeu de données utilisé) ;
  • 2. Harmonisation et enrichissement (diapos 28 à 41) : environ une heure pour homogénéiser le contenu, corriger les coquilles voire enrichir les données d'origine ;
  • 3. Exporter en XML EAD (diapos 42 à 46) : selon l'aisance avec le schéma XML EAD, pas plus de 15 et 30 minutes
  • 4. Des pistes pour aller plus loin... (diapos 47 à 50) : pour le plaisir, quelques idées pour aller encore plus loin, en indexant en masse à partir de référentiel, en utilisant les données pour faire des statistiques ou de la réconciliation avec Wikidata pour enrichir les contenus.

 

38 cas pratique openrefine page1

Télécharger le PDF

 

Côté ressources, je renvoie vers le tutoriel pense-bête OpenRefine, "Excel aux hormones" publié sur ce site et régulièrement mis à jour,  ainsi que les sites suivants :

  • Mathieu Saby, Nettoyer et préparer des données avec OpenRefine (BULAC, mise à jour 2019)
  • Ettore Rizza, Tutoriels vidéos (en français)
  • Maïwenn Bourdic, Atelier OpenRefine - Forum des Archives 2019 (avec jeu de données exemple et captures d'écran pas à pas)
  • Maïwenn Bourdic, Atelier OpenRefine et Wikidata (2019, journées Wikimédia Culture et numérique)
Ecrire un commentaire (1 Commentaire)

Wikidata et les archives (1) - 70 ans d'expositions aux Archives nationales

Détails
17 avril 2020
Affichages : 7401

Profitons de ces temps de confinement pour réveiller (déconfiner ?) ce site un peu endormi... alors même les activités numériques parallèles ne manquent pas ! Ces dernières années, j'ai notamment investi Wikidata à travers différents projets archivistico-professionnalo-personnels :

  • renseignement de la propriété "archivé par" (P485 pour les intimes), en particulier dans le cadre du concours organisé lors du forum de l'AAF en 2019 ;
  • consolidation de données pour une liste d'autorité des architectes diocésains, à la fois en récupérant des informations de Wikidata (données biographiques, identifiant BNF, Leonore, etc.) et en y rajoutant de nouveaux éléments (données biographiques manquantes, fonctions, ajout de signatures) (Archives nationales ; voir la requête en ligne sur Wikidata) ;
  • ajout en masse des identifiants RSN manquants pour les services d'archives à partir des données disponibles sur data.culturecommunication, création en masse des services d'archives communaux et régionaux inexistants
  • création d'éléments et insertion des métadonnées descriptives de documents figurés téléversés sur Commons (travaux de restauration des cathédrales au XIXe siècle (Archives nationales ; voir la requête en ligne sur Wikidata) ;
  • et tout frais, tout neuf : 70 ans d'expositions aux Archives nationales (voir la requête en ligne sur Wikidata) .
Lire la suite : Wikidata et les archives (1) - 70 ans d'expositions aux Archives nationales
Ecrire un commentaire (0 Commentaires)

#37 - Faire une carte avec Umap

Détails
25 juin 2017
Affichages : 27197

37 creer carte umapUmap est un logiciel de cartographie opensource qui utilise les fonds de cartes OpenStreetMap. Accessible directement sur Internet, il permet de créer et partager toute sorte de cartes, de les enregistrer en ligne et d'importer / exporter les données dans des formats ouverts.

Avant de commencer, voici quelques exemples concrets des possibilités de Umap : carte historique de la presqu'île de Crozon, Paris en autochromes, Angers avant-après (en bas de page), Documents figurés des travaux de restauration des cathédrales au XIXe siècle, Trombinoscope d'anarchistes français (fin XIXe siècle).

37 umap exemple

 

Lire la suite : #37 - Faire une carte avec Umap
Ecrire un commentaire (0 Commentaires)

#36 - OpenRefine, "Excel aux hormones" pour nettoyage de données

Détails
12 avril 2017
Affichages : 30167

36 openrefine 1Rechercher/remplacer par, faire des filtres, des tris, voire des macros, c'est sympa, mais souvent très long, fastidieux, et parfois frustrant. Alors jetez-vous sur OpenRefine, "Excel aux hormones" selon l'excellente expression d'Antoine Courtin.

Testé et adopté à l'occasion du datasprint des archives, OpenRefine permet de faire extrêmement vite (et très bien) des nettoyages, des harmonisations et des enrichissements de données, en masse !

Même si l'essentiel de la documentation est en anglais, l'outil est utilisable en français et manipulable assez rapidement. Point non négligeable quand on travaille en collectivité sur des réseaux informatiques très verrouillés : il suffit d'avoir téléchargé le logiciel sur une clé USB, de glisser le répertoire sur son ordinateur et d'ouvrir le fichier exécutable pour l'utiliser (même sans droit administrateur).

Pour ma part, je me suis d'abord contentée de visualiser les 3 vidéos ci-dessous (en anglais, mais elles valent le coup d'oeil, juste pour avoir une idée de l'immensité des possibles)... avant de me jeter dans le bain, de tâtonner et de chercher au fur et à mesure des besoins.

Pour l'histoire rapide, l'outil a initialement été développé en open-source, puis soutenu par Google (d'où l'existence de versions Google Refine, de 2010 à 2012) puis de nouveau entièrement ouvert.

En plus d'être un peu didactique, le tutoriel ci-dessous est surtout un pense-bête personnel mais partagé, amené à s'enrichir régulièrement, pour garder sous la main les formules plus ou moins alambiquées trouvées parfois au bout de longues recherches et d'essais plus ou moins fructueux.

 

 

Webographie succincte

  • Site officiel
  • Documentation officielle (la Bible des formules, en anglais)
  • Thomas Padilla, Démarrer avec OpenRefine (en anglais)
  • INRA, tutoriel GoogleRefine (en français)
  • Mathieu Saby, Mini site tutoriel Openrefine (en français)
  • Mathieu Saby, Nettoyer et préparer des données avec OpenRefine (URFIST PACA, en français) ; Nettoyer et préparer des données avec OpenRefine (BULAC, mise à jour 2019)
  • Ettore Rizza, Tutoriels vidéos (en français)
  • Antoine Courtin, Pense-bête OpenRefine (en français)
  • Maïwenn Bourdic, Atelier OpenRefine - Forum des Archives 2019 (avec jeu de données exemple et captures d'écran pas à pas)
  • Maïwenn Bourdic, Atelier OpenRefine et Wikidata (2019, journées Wikimédia Culture et numérique)
  • Maïwenn Bourdic, Projet Datasprint - Permis de construire de Rennes (2016, avec nettoyage de données) (en français)
  • RefinePro knowledge base, plein de formules magiques (en anglais)
  • Enipedia, tutoriel OpenRefine (en anglais)
  • School of data, tutoriel OpenRefine (en anglais)
  • Library Carpentry, tutoriel OpenRefine (en anglais)
  • Online Journalism, Convertir du XML ou JSON en tableur (en anglais)

 

Lire la suite : #36 - OpenRefine, "Excel aux hormones" pour nettoyage de données
Ecrire un commentaire (0 Commentaires)

Plus d'articles...

  1. #35 - Gérer son compte Twitter avec Tweetdeck
  2. #34 - Programmer une publication sur une page Facebook
Page 2 sur 9
  • Début
  • Précédent
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • Suivant
  • Fin

Derniers articles

  • Des gens et des archives... à propos de l'identifiant FranceArchives Agent (sur Wikidata)
  • #43 - Coucou Mastodon
  • "Do you SPARQL ?" - Compilation de requêtes patrimoniales et culturelles sur Wikidata
  • #42 - Cat-a-lot, outil pour catégoriser en masse des (ses) médias sur Wikimédia Commons
  • #41 - Où sont les femmes ? ou comment genrer nos données patrimoniales
  • #40 - Utiliser les expressions régulières ("regex")
  • Archives et open data : les jeux de données
  • Archives et open data : frise chronologique

Mots-clés

copier (2) nommage (1) automatiser (2) Le Maitron (1) archives départementales des Côtes-d'Armor (2) URL (3) valorisation (10) médias (5) datasprint (2) réseaux sociaux (4) FramaForms (1) dataviz (9) raccourci clavier (2) fichiers volumineux (2) médiation numérique (3) Wikipédia (5) couper (1) outils (1) Zip (1) public (4)

Patrimoine et numérique - Licence Creative Commons - à propos | Plan du site | Contact | rss 48Flux RSS
 

Bootstrap is a front-end framework of Twitter, Inc. Code licensed under MIT License. Font Awesome font licensed under SIL OFL 1.1.