Sidebar

Patrimoine et numérique
  • Accueil
  • Tutoriels
  • Data-visualisations
  • Journées d'études
  • Ressources
    • Fichiers
    • Tags
    • Liens
  • À propos

#39 - Opération "Signatures", ou disséminer des autographes sur Commons, Wikidata et Wikipédia

Détails
22 décembre 2022
Affichages : 2089

Voici une action de dissémination de contenus facile, rapide à mettre en oeuvre, et plutôt satisfaisante en terme de résultats (et de statistiques). L'opération "Signatures"1 vise à numériser et diffuser sur les plateformes Wiki des signatures de personnes plus ou moins VIP croisées dans les fonds d'archives et autres documents patrimoniaux.

Seul·e ou en équipe, le processus est le suivant :

  • repérage d'une signature ne figurant pas sur l'article Wikipédia ou l'élément Wikidata d'une personne ;
  • numérisation (un appareil photo de téléphone fait très bien l'affaire), sans oublier de bien les métadonnées basiques (nom de l'individu, date et cote du document) ;
  • nettoyage rapide de l'image et passage en noir et blanc (ou niveaux de gris) ;
  • mise en ligne de l'image sur Wikimédia Commons, en pensant à la catégoriser (avec, pourquoi pas, une catégorie dédiée, afin de les recenser et d'avoir des statistiques complètes) ;
  • rattachement de la signature à l'élément Wikidata de la personne ;
  • dissémination automatique sur les Wikipédia.

Et c'est ainsi que la signature de Jean Moulin s'est retrouvée, en moins de 5 minutes, correctement positionnée dans les infobox des Wikipédia en gaélique et en grec.

 

39 operation signatures jeanmoulin

Lire la suite : #39 - Opération "Signatures", ou disséminer des autographes sur Commons, Wikidata et Wikipédia
Ecrire un commentaire (0 Commentaires)

Le Parisien chez lui au XIXe siècle, ou reconstituer une exposition sur Commons

Détails
22 décembre 2022
Affichages : 4148

parisien chez lui

Un an après l'opération "70 ans d'expositions aux Archives nationales" sur Wikidata, le contexte sanitaire n'ayant pas beaucoup évolué, l'occasion est parfaite pour tenter une reconstitution de l'une des expositions qui a le plus marché : "Le Parisien chez lui au XIXe siècle", qui a eu lieu en 1976 et 1977.

Armée du catalogue d'exposition, qui liste pas moins de 700 oeuvres (peintures, documents d'archives, estampes), je vais tâcher de catégoriser une partie des documents exposés sur Wikimédia Commons.

Reconstitution partielle car :

  • 700, c'est beaucoup !
  • une bonne partie des oeuvres d'art (à commencer par celle utilisée pour l'affiche et le catalogue), sont issues de collections privées, et donc introuvables en ligne. De très nombreuses pièces proviennent ainsi de la collection Debuisson
  • un grand nombre d'autres font partie de collections publiques (Bibliothèque historique de la Ville de Paris en particulier) mais ne sont pas nécessairement numérisées et (librement) accessibles et réutilisables en ligne.

Néanmoins, c'est l'occasion d'aller à la pêche, de téléverser de nouveaux documents dans Commons (archives, estampe publiées dans des magazines, etc), d'avoir un peu de beau sous les yeux en cette période compliquée, et de redonner un peu de couleurs au catalogue noir et blanc.

 

commons parisien chez lui

 

Pour aller pluis loin

  • Catégorie Le Parisien chez lui au XIXe siècle sur Wikimedia Commons
  • 70 ans d'expositions aux Archives nationales"
  • Requête Wikidata sur les expositions des Archives nationales

Sur la Collection Debuisson :

  • Cohen, Évelyne, et Julie Verlaine. « Paris documenté. Parcours dans la collection Debuisson », Sociétés & Représentations, vol. 33, no. 1, 2012, pp. 183-196, en ligne.
  • Catalogue de la vente aux enchères (2019)
Lire la suite : Le Parisien chez lui au XIXe siècle, ou reconstituer une exposition sur Commons
Ecrire un commentaire (0 Commentaires)

#38 - D'un inventaire PDF à un fichier XML : cas pratique OpenRefine

Détails
22 mai 2020
Affichages : 7800

38 cas pratique openrefineÀ l'occasion d'un récent encodage d'inventaire parfait pour l'exercice et après plusieurs formations partielles et expresses tronquées faute de temps, voici enfin le pas à pas illustré et détaillé du cheminement permettant de passer d'un magnifique inventaire PDF très textuel à un inventaire électronique publiable sur un portail d'archives.

L'inventaire PDF initial faisait 55 pages et concerne un peu plus de 700 descriptions de dossiers, mais le cheminement est identique (et a été éprouvé) pour des contenus de milliers de notices.

Il ne s’agit pas ici de fournir la meilleure ou la plus rapide méthode pour arriver au but. Tout dépend du contenu initial, de la maîtrise de l’outil OpenRefine, et de la façon de penser et de construire des sous-ensembles auxquels appliquer des transformations en masse. Ce cas pratique vise à donner des idées de méthodes et de logiques applicables pour l'encodage et la normalisation de contenus volumineux et sériels.

Enfin, loin de moi l'idée de laisser entendre que l'encodage XML EAD est la solution idéale pour ce genre de données. Les données nettoyées et enrichies dans OpenRefin sont d'ailleurs exportables en différents formats (CSV, JSON, HTML, etc.) et donc facilement réinjectables dans des structures informatiques. Néanmoins, le XML EAD est à l'heure actuelle souvent le seul outil de publication en ligne de contenus archivistiques. Et mieux vaut un inventaire électronique normalisé et interrogeable en recherche qu'un fichier PDF ou Word noyé au fin fond d'un serveur en local ou en ligne.

Le cas pratique se découpe en 4 grandes parties :

  • 1. Transformation du contenu en tableur structuré (diapos 4 à 27) : c'est la phase la plus longue (environ deux grosses heures sur le jeu de données utilisé) ;
  • 2. Harmonisation et enrichissement (diapos 28 à 41) : environ une heure pour homogénéiser le contenu, corriger les coquilles voire enrichir les données d'origine ;
  • 3. Exporter en XML EAD (diapos 42 à 46) : selon l'aisance avec le schéma XML EAD, pas plus de 15 et 30 minutes
  • 4. Des pistes pour aller plus loin... (diapos 47 à 50) : pour le plaisir, quelques idées pour aller encore plus loin, en indexant en masse à partir de référentiel, en utilisant les données pour faire des statistiques ou de la réconciliation avec Wikidata pour enrichir les contenus.

 

38 cas pratique openrefine page1

Télécharger le PDF

 

Côté ressources, je renvoie vers le tutoriel pense-bête OpenRefine, "Excel aux hormones" publié sur ce site et régulièrement mis à jour,  ainsi que les sites suivants :

  • Mathieu Saby, Nettoyer et préparer des données avec OpenRefine (BULAC, mise à jour 2019)
  • Ettore Rizza, Tutoriels vidéos (en français)
  • Maïwenn Bourdic, Atelier OpenRefine - Forum des Archives 2019 (avec jeu de données exemple et captures d'écran pas à pas)
  • Maïwenn Bourdic, Atelier OpenRefine et Wikidata (2019, journées Wikimédia Culture et numérique)
Ecrire un commentaire (0 Commentaires)

Wikidata et les archives (1) - 70 ans d'expositions aux Archives nationales

Détails
17 avril 2020
Affichages : 6727

Profitons de ces temps de confinement pour réveiller (déconfiner ?) ce site un peu endormi... alors même les activités numériques parallèles ne manquent pas ! Ces dernières années, j'ai notamment investi Wikidata à travers différents projets archivistico-professionnalo-personnels :

  • renseignement de la propriété "archivé par" (P485 pour les intimes), en particulier dans le cadre du concours organisé lors du forum de l'AAF en 2019 ;
  • consolidation de données pour une liste d'autorité des architectes diocésains, à la fois en récupérant des informations de Wikidata (données biographiques, identifiant BNF, Leonore, etc.) et en y rajoutant de nouveaux éléments (données biographiques manquantes, fonctions, ajout de signatures) (Archives nationales ; voir la requête en ligne sur Wikidata) ;
  • ajout en masse des identifiants RSN manquants pour les services d'archives à partir des données disponibles sur data.culturecommunication, création en masse des services d'archives communaux et régionaux inexistants
  • création d'éléments et insertion des métadonnées descriptives de documents figurés téléversés sur Commons (travaux de restauration des cathédrales au XIXe siècle (Archives nationales ; voir la requête en ligne sur Wikidata) ;
  • et tout frais, tout neuf : 70 ans d'expositions aux Archives nationales (voir la requête en ligne sur Wikidata) .
Lire la suite : Wikidata et les archives (1) - 70 ans d'expositions aux Archives nationales
Ecrire un commentaire (0 Commentaires)

#37 - Faire une carte avec Umap

Détails
25 juin 2017
Affichages : 25969

37 creer carte umapUmap est un logiciel de cartographie opensource qui utilise les fonds de cartes OpenStreetMap. Accessible directement sur Internet, il permet de créer et partager toute sorte de cartes, de les enregistrer en ligne et d'importer / exporter les données dans des formats ouverts.

Avant de commencer, voici quelques exemples concrets des possibilités de Umap : carte historique de la presqu'île de Crozon, Paris en autochromes, Angers avant-après (en bas de page), Documents figurés des travaux de restauration des cathédrales au XIXe siècle, Trombinoscope d'anarchistes français (fin XIXe siècle).

37 umap exemple

 

Lire la suite : #37 - Faire une carte avec Umap
Ecrire un commentaire (0 Commentaires)

Plus d'articles...

  1. #36 - OpenRefine, "Excel aux hormones" pour nettoyage de données
  2. #35 - Gérer son compte Twitter avec Tweetdeck
Page 1 sur 7
  • Début
  • Précédent
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • Suivant
  • Fin

Derniers articles

  • #39 - Opération "Signatures", ou disséminer des autographes sur Commons, Wikidata et Wikipédia
  • Le Parisien chez lui au XIXe siècle, ou reconstituer une exposition sur Commons
  • #38 - D'un inventaire PDF à un fichier XML : cas pratique OpenRefine
  • Wikidata et les archives (1) - 70 ans d'expositions aux Archives nationales
  • #37 - Faire une carte avec Umap
  • #36 - OpenRefine, "Excel aux hormones" pour nettoyage de données
  • #35 - Gérer son compte Twitter avec Tweetdeck
  • #34 - Programmer une publication sur une page Facebook

Mots-clés

valorisation (8) médiation (7) couper (1) crowdsourcing (2) public (2) FramaForms (1) blog (1) réutilisation (2) vidéo (1) embed code (4) Word (2) datasprint (2) travail collaboratif (3) médias (4) Google (2) capture d'image (1) référencement (1) date (2) Paint (1) Framasoft (4)

Patrimoine et numérique - Licence Creative Commons - à propos | Plan du site | Contact | Twitter

Bootstrap is a front-end framework of Twitter, Inc. Code licensed under MIT License. Font Awesome font licensed under SIL OFL 1.1.