Il fait un temps à faire du #OpenRefine ! Objectif : transformer mon support de formation #zenodo en autoformation #moodle
Il fait un temps à faire du #OpenRefine ! Objectif : transformer mon support de formation #zenodo en autoformation #moodle
lors de #LibreABC2025
Instructif atelier sur les fonctions avancées de #OpenRefine donné par @timtom et @liowalter
Sujets :
- Enrichissement via reconciliation
- Enrichissement via API
- Enrichisssement via HTML (avec post-traitement #LLM/#IA)
Présentation : https://github.com/liowalter/open-refine-libreabc2025
6/n
@pintoch
[#openrefine]
bonjour
je ne suis pas très à l'aise avec les contributions github, alors je me permets un contact ici. J'ai le même souci de connexion wikibase qu'ici https://github.com/OpenRefine/OpenRefine/issues/7383
Mais uniquement avec mon compte pro qui contient des espaces dans le username (Archives nationales DJI). Pas avec mon compte perso sans espace. Si jamais ça peut servir pour identifier le blocage..
Bien cordialement,
Maïwenn
If your European academic place of work does not allow you to install #OpenRefine on your computer, but you do have access to the "#EOSC EU Node", you can now install OpenRefine in the EOSC EU Node container platform from the Tools Hub: https://open-science-cloud.ec.europa.eu/dashboard/tools-hub/tool-view?eo=MjEuMTExNjcvbzhKcjhH
Yes, that is quite a hassle, and there is no authentication, but it works as a last resort.
Reconcile data against Omeka S with Open Refine
https://katharinabrunner.de/2025/08/reconcile-data-against-omeka-s-with-open-refine/
Tipps & Tricks für die erfolgreiche Nutzung von Tools zum Einsatz der #GND im Archiv“ – die neue Handreichung der IG Archiv steht zur Verfügung: https://wiki.dnb.de/x/IwXWGQ
SODa InfoSnack #1: OpenRefine für die Datenbereinigung
Gefangen im Datensturm? Mit Excel fast am kentern? Mit diesem Tool schafft ihr euch Durchblick im Datenmeer:
OpenRefine ist der Rettungsring nach dem Datenschiffbruch & wir holen euch mit unserem Tutorial auf die MS SODa
:
Anleitungen & Übungen zu OpenRefine:
https://sammlungen.io/kb/daten-check-mit-openrefine?utm_campaign=coschedule&utm_source=mastodon&utm_medium=SODa%40fedihum.org
Für Fortgeschrittene haben wir ein kleines Cheat Sheet mit GREL Ausdrücken angefügt.
cont.:
"Working with collection partners and archives, this requires a working knowledge of #OpenRefine for data transformations and a basic knowledge of HTML, XML, and JSON to enrich existing metadata and fill in gaps where needed. Subject matter expertise in any particular field, as well as primary, secondary, or higher education would be enormously useful, and ideally also a working understanding of WCAG and digital accessibility best practices."
2/3
Need a #free tool to handle messy #data?
@OpenRefine runs locally and is trusted by journalists, researchers, & contributors worldwide.
See how this #opensource tool empowers a global community: https://lpi.org/0f1n
#LPI #FOSS #OpenRefine #opensource #datacleaning #dataprivacy #BSD #Wikidata @wikidata
#OpenRefine 2025 #Barcamp Registrations are LIVE!
We're excited to announce the OpenRefine 2025 Barcamp, a fully virtual, community-driven event happening September 8–11, 2025. This is your chance to shape the agenda, share your expertise, and connect with fellow OpenRefine users, trainers, and developers worldwide.
Register now: https://forms.gle/z2zdAjB2RDiGfUJYA
Learn how to propose a session: https://bit.ly/4kTJ0sk Full details: https://openrefine.org/blog/2025/06/10/OpenRefine-2025-Barcamp
Don’t miss out, be part of the conversation
Elle enrichit les informations à partir du fichier #INSEE des décès, des listes existantes dans #wikipedia, d'un annuaire, du JO...
Les données sont mises à jour en fonction des décès et des nouveaux dossiers de carrière qui arrivent aux #ArchivesNationales
Elle utilise principalement #OpenRefine
Les limites : pas de dates précises pour la prise de fonction mais seulement l'année, prédécesseur et successeur à compléter, extension à d'autres fonctionnaires.
Et c'est ici ! https://commons.m.wikimedia.org/wiki/Commons:OpenRefine/fr
RT https://mastodon.gougere.fr/@Athenenoctua/114693120090940725
@Athenenoctua - @lyokoi @dmontagne @Poslovitch
Par quoi remplacer pattypan ? A été repris et mis à jour, mais #wikicommons a une wikibase associée qui ne peut être complétée par pattypan.
En revanche, #OpenRefine permet d'intégrer les données dans cette base, en demandant un alignement plus poussé en amont.
Delphine Montagne en a traduit le mode d'emploi
@lyokoi @dmontagne @Poslovitch
Par quoi remplacer pattypan ? A été repris et mis à jour, mais #wikicommons a une wikibase associée qui ne peut être complétée par pattypan.
En revanche, #OpenRefine permet d'intégrer les données dans cette base, en demandant un alignement plus poussé en amont.
Delphine Montagne en a traduit le mode d'emploi
An #OpenRefine extension you probably don't need:
OpenRefine Hex Colors - renders hex colors inside of cells.
Taucht ein in die Welt der #Kulturdaten der #StabiBerlin! Das Datencafé des #StabiLabs ist ein offener Raum zum Ausprobieren, Analysieren und Experimentieren. Heute, um 10 Uhr, geht es los mit dem #Crashkurs #OpenRefine und Schnittstellen in 30 Minuten. Alle Infos https://blog.sbb.berlin/termin/datencafe-2-6-25/
@dmontagne
Plusieurs cas :
- la personne est créée dans #wikidata et matche automatiquement
- la personne est créée mais il y a ambiguïté : on peut vérifier avec ses identifiants Isni, BNF, sudoc...
- la personne n'est pas créée : elle peut l'être lors de l'import des données.
Avant d'importer, on peut genrer en travaillant sur la base prénoms d'#OpenRefine et en affinant manuellement.
Il faut ensuite construire le schéma d'import dans #wikidata avec les champs, propriétés et déclarations.
@dmontagne présente les origines d'#OpenRefine, ses avantages et l'enrichissement des données dans #wikidata sur les #JO2024.
Passage à la démo à partir du prix de #poésie Roger Kowalski, un des plus anciens prix littéraires en France qui est #lyonnais
38 données à importer, nettoyer avec les filtres et différentes fonctions d'édition : très intuitif !
Elle fait ensuite correspondre (réconcilier) les données avec #wikidata
#JdLL2025 C'est parti avec la conférence de @dmontagne sur #OpenRefine
Hast du Fragen zu OpenRefine & brauchst Unterstützung bei deinen Projekten? Dann komm zu unserer regelmäßigen OpenRefine Sprechstunde!
Wann?
Do. 22.05. 15:00 – 16:00 Uhr Wo?
Online
Nutzt die Gelegenheit, um eure Fragen zu klären, Tipps zu erhalten oder gemeinsam an euren Datenprojekten zu arbeiten.
Alle Infos & Link: https://sammlungen.io/termine/openrefine-sprechstunde?utm_campaign=coschedule&utm_source=mastodon&utm_medium=SODa%40fedihum.org
#SODaZentrum #OpenRefine #Dataquality #DataLiteracy
die DDB-ID lässt sich über die provider-id und die provider-item-id (also z.B. die Datensatz-ID des Datengebers) generieren (Verfahren ist hier demonstriert: https://labs.deutsche-digitale-bibliothek.de/app/ddbidgen/). Das lässt sich sogar in #OpenRefine nachbauen. Damit kann man seinen DDB-Export parallel auch nach #Wikidata laden.