mastodon.gamedev.place is one of the many independent Mastodon servers you can use to participate in the fediverse.
Mastodon server focused on game development and related topics.

Server stats:

5.1K
active users

#Dhd2025

1 post1 participant0 posts today
Continued thread

In einem gemeinsamen Workshop der Konsortien @NFDI4Memory , @nfdi4objects und @Textplus auf der #DHd2025 wurde anhand konkreter Use Cases eine Einführung in #DublinCore, #TEI und #LIDO vermittelt, die Bedeutung von #Normdaten und #Terminologien betont und die #Minimaldatensatz-Empfehlung für #Museen und #Sammungen vorgestellt. Die Folien finden sich bei Zenodo: zenodo.org/records/15052040

#FAIR #CARE #NFDI #Text+ #NFDI4Memory #NFDI4Objects #Datenharmonisierung #Datenqualitaet 2/2

ZenodoQualitativ hochwertige Metadaten in digitalen EditionenMaterialien zum Workshop "Qualitativ hochwertige Metadaten in digitalen Editionen“, der im Rahmen der „DHd 2025: Under Construction“ in Bielefeld von Mitarbeiter:innen der NFDI-Konsortien Text+, NFDI4Memory, NFDI4Objects, der Verbundzentrale des GBV und dem Institut für Museumsforschung gehalten wurde. Ziel des Workshops war die praxisnahe Vermittlung von Wissen zur Bewertung und Verbesserung der Qualität von Metadaten in digitalen Editionen. Ausgehend von konkreten Fallbeispielen in Form verschiedener Überlieferungssituationen von Briefen (neu zu erschließen, Abschrift, indirekter Hinweis) wurden die Problemfelder aufgerissen, die hinsichtlich der Beschreibung der verschiedenen Arten von Metadaten auftreten können. Drei Übungsblöcken waren jeweils kurze thematischen Einführungen zu den Basisthemen Metadaten, Normdaten und kontrollierten Vokabularen, Dublin Core, LIDO sowie Datenqualität und Datenkuratierung vorangestellt. In den Praxisübungen arbeiteten die Teilnehmer:innen in Gruppen oder eigenständig mit den Metadaten-Standards Dublin Core, LIDO und TEI-XML. Die Übungen zielten darauf ab, die Erstellung von Metadatensets, auch anhand von Metadateneditoren, zu erproben und aus der eigenen Erfahrung Methoden zur Bewertung der Qualität und zur Bereinigung eigener bzw. bereits vorhandener Metadatensets zu entwickeln.

Jetzt könnte noch einmal so ein Karnevals-Tusch mit der Mundharmonika gespielt werden, extra für mich, die gerade in einer leicht (oder schwer) veralteten Version von Audacity den fertigen Rohschnitt der #DHd2025-Podcast-Folge verloren hat... Ich glaub' es gerade nicht! Ich glaub es gerade niiiiicht...!!!1!11!!

Post #dhd2025 we've made a big push to add more models to EU OSAI. We're now at >125 models and counting, including 20 code models osai-index.eu/the-index?type=c #LLMs

if you are interested in breaking big tech monopolies, contributing to critical AI literacy and building transparant and reproducible pipelines, no better way than voting with your feet

European Open Source AI IndexOpen Source Generative AI Index: openness leaderboardEvidence-based assessment of Generative AI openness: a comprehensive index comparing LLMs, text-to-image models, audio, and other Generative AI models
Continued thread

@NFDI4Memory @DigitalHistory @DHd

Ich habe jetzt noch eine kleine Kartenansicht mit klickbaren Links zu den Mastodonaccounts gebastelt: query-main.wikidata.org/embed.

Continued thread

Hab ein bisschen darüber nachgedacht und hier meine Antwort: das geht aus grundsätzlichen Gründen nicht!

Die Chat-LLMs, die jede natürlichsprachliche Anweisung zu verstehen scheinen, machen nämlich genau das *nicht*: einer Anweisung folgen. Sie plappern nur vor sich hin und sehen halt zu, dass das Geplapper gut an das anschließt, was bisher so geplappert wurde.

Weil ihr Trainingsmaterial viel Dialog umfasst, sieht es dann so aus, als würden sie dialogische Anweisungen und Intentionen verstehen, eigene Intentionen als Reaktion entwickeln und dann artikulieren. Aber sie "vervollständigen" nur ein in der Form des Dialogs verfasstes Dokument.

Das "Eingehen" auf die Aufforderung (um nicht zu sagen: das Verständnis des Tasks) ist also Teil der textgenerativen Funktion und nicht vom Prozessieren, der Ausgabe und den Halluzinationen abtrennbar.

D.h. schlechte Nachricht: Ohne GenAI/autoregression muss man für jeden Task extra Finetunen!

Oder seht ihr das anders?

#LLM (post-) #DHd2025