Powered by OpenAIRE graph
Found an issue? Give us feedback
image/svg+xml art designer at PLoS, modified by Wikipedia users Nina, Beao, JakobVoss, and AnonMoos Open Access logo, converted into svg, designed by PLoS. This version with transparent background. http://commons.wikimedia.org/wiki/File:Open_Access_logo_PLoS_white.svg art designer at PLoS, modified by Wikipedia users Nina, Beao, JakobVoss, and AnonMoos http://www.plos.org/ ZENODOarrow_drop_down
image/svg+xml art designer at PLoS, modified by Wikipedia users Nina, Beao, JakobVoss, and AnonMoos Open Access logo, converted into svg, designed by PLoS. This version with transparent background. http://commons.wikimedia.org/wiki/File:Open_Access_logo_PLoS_white.svg art designer at PLoS, modified by Wikipedia users Nina, Beao, JakobVoss, and AnonMoos http://www.plos.org/
ZENODO
Conference object . 2024
License: CC BY
Data sources: ZENODO
versions View all 1 versions
addClaim

Disambiguierung von Wortbedeutungen aus dem Thesaurus Linguae Latinae mittels Fine-tuning von Latin BERT

Authors: Lendvai, Piroska; Wick, Claudia;

Disambiguierung von Wortbedeutungen aus dem Thesaurus Linguae Latinae mittels Fine-tuning von Latin BERT

Abstract

Der Thesaurus Linguae Latinae (TLL) ist ein umfassendes einsprachiges Wörterbuch, das kontextualisierte Bedeutungen und Verwendungen lateinischer Wörter in antiken Quellen verzeichnet. Wir haben einen neuen Datensatz zum Wortbedeutungsdisambiguierung (Word Sense Disambiguation) erstellt, der auf Bedeutungsdarstellungen im TLL basiert, und haben damit das Latin-BERT-Modell finegetuned. Unsere BERT-Resultate auf TLL-Daten sind besser als mit einem Vergleichsmodell (biLSTM-Architektur mit static embeddings) erzeugte, und ergaben eine höhere und robustere Leistung. Wir diskutieren die Unterschiede der Prinzipien für die Organisation der Bedeutungenzwischen den beiden lexikalischen Ressourcen und berichten über unsere Datensatzkonstruktion und verbesserte Bewertungsmethode.

Keywords

Paper, Sprache, Disambiguierung von Wortbedeutungen, Vortrag, Annotieren, Modellierung, Latin BERT, Umwandlung, Deep Learning, Forschungsergebnis, Lexikalische Ressourcen, DHd2024, WSD, Bereinigung, Sprachmodell

Powered by OpenAIRE graph
Found an issue? Give us feedback