
Стаття доповнює наявні дослідження на тему виявлення пропаганди за допомогою великих мовних моделей, вивчаючи декілька підходів до формулювання задачі та їх використання з різними моделями, зокрема, GPT-4o mini and Gemma / Gemma 2, ставлячи за мету знаходження найбільш ефективного підходу. Використовуючи комбінацію двох текстових корпусів англійською та російсь-кою мовами з 18-ма техніками пропаганди, було доналаштовано моделі на символьній, фразовій та класифікаційній варіації набору даних з відповідними інструкціями, щоб визначити, яка з інструкцій приносить найкращі результати. Було проведено експерименти та порівняно результати на завданнях класифікації, ідентифікації проміжків та об’єднаному завданні, та продемонстровано явну перевагу підходу на основі фраз над підходом на основі символьних проміжків. Окрім того, отримані дані показують, що точне налаштування значно покращило ефективність моделей на завданні ідентифікації проміжків та об’єднаному завданні, водночас надаючи обмеже-ний ефект для самостійної задачі класифікації. Бібл. 12, іл. 3, табл. 5
This paper extends existing studies on propaganda detection using large language models by examining several approaches to task formulation and applying them on different LLMs, namely, GPT-4o mini and Gemma / Gemma 2, aiming to find the most effective approach. Using a combination of two text corpora in English and Russian languages with 18 propaganda techniques, we fine-tune models on character-based, phrase-based and classification-only variations of this dataset with corresponding instructions to define which instruction yields the best performance. We conducted experiments and evaluated performance across classification, span identification, and joint tasks, demonstrating the clear superiority of the phrase-based approach over the character-based one. At the same time, our findings indicate that fine-tuning significantly improved model performance on span identification and joint tasks, while offering limited benefit for the classification task alone. Ref. 12, pic. 3, tabl. 5
обробка природної мови, propaganda detection, Large Language Models, fine tuning, великі мовні моделі, точне налаштування, propaganda techniques, natural language processing, методи пропаганди, виявлення пропаганди
обробка природної мови, propaganda detection, Large Language Models, fine tuning, великі мовні моделі, точне налаштування, propaganda techniques, natural language processing, методи пропаганди, виявлення пропаганди
| selected citations These citations are derived from selected sources. This is an alternative to the "Influence" indicator, which also reflects the overall/total impact of an article in the research community at large, based on the underlying citation network (diachronically). | 0 | |
| popularity This indicator reflects the "current" impact/attention (the "hype") of an article in the research community at large, based on the underlying citation network. | Average | |
| influence This indicator reflects the overall/total impact of an article in the research community at large, based on the underlying citation network (diachronically). | Average | |
| impulse This indicator reflects the initial momentum of an article directly after its publication, based on the underlying citation network. | Average |
