
La extracción de términos de aspectos (ATE) tiene como objetivo identificar todos los términos de aspectos en una oración y generalmente se modela como un problema de etiquetado de secuencias. Sin embargo, los métodos basados en el etiquetado de secuencias no pueden hacer un uso completo del significado general de toda la oración y tienen la limitación de procesar las dependencias entre las etiquetas. Para abordar estos problemas, primero exploramos para formalizar ATE como una tarea de aprendizaje de secuencia-tosecuencia (Seq2Seq) donde la secuencia fuente y la secuencia objetivo se componen de palabras y etiquetas respectivamente. Al mismo tiempo, para hacer que el traje de aprendizaje Seq2Seq ATE donde las etiquetas corresponden a las palabras una por una, diseñamos las redes de unidades cerradas para incorporar la representación de palabras correspondiente en el decodificador, y la atención consciente de la posición para prestar más atención a las palabras adyacentes de una palabra objetivo. Los resultados experimentales en dos conjuntos de datos muestran que el aprendizaje Seq2Seq es efectivo en ATE junto con nuestras redes de unidades cerradas propuestas y el mecanismo de atención consciente de la posición.
L'extraction de termes d'aspect (ATE) vise à identifier tous les termes d'aspect dans une phrase et est généralement modélisée comme un problème d'étiquetage de séquence. Cependant, les méthodes basées sur l'étiquetage de séquence ne peuvent pas utiliser pleinement le sens global de la phrase entière et ont la limitation dans le traitement des dépendances entre les étiquettes. Pour résoudre ces problèmes, nous explorons d'abord pour formaliser ATE en tant que tâche d'apprentissage séquence-séquence (Seq2Seq) où la séquence source et la séquence cible sont composées de mots et d'étiquettes respectivement. En même temps, pour rendre l'apprentissage Seq2Seq adapté à ATE où les étiquettes correspondent à des mots un par un, nous désignons les réseaux d'unités déclenchées pour incorporer la représentation de mot correspondante dans le décodeur, et l'attention à la position pour accorder plus d'attention aux mots adjacents d'un mot cible. Les résultats expérimentaux sur deux ensembles de données montrent que l'apprentissage Seq2Seq est efficace dans ATE accompagné de nos réseaux d'unités déclenchées proposés et du mécanisme d'attention à la position.
Aspect term extraction (ATE) aims at identifying all aspect terms in a sentence and is usually modeled as a sequence labeling problem.However, sequence labeling based methods cannot make full use of the overall meaning of the whole sentence and have the limitation in processing dependencies between labels.To tackle these problems, we first explore to formalize ATE as a sequence-tosequence (Seq2Seq) learning task where the source sequence and target sequence are composed of words and labels respectively.At the same time, to make Seq2Seq learning suit to ATE where labels correspond to words one by one, we design the gated unit networks to incorporate corresponding word representation into the decoder, and position-aware attention to pay more attention to the adjacent words of a target word.The experimental results on two datasets show that Seq2Seq learning is effective in ATE accompanied with our proposed gated unit networks and position-aware attention mechanism.
يهدف استخراج مصطلح الجانب (ATE) إلى تحديد جميع مصطلحات الجانب في الجملة وعادة ما يتم نمذجته كمشكلة وضع العلامات على التسلسل. ومع ذلك، لا يمكن للطرق القائمة على وضع العلامات على التسلسل الاستفادة الكاملة من المعنى العام للجملة بأكملها ولديها قيود في معالجة التبعيات بين التسميات. لمعالجة هذه المشاكل، نستكشف أولاً إضفاء الطابع الرسمي على EAT كمهمة تعلم تسلسل تسلسلي (Seq2Seq) حيث يتكون تسلسل المصدر والتسلسل المستهدف من الكلمات والتسميات على التوالي. في الوقت نفسه، لجعل Seq2Seq دعوى التعلم لتناول الطعام حيث تتوافق التسميات مع الكلمات واحدة تلو الأخرى، نقوم بتصميم شبكات الوحدة المسورة لدمج تمثيل الكلمات المقابلة في جهاز فك التشفير، والاهتمام بالموقع لإيلاء المزيد من الاهتمام للكلمات المجاورة للكلمة المستهدفة. تظهر النتائج التجريبية على مجموعتين من البيانات أن تعلم Seq2Seq فعال في تناول الطعام مصحوبًا بشبكاتنا المسورة المقترحة وآلية الانتباه إلى الموقف.
Artificial intelligence, Sentence, Sequence-to-Sequence Learning, Meaning (existential), FOS: Political science, Word (group theory), Extraction, FOS: Law, Speech recognition, Sequence learning, Quantum mechanics, Term (time), Systems engineering, Task (project management), Engineering, Artificial Intelligence, Part-of-Speech Tagging, Genetics, Psychology, Sequence labeling, Political science, Biology, Natural Language Processing, Topic Modeling, Natural language processing, Physics, Politics, Linguistics, Statistical Machine Translation and Natural Language Processing, Named Entity Recognition, Computer science, FOS: Philosophy, ethics and religion, Automatic Keyword Extraction from Textual Data, FOS: Psychology, Philosophy, FOS: Biological sciences, Computer Science, Physical Sciences, FOS: Languages and literature, Psychotherapist, Representation (politics), Law, Sequence (biology)
Artificial intelligence, Sentence, Sequence-to-Sequence Learning, Meaning (existential), FOS: Political science, Word (group theory), Extraction, FOS: Law, Speech recognition, Sequence learning, Quantum mechanics, Term (time), Systems engineering, Task (project management), Engineering, Artificial Intelligence, Part-of-Speech Tagging, Genetics, Psychology, Sequence labeling, Political science, Biology, Natural Language Processing, Topic Modeling, Natural language processing, Physics, Politics, Linguistics, Statistical Machine Translation and Natural Language Processing, Named Entity Recognition, Computer science, FOS: Philosophy, ethics and religion, Automatic Keyword Extraction from Textual Data, FOS: Psychology, Philosophy, FOS: Biological sciences, Computer Science, Physical Sciences, FOS: Languages and literature, Psychotherapist, Representation (politics), Law, Sequence (biology)
| selected citations These citations are derived from selected sources. This is an alternative to the "Influence" indicator, which also reflects the overall/total impact of an article in the research community at large, based on the underlying citation network (diachronically). | 62 | |
| popularity This indicator reflects the "current" impact/attention (the "hype") of an article in the research community at large, based on the underlying citation network. | Top 1% | |
| influence This indicator reflects the overall/total impact of an article in the research community at large, based on the underlying citation network (diachronically). | Top 10% | |
| impulse This indicator reflects the initial momentum of an article directly after its publication, based on the underlying citation network. | Top 1% |
