
La prévision des séries chronologiques est l'un des sujets de recherche les plus actifs en intelligence artificielle. Les applications dans les séries chronologiques du monde réel doivent prendre en compte deux facteurs pour obtenir des prédictions fiables : la modélisation des dépendances dynamiques entre plusieurs variables et l'ajustement des hyperparamètres intrinsèques du modèle. Une lacune encore ouverte dans cette littérature est que les approches statistiques et d'apprentissage d'ensemble présentent systématiquement des performances prédictives plus faibles que les méthodes d'apprentissage en profondeur. Ils ne tiennent généralement pas compte de l'aspect séquence de données enchevêtré avec des données multivariées représentées dans plus d'une série temporelle. Inversement, ce travail présente une nouvelle architecture de réseau neuronal pour la prévision de séries temporelles qui combine la puissance de l'évolution des graphes avec un apprentissage récurrent profond sur des distributions de données distinctes ; nous avons nommé notre méthode Recurrent Graph Evolution Neural Network (ReGENN). L'idée est d'inférer de multiples relations multivariées entre les séries temporelles co-occurrentes en supposant que les données temporelles dépendent non seulement des variables internes et des relations intra-temporelles (c'est-à-dire les observations d'elles-mêmes), mais aussi des variables externes et des relations intertemporelles (c'est-à-dire les observations d'autrui). Un vaste ensemble d'expériences a été mené en comparant ReGENN à des dizaines de méthodes d'ensemble et de méthodes statistiques classiques, montrant une amélioration sonore allant jusqu'à 64,87 % par rapport aux algorithmes concurrents. En outre, nous présentons une analyse des pondérations intermédiaires découlant de ReGENN, montrant qu'en examinant simultanément les relations inter et intra-temporelles, la prévision des séries temporelles est considérablement améliorée si l'on tient compte de l'évolution synchrone de plusieurs données multivariées.
El pronóstico de series de tiempo es uno de los temas de investigación más activos en inteligencia artificial. Las aplicaciones en series temporales del mundo real deben considerar dos factores para lograr predicciones confiables: modelar dependencias dinámicas entre múltiples variables y ajustar los hiperparámetros intrínsecos del modelo. Una brecha aún abierta en esa literatura es que los enfoques de aprendizaje estadístico y de conjunto presentan sistemáticamente un rendimiento predictivo más bajo que los métodos de aprendizaje profundo. Por lo general, no tienen en cuenta el aspecto de la secuencia de datos entrelazada con datos multivariados representados en más de una serie temporal. Por el contrario, este trabajo presenta una novedosa arquitectura de red neuronal para el pronóstico de series temporales que combina el poder de la evolución de los gráficos con un profundo aprendizaje recurrente sobre distintas distribuciones de datos; llamamos a nuestro método Recurrent Graph Evolution Neural Network (ReGENN). La idea es inferir múltiples relaciones multivariadas entre series temporales concurrentes suponiendo que los datos temporales dependen no solo de variables internas y relaciones intratemporales (es decir, observaciones de sí mismo) sino también de variables externas y relaciones intertemporales (es decir, observaciones de otros). Se realizó un extenso conjunto de experimentos comparando ReGENN con docenas de métodos de conjunto y estadísticos clásicos, mostrando una mejora de sonido de hasta el 64,87% sobre los algoritmos de la competencia. Además, presentamos un análisis de los pesos intermedios derivados de ReGENN, que muestra que al observar las relaciones inter e intratemporales simultáneamente, el pronóstico de series de tiempo mejora considerablemente si se presta atención a cómo evolucionan sincrónicamente múltiples datos multivariados.
Time-series forecasting is one of the most active research topics in artificial intelligence. Applications in real-world time series should consider two factors for achieving reliable predictions: modeling dynamic dependencies among multiple variables and adjusting the model's intrinsic hyperparameters. A still open gap in that literature is that statistical and ensemble learning approaches systematically present lower predictive performance than deep learning methods. They generally disregard the data sequence aspect entangled with multivariate data represented in more than one time series. Conversely, this work presents a novel neural network architecture for time-series forecasting that combines the power of graph evolution with deep recurrent learning on distinct data distributions; we named our method Recurrent Graph Evolution Neural Network (ReGENN). The idea is to infer multiple multivariate relationships between co-occurring time-series by assuming that the temporal data depends not only on inner variables and intra-temporal relationships (i.e., observations from itself) but also on outer variables and inter-temporal relationships (i.e., observations from other-selves). An extensive set of experiments was conducted comparing ReGENN with dozens of ensemble methods and classical statistical ones, showing sound improvement of up to 64.87% over the competing algorithms. Furthermore, we present an analysis of the intermediate weights arising from ReGENN, showing that by looking at inter and intra-temporal relationships simultaneously, time-series forecasting is majorly improved if paying attention to how multiple multivariate data synchronously evolve.
يعد التنبؤ بالسلاسل الزمنية أحد أكثر الموضوعات البحثية نشاطًا في الذكاء الاصطناعي. يجب أن تأخذ التطبيقات في السلاسل الزمنية الواقعية في الاعتبار عاملين لتحقيق تنبؤات موثوقة: نمذجة التبعيات الديناميكية بين متغيرات متعددة وتعديل المعلمات الفائقة الجوهرية للنموذج. لا تزال هناك فجوة مفتوحة في تلك الأدبيات وهي أن مناهج التعلم الإحصائي والفرق تقدم بشكل منهجي أداءً تنبؤيًا أقل من أساليب التعلم العميق. يتجاهلون بشكل عام جانب تسلسل البيانات المتشابك مع البيانات متعددة المتغيرات الممثلة في أكثر من سلسلة زمنية واحدة. على العكس من ذلك، يقدم هذا العمل بنية شبكة عصبية جديدة للتنبؤ بالسلاسل الزمنية التي تجمع بين قوة تطور الرسم البياني والتعلم المتكرر العميق حول توزيعات البيانات المتميزة ؛ أطلقنا على طريقتنا اسم الشبكة العصبية لتطور الرسم البياني المتكرر (ReGENN). تكمن الفكرة في استنتاج علاقات متعددة المتغيرات بين السلاسل الزمنية المتزامنة من خلال افتراض أن البيانات الزمنية لا تعتمد فقط على المتغيرات الداخلية والعلاقات داخل الوقت (أي الملاحظات من نفسها) ولكن أيضًا على المتغيرات الخارجية والعلاقات بين الأزمنة (أي الملاحظات من الآخرين). تم إجراء مجموعة واسعة من التجارب التي قارنت ReGENN بعشرات طرق المجموعة والأساليب الإحصائية الكلاسيكية، مما أظهر تحسنًا صوتيًا يصل إلى 64.87 ٪ مقارنة بالخوارزميات المتنافسة. علاوة على ذلك، نقدم تحليلاً للأوزان المتوسطة الناشئة عن ReGENN، والتي توضح أنه من خلال النظر في العلاقات بين الأزمنة وداخلها في وقت واحد، يتم تحسين التنبؤ بالسلاسل الزمنية بشكل كبير إذا تم الانتباه إلى كيفية تطور البيانات متعددة المتغيرات بشكل متزامن.
I.2, FOS: Computer and information sciences, Artificial neural network, Computer Science - Machine Learning, Artificial intelligence, Time series, I.5, Computer Science - Artificial Intelligence, Electricity Price and Load Forecasting Methods, 37M10, 68T07, 68T05, 68T37, 82C32, Recurrent neural network, Social Sciences, Machine Learning (stat.ML), Management Science and Operations Research, Clustering of Time Series Data and Algorithms, Graph, Machine Learning (cs.LG), Decision Sciences, Forecasting Models, Engineering, Deep Learning, Theoretical computer science, Statistics - Machine Learning, Machine learning, FOS: Electrical engineering, electronic engineering, information engineering, Series (stratigraphy), Pattern Discovery, Neural and Evolutionary Computing (cs.NE), I.2; I.5; I.2.4; I.2.6; I.5.1, Electrical and Electronic Engineering, Time Series Analysis, Biology, Hyperparameter, I.2.4, I.5.1, Time Series Forecasting, I.2.6, Computer Science - Neural and Evolutionary Computing, Paleontology, Predicting Stock Market Trends and Movements, Deep learning, Computer science, Multivariate statistics, Artificial Intelligence (cs.AI), Signal Processing, Computer Science, Physical Sciences
I.2, FOS: Computer and information sciences, Artificial neural network, Computer Science - Machine Learning, Artificial intelligence, Time series, I.5, Computer Science - Artificial Intelligence, Electricity Price and Load Forecasting Methods, 37M10, 68T07, 68T05, 68T37, 82C32, Recurrent neural network, Social Sciences, Machine Learning (stat.ML), Management Science and Operations Research, Clustering of Time Series Data and Algorithms, Graph, Machine Learning (cs.LG), Decision Sciences, Forecasting Models, Engineering, Deep Learning, Theoretical computer science, Statistics - Machine Learning, Machine learning, FOS: Electrical engineering, electronic engineering, information engineering, Series (stratigraphy), Pattern Discovery, Neural and Evolutionary Computing (cs.NE), I.2; I.5; I.2.4; I.2.6; I.5.1, Electrical and Electronic Engineering, Time Series Analysis, Biology, Hyperparameter, I.2.4, I.5.1, Time Series Forecasting, I.2.6, Computer Science - Neural and Evolutionary Computing, Paleontology, Predicting Stock Market Trends and Movements, Deep learning, Computer science, Multivariate statistics, Artificial Intelligence (cs.AI), Signal Processing, Computer Science, Physical Sciences
| selected citations These citations are derived from selected sources. This is an alternative to the "Influence" indicator, which also reflects the overall/total impact of an article in the research community at large, based on the underlying citation network (diachronically). | 36 | |
| popularity This indicator reflects the "current" impact/attention (the "hype") of an article in the research community at large, based on the underlying citation network. | Top 10% | |
| influence This indicator reflects the overall/total impact of an article in the research community at large, based on the underlying citation network (diachronically). | Top 10% | |
| impulse This indicator reflects the initial momentum of an article directly after its publication, based on the underlying citation network. | Top 1% |
