Powered by OpenAIRE graph
Found an issue? Give us feedback
addClaim

This Research product is the result of merged Research products in OpenAIRE.

You have already added 0 works in your ORCID record related to the merged Research product.

Защита Ð½ÐµÐ¹Ñ€Ð¾ÑÐµÑ‚ÐµÐ²Ñ‹Ñ Ð¼Ð¾Ð´ÐµÐ»ÐµÐ¹ от угроз нарушения конфиденциальности в ÑÐµÑ‚ÑÑ Ñ„ÐµÐ´ÐµÑ€Ð°Ñ‚Ð¸Ð²Ð½Ð¾Ð³Ð¾ обучения

выпускная квалификационная работа специалиста

Защита Ð½ÐµÐ¹Ñ€Ð¾ÑÐµÑ‚ÐµÐ²Ñ‹Ñ Ð¼Ð¾Ð´ÐµÐ»ÐµÐ¹ от угроз нарушения конфиденциальности в ÑÐµÑ‚ÑÑ Ñ„ÐµÐ´ÐµÑ€Ð°Ñ‚Ð¸Ð²Ð½Ð¾Ð³Ð¾ обучения

Abstract

Тема выпускной квалификационной работы: «Защита нейросетевых моделей от угроз нарушения конфиденциальности в сетях федеративного обучения». Целью работы является противодействие угрозам нарушения конфиденциальности в сетях федеративного обучения. Предметом исследования являются методы по обеспечению конфиденциальности нейросетевых моделей и методы оптимизации. Задачи, решаемые в ходе исследования: 1. Исследовать проблемы конфиденциальности нейросетевых моделей в сетях федеративного обучения. 2. Проанализировать существующие методы по обеспечению конфиденциальности нейросетевых моделей в сетях федеративного обучения. 3. Оценить возможность применения модификации градиентного спуска для обеспечения конфиденциальности нейросетевых моделей. 4. Выполнить программную реализацию предложенного метода. 5. Оценить надежность метода с точки зрения обеспечения конфиденциальности и определить оптимальные значения параметров. В ходе работы была исследована возможность манипуляции градиентным спуском с целью защиты нейросетевых моделей узлов федеративного обучения. В результате работы был предложен метод, позволяющий обеспечить конфиденциальность нейросетевых моделей участников федеративного обучения. Был сделан вывод о необходимости проведения дальнейших исследований проблем безопасности в сетях федеративного обучения. Полученные результаты могут быть использованы в качестве основы для создания сетей федеративного обучения с повышенной степенью конфиденциальности нейросетевых моделей.

The topic of the graduate qualification work is «Protecting neural network models from privacy violation threats in federated learning networks». The purpose of the study is countering threats of privacy violation in federated learning networks. The subject of the study is methods on privacy protection of neural network models and gradient descent optimization. The research set the following goals: 1. Investigate the privacy issues of neural network models in federated learning networks. 2. Analyze the existing methods to ensure the privacy of neural network models in federated learning networks. 3. Evaluate the feasibility of gradient descent optimization techniques to ensure the privacy of neural network models. 4. Perform a software implementation of the proposed method. 5. Evaluate the robustness of the method in terms of privacy and determine the optimal parameter values. During the work the possibility of manipulating gradient descent to protect neural network models of federated learning nodes was investigated. method was proposed to ensure the privacy of neural network models of federated learning participants. It was concluded that further research on security issues in federated learning networks is needed. The results could be used as a basis for creating federated learning networks with increased privacy of neural network models.

Keywords

federated learning, neural network models, методы оптимизации, федеративное обучение, optimization methods, нейросетевые модели, градиентный спуск, gradient descent

  • BIP!
    Impact byBIP!
    citations
    This is an alternative to the "Influence" indicator, which also reflects the overall/total impact of an article in the research community at large, based on the underlying citation network (diachronically).
    0
    popularity
    This indicator reflects the "current" impact/attention (the "hype") of an article in the research community at large, based on the underlying citation network.
    Average
    influence
    This indicator reflects the overall/total impact of an article in the research community at large, based on the underlying citation network (diachronically).
    Average
    impulse
    This indicator reflects the initial momentum of an article directly after its publication, based on the underlying citation network.
    Average
Powered by OpenAIRE graph
Found an issue? Give us feedback
citations
This is an alternative to the "Influence" indicator, which also reflects the overall/total impact of an article in the research community at large, based on the underlying citation network (diachronically).
BIP!Citations provided by BIP!
popularity
This indicator reflects the "current" impact/attention (the "hype") of an article in the research community at large, based on the underlying citation network.
BIP!Popularity provided by BIP!
influence
This indicator reflects the overall/total impact of an article in the research community at large, based on the underlying citation network (diachronically).
BIP!Influence provided by BIP!
impulse
This indicator reflects the initial momentum of an article directly after its publication, based on the underlying citation network.
BIP!Impulse provided by BIP!
0
Average
Average
Average
Upload OA version
Are you the author? Do you have the OA version of this publication?