
This article is devoted to the oversight of AI systems’ activities and the provision of accountability obligations within the framework of international legal norms. The study provides a comparative analysis of existing regulatory mechanisms across various legal systems, examining the legal and normative challenges they present during implementation. The article discusses the oversight and accountability mechanisms of AI systems based on key international legal sources, including the European Union Artificial Intelligence Act, the UNESCO Recommendation on Ethics in Artificial Intelligence, the Organisation for Economic Co-operation and Development (OECD) Principles on Artificial Intelligence, and Council of Europe Framework Convention on Artificial Intelligence, Human Rights, Democracy and the Rule of Law (draft). The research examines the methodological foundations of technological and process-oriented types of IT audits, including algorithmic, performance, security, and ethical audits. It also clarifies the responsibilities of various participants in the accountability chain (developers, providers, users, and regulators). The article highlights the practical implications of technological challenges such as the “black box” nature of IT systems, their dynamic and adaptable nature, and information bias, as well as regulatory gaps such as inter-jurisdictional coordination problems and uncertainty about legal liability. In this context, a comparative analysis is conducted of different regulatory practices, such as the European Union’s risk-based model, the United States’ sector-specific approach, and China’s state control model. The analysis demonstrates that these different approaches hinder the establishment of uniform global standards and create legal uncertainty for companies operating across borders. The role of international standards and certification mechanisms, as well as the importance of ensuring human control and transparency in addressing these challenges, is emphasized. The research findings demonstrate that effective auditing and accountability of IT systems within the context of international law requires integrating technology-focused and process-focused approaches and strengthening international legal cooperation. The article offers specific recommendations to address existing regulatory gaps, including the adoption of a national legal framework, the implementation of mandatory human rights impact assessments, strengthening transparency and accountability obligations, ensuring human oversight, and the establishment of independent oversight bodies. These steps will ensure the fair and safe development and implementation of AI technologies that respect human rights.
Ця стаття присвячена нагляду за діяльністю систем штучного інтелекту та забезпеченню зо- бов’язань щодо підзвітності в рамках міжнародно-правових норм. Дослідження надає порівняль- ний аналіз існуючих регуляторних механізмів у різних правових системах, розглядаючи правові та нормативні виклики, які вони створюють під час впровадження. У статті розглядаються меха- нізми нагляду та підзвітності систем штучного інтелекту на основі ключових міжнародно-право- вих джерел, включаючи Закон Європейського Союзу про штучний інтелект, Рекомендацію ЮНЕ- СКО щодо етики у штучному інтелекті, Принципи Організації економічного співробітництва та розвитку (ОЕСР) щодо штучного інтелекту та Рамкову конвенцію Ради Європи про штучний ін- телект, права людини, демократію та верховенство права (проект). У дослідженні також розглядаються методологічні основи технологічних та процесно-орієнто- ваних видів ІТ-аудитів, включаючи алгоритмічні, продуктивні, безпекові та етичні аудити. Також уточнюється відповідальність різних учасників ланцюжка підзвітності (розробників, постачаль- ників, користувачів та регуляторів). У статті висвітлено практичні наслідки технологічних викли- ків, таких як «чорна скринька» ІТ-систем, їхня динамічна та адаптивна природа, інформаційна упередженість, а також регуляторні прогалини, такі як проблеми міжюрисдикційної координації та невизначеність щодо юридичної відповідальності. У цьому контексті проводиться порівняль- ний аналіз різних регуляторних практик, таких як ризикоорієнтована модель Європейського Со- юзу, галузевий підхід Сполучених Штатів та модель державного контролю Китаю. Аналіз демон- струє, що ці різні підходи перешкоджають встановленню єдиних глобальних стандартів та ство- рюють правову невизначеність для компаній, що працюють за кордоном. Підкреслюється роль міжнародних стандартів та механізмів сертифікації, а також важливість забезпечення людського контролю та прозорості у вирішенні цих викликів. Результати дослідження показують, що ефективний аудит та підзвітність ІТ-систем у контексті міжнародного права вимагає інтеграції технологічно-орієнтованих та процесоорієнтованих під- ходів та зміцнення міжнародно-правового співробітництва. У статті пропонуються конкретні ре- комендації щодо усунення існуючих регуляторних прогалин, включаючи прийняття національної правової бази, впровадження обов’язкових оцінок впливу на права людини, посилення зобов’я- зань щодо прозорості та підзвітності, забезпечення людського нагляду та створення незалежних органів нагляду. Ці кроки забезпечать справедливий та безпечний розвиток і впровадження тех- нологій штучного інтелекту, що поважають права людини.
підзвітність, Artificial intelligence, regional initiatives, legal regulation, нагляд, штучний інтелект, правова природа, механізми сертифікації, certification mechanisms, модель контролю, legal mechanisms, international initiatives, oversight, auditing standards, міжнародне право, міжнародні ініціативи, accountability, legal nature, регіональні ініціативи, international law, стандарти аудиту, правове регулювання, правові механізми
підзвітність, Artificial intelligence, regional initiatives, legal regulation, нагляд, штучний інтелект, правова природа, механізми сертифікації, certification mechanisms, модель контролю, legal mechanisms, international initiatives, oversight, auditing standards, міжнародне право, міжнародні ініціативи, accountability, legal nature, регіональні ініціативи, international law, стандарти аудиту, правове регулювання, правові механізми
| selected citations These citations are derived from selected sources. This is an alternative to the "Influence" indicator, which also reflects the overall/total impact of an article in the research community at large, based on the underlying citation network (diachronically). | 0 | |
| popularity This indicator reflects the "current" impact/attention (the "hype") of an article in the research community at large, based on the underlying citation network. | Average | |
| influence This indicator reflects the overall/total impact of an article in the research community at large, based on the underlying citation network (diachronically). | Average | |
| impulse This indicator reflects the initial momentum of an article directly after its publication, based on the underlying citation network. | Average |
