Публікація:
The problem of legal responsibility for the harmful consequences of using artificial intelligence systems

Вантажиться...
Ескіз

Дата

DOI

10.33244/2617-4154.1(18).2025.268-279.

Назва видання

ISSN

Назва тому

Видання

Державний податковий університет

Дослідницькі проєкти

Організаційні одиниці

Випуск журналу

Анотація

The article explores the issue of legal responsibility for damage caused by the use of artificial intelligence (AI) systems. It discusses the phenomenon of the „responsibility gap“ and its impact on legal regulation. The article analyzes conceptual approaches to determining the subject of responsibility in the context of autonomous AI functioning and the specifics of its learning process. The challenges of law enforcement arising from the probabilistic nature of AIʼs operation, its ability to self-learn, and the „black box“ problem are examined. Special attention is given to the issue of AI hallucination, when the system generates false or non-existent data, complicating the establishment of causal relationships and identifying the responsible party. The article examines three main forms of „responsibility gap“: true gap, apparent gap, and the „dilution of responsibility“ caused by multi-level interactions of different subjects. Possible legal mechanisms for addressing these issues are analyzed, including the introduction of special responsibility regimes for AI developers, owners, and users. The international experience of regulating AI is also discussed, with a focus on the provisions of the new European AI Act, which establishes a risk-based approach to responsibility. The conclusion is made about the need to adapt existing legal concepts and develop new regulatory models capable of accounting for the characteristics of autonomous systems.
У статті досліджується проблема юридичної відповідальності за шкоду, заподіяну використанням систем штучного інтелекту (ШІ). Розглядається феномен «розриву відповідальності» (responsibility gap) та його вплив на правове регулювання. Аналізуються концептуальні підходи до визначення суб’єкта відповідальності в умовах автономного функціонування ШІ та особливостей його навчання. Розкриваються складнощі правозастосування, зумовлені ймовірнісним характером роботи ШІ, його здатністю до самонавчання та проблемою «чорної скриньки». Окрему увагу приділено питанням технологічного «галюцинування» ШІ (AI hallucination), коли система генерує помилкові або неіснуючі дані, ускладнюючи встановлення причинно-наслідкових зв’язків та відповідального суб’єкта. У статті розглядаються три основні форми «розриву відповідальності»: істинний розрив, уявний розрив та «розмивання відповідальності», спричинене багаторівневою взаємодією різних суб’єктів. Аналізуються можливі юридичні механізми усунення цих проблем, зокрема запровадження спеціальних режимів відповідальності для розробників, власників і користувачів ШІ. Окремо проаналізовано міжнародний досвід регулювання ШІ, зокрема положення нового Європейського закону про ШІ, що встановлює ризикоорієнтований підхід до відповідальності. Робиться висновок про необхідність адаптації існуючих правових концепцій та розробки нових регуляторних моделей, здатних враховувати особливості автономних систем.

Опис

Ключові слова

artificial intelligence, legal responsibility, responsibility gap, civil liability, technological hallucination, law enforcement challenges, штучний інтелект, юридична відповідальність, розрив відповідальності, цивільно-правова відповідальність, технологічне галюцинування, проблеми правозастосування

Бібліографічний опис

Denysiuk S. G. The problem of legal responsibility for the harmful consequences of using artificial intelligence systems / S. G. Denysiuk, V. P. Kononenko // Ірпінський юридичний часопис: науковий журнал. − 2025. − Вип. 1 (18). − С. 268−279.

Колекції

Підтвердження

Рецензія

Додано до

Згадується в