Искусственный интеллект — кто отвечает за действия роботов?
Сегодня мы можем встретить технологии искусственного интеллекта в промышленности, сельском хозяйстве, здравоохранении, образовании и других сферах. Но кто должен нести ответственность, если робот или квадракоптер причинят вред? Ученые пермского кампуса НИУ ВШЭ и ПНИПУ предложили варианты подходов к регулированию гражданско-правовой ответственности за действия искусственного интеллекта.
Статья «Подходы к гражданско-правовой ответственности разработчика технологий искусственного интеллекта: на основе классификации технологий» опубликована в журнале «Информационное общество». С полным текстом статьи можно ознакомиться по ссылке.
Коллектив авторов
Кафедра гражданского и предпринимательского права (Пермь): Доцент, академический руководитель магистратуры «Правовое обеспечение предпринимательской деятельности»
Кафедра гражданского и предпринимательского права (Пермь): Доцент
студент 2 курса магистерской программы «Правовое обеспечение предпринимательской деятельности»
кандидат экономических наук, доцент кафедры строительного инжиниринга и материаловедения ФГБОУ ВО «ПНИПУ»
Как будет работать классическая модель состава гражданского правонарушения, построенная на принципе вины, применительно к ответственности разработчика искусственного интеллекта? Какие действия разработчика следует считать виновными? Когда разработчик должен отвечать за вред вне зависимости от вины? Ответы на эти вопросы искали авторы статьи. Исследователи определили 3 подхода к регулированию гражданско-правовой ответственности разработчика:
виновная ответственность;
ответственность вне зависимости от вины (строгая);
ответственность, основанная на риск-ориентированном правовом регулировании, когда отвечает за причиненный вред тот, кто должен был выполнить обязанности по минимизации рисков.
Данные подходы были разработаны на основе авторской классификации технологий искусственного интеллекта. Исследователи подразделяют их по таким критериям, как активность (способность самостоятельно определять круг задач и находить пути их решения), автономность, самообучаемость, функциональность, оснащенность средствами объективного контроля.
В некоторых пунктах классификация предвосхищает развитие технологий. Например, пока все технологии искусственного интеллекта относятся к пассивным. Критерий активности можно будет рассматривать, когда появится искусственный интеллект, способный к самостоятельному целеполаганию, рефлексии и осознанию последствий своей деятельности. Тогда можно будет рассматривать вопрос о признании его даже субъектом права.
Приведем пример. Квадрокоптер с радиоуправлением и видеокамерой по классификации технологий будет отнесен к высокоавтономным, необучаемым, многофункциональным устройствам, оснащенным средствами контроля. Поскольку он подходит под критерий высокоавтономный, то это технология, за разработку которой полагается строгая ответственность.
Если же технологии искусственного интеллекта многофункциональны, то есть направлены на решение широкого спектра задач, можно использовать риск-ориентированный подход к регулированию правовой ответственности. Этот подход авторы статьи считают наиболее перспективным.
Технологии искусственного интеллекта развиваются очень быстро, поэтому прогнозировать и контролировать их действия будет сложно, а иногда и невозможно. Необходима стратегия управления рисками, связанными с применением активного искусственного интеллекта. Так, нужно учитывать сферу применения искусственного интеллекта и связанные с ним риски: есть разница в ошибке в сфере здравоохранения или в кинематографии. В этой сфере есть направление для дальнейших исследований и предложений.
Ольга Ерахтина, доцент кафедры гражданского и предпринимательского права, академический руководитель магистратуры «Правовое обеспечение предпринимательской деятельности»
У нас получились очень интересные результаты. В частности, мы пришли к выводу, что к какому классу не относились бы технологии искусственного интеллекта, разработчик все-таки должен нести строгую ответственность. Он должен понимать, что за результаты действий созданного им искусственного интеллекта отвечать ему.
Мы задумались о том, как снять бремя строгой правовой ответственности с разработчика. Предложенная нами альтернатива — это модель ответственности, основанная на риск-ориентированном подходе. Например, рассматривается возможность наделения продуктов с искусственным интеллектом статусом юридического лица, создание страховых фондов и др. В статье мы не только подробно исследуем подходы к ответственности, но и ставим новые исследовательские вопросы, требующие дальнейшего изучения и анализа.