ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ В ПРЕДПРИНИМАТЕЛЬСКОМ ПРАВЕ

Шапсугова М.Д.
Кандидат юридических наук, доцент, старший научный сотрудник Института государства и права РАН

ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ В ПРЕДПРИНИМАТЕЛЬСКОМ ПРАВЕ

Аннотация

Современный бизнес претерпевает цифровую трансформацию. Это значит, что искусственный интеллект широко применяется во всех сферах предпринимательства. Однако, искусственный интеллект до сих пор остается вне правового поля. Отсутствует его законодательное определение, не закреплен его правовой режим. Все более актуальным становится исследование вопросов ответственности за вред, причиненный искусственным интеллектом. Правовой режим результатов интеллектуальной деятельности созданных с использованием искусственного интеллекта. В более широком смысле – вопросы правосубъектности искусственного интеллекта, права авторства, деликтоспособность.

Ключевые слова: искусственный интеллект, правосубъектность, предпринимательское право, интеллектуальный агент, цифровая экономика.
Keywords: artificial intelligence, legal capacity, entrepreneurial law, intelligent agents, digital economy.

Цифровая трансформация оказывает серьезное воздействие на российский бизнес. Искусственный интеллект уже сегодня используется в сфере оптимизации бизнес-процессов, производств. После внедрения ИИ на первой стадии он собирает данные, затем наступает стадия самообучения (machine learning), на которой ИИ учится анализировать собранные данные и принимать решения, затем уже дает советы или принимает решения самостоятельно, в зависимости от запроса.

По данным исследования РАЭК и ВШЭ «Цифровая экономика от теории к практике: как российский бизнес использует искусственный интеллект» искусственный интеллект применяется в качестве агентов, алгоритмов, оптимизирующих процесс принятия решений, и как средство автоматизации производственных процессов. Наиболее популярны виртуальные помощники – их использует примерно 38% респондентов, прогнозный анализ и машинное обучение – по 35%, анализ изображений – 30 %, обработка запросов на естественном языке – 25% [1].

Вместе с тем, правовое регулирование в данной сфере развивается отстающими темпами.

Реперными точками развития законодательства можно назвать следующие:

  1. Закрепление понятия искусственного интеллекта, робота, алгоритма и их правового режима, в том числе, ответственности за вред ими причиненный.
  2. Легализация Big Data и интеллектуальной собственности в данной сфере.
  3. Урегулирование трансграничного обмена данными на основе международных соглашений.

ИИ признан сквозной цифровой технологией государственной программы программы «Цифровая экономика РФ».

Система правового регулирования искусственного интеллекта может включать следующие элементы:

  1. Международно-правовое регулирование
  2. Национальное законодательство, в том числе стандарты безопасности
  3. Этическое регулирование, разработка этических кодексов
  4. Саморегулирование, разработка стандартов

Узкие места в правовом регулировании искусственного интеллекта заключаются в трудности формирования единого подхода, а также в непонимании его возможностей и уровня самостоятельности. Очевидно, не может быть выработан единый подход к правовому регулированию искусственного интеллекта подчиненного и автономного.

Определенную сложность может составлять установление факта управления искусственным интеллектом определенным лицом. Поэтому вопрос о том, кем управляется искусственный интеллект может оставаться открытым, а следовательно, лицо, чьи действия по управлению искусственным интеллектом повлекли ущерб может оставаться неустановленным. Это влечет невозможность привлечения к ответственности и взыскания компенсации с причинителя вреда. Следующий интересующий нас вопрос касается ответственности в случае, если вред был причинен не в результате управления искусственным интеллектом, а, например, самообучения или программного сбоя. Полагаем, использование искусственного интеллекта включает в себя этот риск, ответственность в таком случае может наступать по аналогии с объектами представляющими повышенную опасность.

Зарубежные ученые предлагают следующие проблемные характеристики искусственного интеллекта [2, 363-372]:

1. Автономность, предсказуемость, причинная обусловленность. Фундаментальное различие между человеческим интеллектом и современным искусственным в непредсказуемости для человека принимаемых последним решений. Искусственный интеллект видит больше вариантов действий, чем человек. Дело даже не в том, что системы ИИ проявляют творческий подход, а скорее, что действия систем могут быть неожиданными для внешних наблюдателей, и, возможно, даже для программистов этих систем. Поскольку системы ИИ по своей природе не ограничены предвзятыми понятиями, практическими правилами и общепринятым мнением, на которое опирается большинство людей, принимающих решения, системы ИИ способны находить решения, которые люди, возможно, не рассматривали, или что они рассмотрели и отклонили в пользу более интуитивно привлекательных вариантов

2. Контроль. Риски производимые искусственным интеллектом охватывают не только проблему предсказуемости, но и проблему контроля. Человеку трудно осуществлять контроль за машиной, запрограммированной действовать со значительной степенью автономности. Утраченный однажды контроль может быть затруднительно восстановить. Общественные риски связанные с утратой контроля над искусственным интеллектом могут быть более существенными, чем при утрате контроля над человеческим поведением.

3. С нормативной точки зрения, некоторые из наиболее проблемных особенностей ИИ связаны не с особенностями самого ИИ, а с тем, как можно выполнять работу по НИОКР в области ИИ. Осторожность относится к тому факту, что работа по разработке ИИ может проводиться с ограниченной видимой инфраструктурой. Дифузность (пространность) означает, что лица, работающие над одним компонентом системы ИИ, могут находиться далеко друг от друга. Тесно связанная с этим особенность, дискретность, относится к тому факту, что отдельные компоненты системы ИИ могут разрабатываться в разных местах и в разное время без какой-либо сознательной координации. Наконец, непрозрачность обозначает возможность того, что внутренняя работа системы ИИ может храниться в секрете и может быть не подвержена обратному проектированию. Каждая из этих функций в той или иной степени используется исследовательскими и опытно-конструкторскими работами над многими технологиями в информационную эпоху, но они представляют собой особенно уникальные проблемы в контексте ИИ.

Автономность искусственного интеллекта от человека растет с каждым днем, учитывая развиваемые качества самообучаемости и machine learning. Однако, чем более искусственный интеллект автономен, тем менее он предсказуем. Так, недавно компания Тесла была оштрафована полицией Калифорнии поскольку беспилотный испытательный автомобиль компании самостоятельно зарегистрировался в сервисе Uber, занимаясь извозом. Заработанные деньги автомобиль расходовал на приобретение в интернет-магазинах инструкций по сборке оружия. Разработчики объяснили такое поведение ошибкой программирования и особенностями обучения нейросети на примерах реальных водителей [3].
Проблемы в правовом регулировании и правоприменительной практике могут возникать и в связи с тем, что разработчики систем искусственного интеллекта могут находиться в различных странах и не находиться друг с другом в каких-либо официальных контрактных отношениях. Указанные обстоятельства могут затруднять возможность компенсации ущерба нанесенного искусственным интеллектом.

Условно концепции правового статуса искусственного интеллекта можно свести к следующим:

  1. Концепция самостоятельности правосубъектности. На наш взгляд ее реализация требует разработки сложного автономного искусственного интеллекта и представляет собой весьма отдаленную перспективу, но тем не менее вероятна
  2. Концепция вещи или специфического объекта гражданских прав. Имеет место быть и в случае с подчиненным интеллектом
  3. Концепция аналогии с правовым статусом животных. Для более сложных систем подчиненного искусственного интеллекта, но все же не имеющего признаков автономности.

Как следствие указанных концепций, рассматриваются и концепции прав на результаты интеллектуальной деятельности, полученные искусственным интеллектом или с его участием и ответственности за действия искусственного интеллекта.

В случае с автономным искусственным интеллектом он может признаваться автором произведений, либо авторство может отсутствовать в принципе. В случае работы подчиненного искусственного интеллекта, авторство принадлежит лицу, использовавшему искусственный интеллект как вспомогательный инструмент.

К ответственности применимы те же принципы. Автономный искусственный интеллект в далеком будущем возможно будет способен нести самостоятельную ответственность за причиненный вред. В то же время, в ближайшей перспективе, ответственность за действия подчиненного интеллекта может нести его разработчик, производитель, собственник, владелец. Возможно применение механизмов страхования и самострахования.

Главные принципы функционирования искусственного интеллекта были сформулированы философами, однако трансформация этих принципов в формальную науку требовала развития до известного уровня математической формализации в следующих основных сферах: вероятность, логика и вычисления [4, 43].

Искусственный интеллект руководствуется, прежде всего, принципами формальной логики. Поэтому еще одним признаком сильного искусственного интеллекта можно считать рациональность.

Примером рациональности искусственного интеллекта является поведение интеллектуального агента. Рациональность интеллектуального агента оценивается по следующим критериям:

  • производительность,
  • ранее приобретенные интеллектуальным агентом знания о среде,
  • набор возможных действий агента,
  • очередность произошедших актов рецепции агента [4, 79].

Таким образом, агент должен быть способен выбрать действие, максимизирующее показатели его производительности с учетом этих факторов [4, 80].

Термин «искусственный интеллект» по определению Конгресса США включает в себя системы, которые [5]:

  • выполняют задачи в изменяющихся и непредсказуемых обстоятельствах, без значительного человеческого контроля, или которые могут извлечь уроки из своего опыта и улучшить свои показатели. Такие системы могут быть разработаны в компьютерном программном обеспечении, физическом оборудовании или в других контекстах, которые еще не рассматриваются.
  • думают, как люди (когнитивные архитектуры и нейронные сети).
  • действуют как люди, такие как системы, которые могут пройти тест Тьюринга или другой сопоставимый тест с помощью обработки естественного языка, представления знаний, автоматического рассуждения и обучения.
  • включают набор методов, в том числе машинное обучение, которые стремятся приблизиться к некоторой познавательной задаче.
  • действуют рационально, такие как интеллектуальные программные агенты и встроенные роботы, которые достигают целей посредством восприятия, планирования, рассуждения, обучения, общения, принятия решений и действий.

Кроме того, документом вводится понятие общего и узкого искусственного интеллекта. Термин «искусственный общий интеллект» означает воображаемую будущую систему искусственного интеллекта, которая демонстрирует, по-видимому, интеллектуальное поведение, по крайней мере, такое же продвинутое, как у человека, в диапазоне когнитивного, эмоционального и социального поведения. Термин «узкий искусственный интеллект» означает систему искусственного интеллекта, которая предназначена для конкретных областей применения, таких как игры в стратегические игры, языковой перевод, автомобили с автоматическим управлением и распознавание изображений.

Под искусственным интеллектом И.В. Понкин, А.И. Редькина понимают искусственную сложную кибернетическую компьютерно-программно-аппаратную систему (электронную, в том числе – виртуальную, электронно-механическую, биоэлектронно-механическую или гибридную) с когнитивно-функциональной архитектурой и собственными или релевантно доступными (приданными) вычислительными мощностями необходимых ёмкостей и быстродействия, обладающую: – свойствами субстантивности (включая определённую субъектность, в том числе как интеллектуального агента) и в целом автономности, а также элаборативной (имеющей тенденцию совершенствования) операциональности, – высокоуровневыми возможностями воспринимать (распознавать, анализировать и оценивать) и моделировать окружающие образы и символы, отношения, процессы и обстановку (ситуацию), самореферентно принимать и реализовывать свои решения, анализировать и понимать свои собственные поведение и опыт, самостоятельно моделировать и корригировать для себя алгоритмы действий, воспроизводить (эмулировать) когнитивные функции, в том числе связанные с обучением, взаимодействием с окружающим миром и самостоятельным решением проблем, – способностями самореферентно адаптировать своё собственное поведение, автономно глубинно самообучаться (для решения задач определённого класса или более широко), осуществлять омологацию себя и своих подсистем, в том числе вырабатывать омологированные «языки» (протоколы и способы) коммуницирования внутри себя и с другими искусственными интеллектами, субстантивно выполнять определённые антропоморфно-эмулирующие (конвенционально относимые к прерогативе человека (разумного существа)) когнитивные (в том числе – познавательно-аналитические и творческие, а также связанные с самоосознанием) функции, учитывать, накапливать и воспроизводить (эмулировать) опыт (в том числе – человеческий) [6, 94-95].

Вопросам ответственности за действия искусственного интеллекта посвящена Резолюция Европарламента от 16 февраля 2017 года 2015/2013(INL) P8_TA-PROV(2017)0051[7]. В соответствии с п. 59 Комиссии ЕС необходимо исследовать любые вероятные последствия юридических мер в этой сфере, включая:

a) формирование системы обязательного страхования, в случае возможности и необходимости, для отдельных видов роботов. По аналогии с системой страхования ответственности владельцев транспортных средств, производители и владельцы роботов должны страховать риски причинения вреда роботами;

b) не формальное, а гарантированное действительное использование ресурсов компенсационного фонда на выплаты компенсаций, в случае, если страховая сумма не покрывает нанесенный роботом вред;

c) возможность частичного освобождения от ответственности производителя, разработчика, владельца или пользователя робота при условии, внесения ими средств в компенсационный фонд или совместного страхования ответственности;

d) общий компенсационный фонд может быть создан в отношении всех умных автономных роботов, или по каждому виду отдельно. Взносы в данный фонд могут быть единовременными в момент введения робота в гражданский оборот, или постоянными на протяжении всего срока службы робота;

e) компенсационного фонда с роботом может отслеживаться через присвоение каждому роботу индивидуального регистрационного номера, вносимого в самостоятельный реестр. При помощи этого номера взаимодействующее с роботом лицо, будет иметь возможность получать сведения о фонде, из которого будут производиться компенсации;

f) перспективу наделения роботов особым правовым статусом. Наиболее продвинутые автономные роботы могут создаваться как электронные лица и нести ответственность за причиненный ими ущерб в тех случаях, когда они принимают решения автономно или иным образом самостоятельно взаимодействуют с третьими лицами.

В международном аспекте существующие международные частноправовые нормы в отношении дорожно-транспортных происшествий, действующие на территории ЕС, не требуют срочных кардинальных изменений в связи с развитием автономных транспортных средств. В то же время упрощение существующей двойственной системы определения применимого права (на основе Регламента (ЕС) № 864/2007 Европейского Парламента и Совета , а также Гаагской конвенции от 4 мая 1971 о праве, применимом к дорожно-транспортным происшествиям) будет способствовать правовой определенности и ограничит список возможностей для выбора наиболее выгодной юрисдикции.

Вместе с тем, в п. 61 отмечается возможная целесообразность внесения поправок в международные соглашения, например, в Венскую конвенцию о дорожном движении от 8 ноября 1968 года и Гаагскую конвенцию о праве, применимом к дорожно-транспортным происшествиям. Предполагается, что положения и ограничения Регламента (ЕС) № 428/2009, Европарламента и Совета об обороте продукции двойного назначения (товаров, технологий и программного обеспечения, которые могут быть использованы как в гражданских, так и в военных целях, и/или могут способствовать распространению оружия массового разрушения) также должны распространяться на робототехнику.

С.С. Занковский предлагает продумать вопрос об объединении изготовителей ИИ в саморегулируемые организации с формированием общего фонда имущественной ответственности [8, 155]. Одним из шагов на этом пути являются разработанные на Асиломарской конференции в 2017 году Принципы работы с ИИ [9].

Любое решение относительно проблемы ответственности, действующей в отношении робототехники и искусственного интеллекта, должно основываться на всестороннем исследовании и имеющихся в области нейронаук и робототехники разработок. Ученые и эксперты должны иметь возможность заранее оценить все риски и последствия принятого решения» [10].

Вопросы соотношения права и закона в сфере искусственного интеллекта лежат, в том числе, в этической плоскости.
Одним из признаков индивидуальности автономного искусственного интеллекта и основой его идентичности можно считать наличие у него самосознания и способности к самоидентификации.

Сложность определения индивидуальности в искусственном интеллекте связана с проблемой имитации человеческого общения, в отсутствие самосознания и самоидентификации. По мнению Д.Хьюза самосознание электронных лиц может проявиться одновременно с наделением их элементарыми личными правами, в том числе правом на свободу, правом на личностный рост, для чего необходим анализ внутренней сложности искусственного интеллекта [11, 42-43].

Тем не менее, сегодня говорить об искусственном интеллекте такого уровня сложности и автономности пока рано. Получивший широкое распространение в предпринимательстве подчиненный искусственный интеллект не способен к самоидентификации и самосознанию. Поскольку, государство демонстрирует заинтересованность во внедрении ИИ в деятельности российский предпринимателей, полагаем целесообразным разработать законодательный подход к пониманию искусственного интеллекта и меры государственной поддержки для внедряющих их в бизнес-процессы субъектов рынка.

Литература:

  1. Цифровая экономика от теории к практике: как российский бизнес использует искусственный интеллект [Электронный ресурс].
  2. Scherer, Matthew U., Regulating Artificial Intelligence Systems: Risks, Challenges, Competencies, and Strategies (May 30, 2015). Harvard Journal of Law & Technology, Vol.29, No. 2, Spring 2016. 
  3. В США автомобиль под управлением искусственного интеллекта незаконно подрабатывал частным извозом [Электронный ресурс].
  4. Рассел Стюарт, Норвиг Питер. Искусственный интеллект: современный поход – М.: ИД «Вильямс», 2006.
  5. Future of artificial intelligence act of 2917, 115th Congress USA [Электронный ресурс].
  6. Понкин И.В., Редькина А.И. Искусственный интеллект с точки зрения права // Вестник Российского университета дружбы народов. Сер. «Юридические науки». 2018. Т. 22. № 1. С. 91–109.
  7. Нормы гражданского права о робототехнике [Электронный ресурс].
  8. Занковский С.С. Искусственный интеллект в предпринимательском праве // Modern Science, 2019, № 7-2, С. 154-159.
  9. Принципы работы с ИИ, разработанные на Асиломарской конференции [Электронный ресурс].
  10. Резолюция ЕС [Электронный ресурс]. — Режим доступа: https:// robopravo.ru/riezoliutsiia_ies
  11. Ястребов О.А. Правосубъектность электронного лица: теоретико-методологические подходы // Труды Института государства и права РАН – 2018, Т.13, №2. С. 42-43.