Искусственный интеллект и право: есть контакт?

Как в случае с большинством явлений цифровой экономики правовая природа искусственного интеллекта не является очевидной. В то же время применение технологии распространяет свое влияние практически на все сферы общественной жизни: медицину, транспорт, экономику, образование и т. п. Развитие искусственного интеллекта диктует необходимость поиска новых решений правового регулирования технологии.

С 1 июля в России запланировано проведение пятилетнего эксперимента по внедрению технологий искусственного интеллекта на территории Москвы в рамках Национальной программы «Цифровая экономика Российской Федерации» (Федеральный закон от 24 апреля 2020 г. № 123-ФЗ "О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации — городе федерального значения Москве и внесении изменений в статьи 6 и 10 Федерального закона «О персональных данных».

Закон № 123-ФЗ регламентирует условия для разработки и внедрения технологий искусственного интеллекта, а также возможность последующего использования результатов его применения. Им установлен экспериментальный правовой режим на ближайшие пять лет. При этом аналогичные правовые режимы планируется внедрить и в других субъектах РФ. Так, напомним, Владимир Путин утвердил перечень поручений по итогам совещания по вопросу развития информационно-коммуникационных технологий и связи, среди которых фигурирует поручение Правительству РФ принять меры по утверждению отдельного федерального проекта "Искусственный интеллект" до 31 августа.

Круг правовых проблем, возникающих в связи с использованием технологии искусственного интеллекта, является весьма обширным. По этой причине представляется целесообразным изучить положения Закона № 123-ФЗ и проанализировать их на предмет практикоориентированности.

Понятие искусственного интеллекта в российском праве

Юридически понятие «искусственный интеллект» впервые было сформулировано на подзаконном уровне Указом Президента РФ от 10 октября 2019 г. № 490 "О развитии искусственного интеллекта в Российской Федерации", впоследствии перекочевав в рассматриваемый Закон № 123-ФЗ. Под ним понимают комплекс технологических решений, который позволяет имитировать когнитивные функции человека и получать результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека. При этом отдельно отмечается, что имитация включает самообучение и поиск решений без заранее заданного алгоритма. Важно обратить внимание на то, что определение в полной мере охватывает доступные на данный момент виды искусственного интеллекта в широком понимании: искусственный интеллект, работающий на основе заранее определенных задач (имеющихся знаний), и искусственный интеллект, работающий автономно, то есть технология, которая для выполнения задач может потенциально полностью заменить человека.

Илья Дурницын, корпоративный юрист ООО «Проспектаси» полагает, что введенное определение является широким, так как преследует цель охватить обширный круг возможных достижений в развитии искусственного интеллекта. При этом половина определения составляет перечисление сфер потенциальной применимости технологии искусственного интеллекта. Юрист придерживается мнения, что формулировка, разъясняющая содержание и смысл искусственного интеллекта, приведенная в Законе № 123-ФЗ, является слишком широкой и спорной с технической точки зрения. Во-первых, понятие «имитация когнитивных функций» человека допускает различные интерпретации (так, в XIX веке такой имитацией считалось способность машины вести обычный счет).

Во-вторых, если учитывать способность машины к самообучению и решению задач «без алгоритмов», как предлагает определение, то нужно учитывать множество нюансов, чтобы термин имел четкий смысл. Например, является ли самообучение неконтролируемым или нет. Классическим примером неконтролируемого самообучения, отмечает эксперт, является нейронная сеть, которая уже сейчас способна давать точные прогнозы, например по котировкам рынка. Делает ли это программу по расчету торгов на рынке искусственным интеллектом? Или же все-таки искусственному интеллекту необходимы свойства субстантивности и возможность воспринимать? В-третьих – само определение «самообучение» как отдельное понятие отсутствует в российском праве, что также затрудняет в полной мере понимание определения «искусственный интеллект», данное в Законе № 123-ФЗ. Таким образом, Илья Дурницын делает вывод, что данное определение смоделировано так, чтобы охватить максимально большой круг деятельности для будущего развития искусственного интеллекта, а не дать четкое и лаконичное объяснение основным понятием с технической точки зрения.

При этом некоторые эксперты предполагают, что широкое определение на данном этапе является скорее преимуществом, чем недостатком, так как именно проведение эксперимента по внедрению искусственного интеллекта позволит определить, каким образом сформулированное понятие следует изменить. Ирина Шурмина, старший юрист CMS Russia и Ксения Даньшина, юрист CMS Russia считают важным, что определение отражает принципиальные характеристики искусственного интеллекта, которые выявляются из его определения:

это комплекс технологий, а не одна технология;

искусственный интеллект может самообучаться и искать решения без заранее заданных алгоритмов – это принципиальное его отличие от других технологий;

искусственный интеллект может получать результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека – то есть в определении заложено, что потенциально искусственный интеллект может получать более совершенные результаты, чем получаемые человеком.

Павел Ганин, адвокат (Палата адвокатов Нижегородской области), советник юридической компании a.t.Legal считает, что для более четкого понимания термина «искусственный интеллект» необходимо предоставление на государственном уровне возможностей для развития технологий искусственного интеллекта с привлечением юридических лиц и индивидуальных предпринимателей, осуществляющих деятельность по разработке, созданию, внедрению, реализации или обороту технологий искусственного интеллекта, а также товаров на основе указанных технологий. Прежде всего, это касается выведение нормативного регулирования искусственного интеллекта в РФ из «серой» зоны и введение операций с использованием искусственного интеллекта в повседневную практику отношений в государстве.

Правовые проблемы технологии искусственного интеллекта

Как было отмечено ранее, введение в оборот искусственного интеллекта при любых обстоятельствах сопровождается возникновением ряда проблем юридического характера.

Так, Ирина Шурмина среди горячих тем правового регулирования, возникающих в связи с использованием технологии искусственного интеллекта, выделяет следующие:

конфиденциальность данных;

безопасность и ответственность;

функционирование технологии «больших данных» (big data);

интеллектуальная собственность;

этика.

Основной составляющей искусственного интеллекта являются данные, при этом именно их большое количество позволяет системе обучаться, развиваться и учиться самостоятельно принимать решения. По этой причине следует отдельно проанализировать Закон № 123-ФЗ на предмет соответствия законодательству о персональных данных.

Обработка персональных данных, то есть любые действия (операции), совершаемые с персональными данными (с использованием средств автоматизации или без использования таких средств), для исследовательских целей осуществляется только с условием обязательного их обезличивания (п. 9 ст. 6 Федерального закона от 27 июля 2006 г. № 152 «О персональных данных»). При этом ст. 7 Закона № 123-ФЗ дополняет норму указанием, что обработка таких персональных данных осуществляется в целях повышения эффективности государственного или муниципального управления. Данная норма не является единственным нововведением в законодательстве о персональных данных: законодатель расширил условия обработки специальных категорий персональных данных (касающихся расовой, национальной принадлежности, политических взглядов, религиозных или философских убеждений, состояния здоровья, интимной жизни).

Специальные категории персональных данных, полагает Александр Савельев, юрисконсульт компании IBM Россия/СНГ, доцент факультета права НИУ ВШЭ, к. ю. н. обладают особым правовым статусом ввиду потенциальной возможности наступления особо негативных последствий для субъекта при нарушении условий их обработки. Теперь обработка персональных данных, касающихся состояния здоровья, полученных в результате обезличивания персональных данных, допускается в целях повышения эффективности государственного или муниципального управления.

Анна Серебряникова, управляющий партнер nlogic и президент Ассоциации больших данных полагает, что в рамках реализации правового режима целесообразно проработать объединение и обработку анонимизированных данных о клиентах из разных источников (банковские, абонентские данные, а также данные о поведении в Интернете) в целях кардинального улучшения планирования инвестиций для запуска гражданами малого и микробизнеса.

Как было отмечено ранее, еще одной острой проблемой применения технологии искусственного интеллекта является проблема безопасности. Особенно актуальным вопрос становится в связи с активным внедрением использования беспилотного транспорта. Так, на сегодняшний день нет единого мнения по вопросу юридической ответственности искусственного интеллекта за причиненный вред жизни и здоровью человека. В ряде зарубежных стран имели место случаи соответствующих ситуаций, что только подогрело дискуссию о необходимости правового регулирования ответственности искусственного интеллекта. В РФ аналогичных кейсов на данный момент нет, но постепенное увеличение числа беспилотных транспортных средств демонстрирует, что это является вопросом времени.

Ирина Шурмина также отметила, что в ряде случаев ставится вопрос о том, в каких сферах применение искусственного интеллекта в целом недопустимо или допустимо с соблюдением строгого контроля за его деятельностью, что противоречит сути функционирования искусственного интеллекта. Наиболее характерным примером выступает применение возможности использования беспилотных автомобилей: при функционировании автомобиля без инженера-тестировщика отрытым остается вопрос о распределении юридической ответственности при аварии. Однако использование беспилотного автомобиля с человеком, контролирующим его управление внутри, противоречит сути беспилотного транспорта и в значительной степени тормозит развитие технологии. Сергей Бородин, управляющий партнер коллегии адвокатов «Бородин и Партнеры», вице-президент Международного Союза (Содружества) адвокатов по международным связям, к. ю. н. считает, что ст. 264 и ст. 268 Уголовного кодекса, которыми установлена ответственность за нарушение правил дорожного движения или эксплуатации транспортных средств, неприменимо для аварий с участием беспилотного автомобиля по причине строгого формального характера уголовного законодательства с четким определением субъектов данных преступлений. Эксперт полагает, что в небольшом количестве случаев с определенными оговорками причинение вреда в такой ситуации может быть расценено как «оказание услуг, не отвечающих требованиям безопасности, если они повлекли по неосторожности причинение тяжкого вреда здоровью либо смерть человека» (ч. 2 ст. 238 УК РФ).

Как в случае с большинством явлений цифровой экономики правовая природа искусственного интеллекта не является очевидной. В то же время применение технологии распространяет свое влияние практически на все сферы общественной жизни: медицину, транспорт, экономику, образование и т. п. Развитие искусственного интеллекта диктует необходимость поиска новых решений правового регулирования технологии.

С 1 июля в России запланировано проведение пятилетнего эксперимента по внедрению технологий искусственного интеллекта на территории Москвы в рамках Национальной программы «Цифровая экономика Российской Федерации» (Федеральный закон от 24 апреля 2020 г. № 123-ФЗ "О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации — городе федерального значения Москве и внесении изменений в статьи 6 и 10 Федерального закона «О персональных данных».

Закон № 123-ФЗ регламентирует условия для разработки и внедрения технологий искусственного интеллекта, а также возможность последующего использования результатов его применения. Им установлен экспериментальный правовой режим на ближайшие пять лет. При этом аналогичные правовые режимы планируется внедрить и в других субъектах РФ. Так, напомним, Владимир Путин утвердил перечень поручений по итогам совещания по вопросу развития информационно-коммуникационных технологий и связи, среди которых фигурирует поручение Правительству РФ принять меры по утверждению отдельного федерального проекта "Искусственный интеллект" до 31 августа.

Круг правовых проблем, возникающих в связи с использованием технологии искусственного интеллекта, является весьма обширным. По этой причине представляется целесообразным изучить положения Закона № 123-ФЗ и проанализировать их на предмет практикоориентированности.

Понятие искусственного интеллекта в российском праве

Юридически понятие «искусственный интеллект» впервые было сформулировано на подзаконном уровне Указом Президента РФ от 10 октября 2019 г. № 490 "О развитии искусственного интеллекта в Российской Федерации", впоследствии перекочевав в рассматриваемый Закон № 123-ФЗ. Под ним понимают комплекс технологических решений, который позволяет имитировать когнитивные функции человека и получать результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека. При этом отдельно отмечается, что имитация включает самообучение и поиск решений без заранее заданного алгоритма. Важно обратить внимание на то, что определение в полной мере охватывает доступные на данный момент виды искусственного интеллекта в широком понимании: искусственный интеллект, работающий на основе заранее определенных задач (имеющихся знаний), и искусственный интеллект, работающий автономно, то есть технология, которая для выполнения задач может потенциально полностью заменить человека.

Илья Дурницын, корпоративный юрист ООО «Проспектаси» полагает, что введенное определение является широким, так как преследует цель охватить обширный круг возможных достижений в развитии искусственного интеллекта. При этом половина определения составляет перечисление сфер потенциальной применимости технологии искусственного интеллекта. Юрист придерживается мнения, что формулировка, разъясняющая содержание и смысл искусственного интеллекта, приведенная в Законе № 123-ФЗ, является слишком широкой и спорной с технической точки зрения. Во-первых, понятие «имитация когнитивных функций» человека допускает различные интерпретации (так, в XIX веке такой имитацией считалось способность машины вести обычный счет). Во-вторых, если учитывать способность машины к самообучению и решению задач «без алгоритмов», как предлагает определение, то нужно учитывать множество нюансов, чтобы термин имел четкий смысл. Например, является ли самообучение неконтролируемым или нет. Классическим примером неконтролируемого самообучения, отмечает эксперт, является нейронная сеть, которая уже сейчас способна давать точные прогнозы, например по котировкам рынка. Делает ли это программу по расчету торгов на рынке искусственным интеллектом? Или же все-таки искусственному интеллекту необходимы свойства субстантивности и возможность воспринимать? В-третьих – само определение «самообучение» как отдельное понятие отсутствует в российском праве, что также затрудняет в полной мере понимание определения «искусственный интеллект», данное в Законе № 123-ФЗ.

Таким образом, Илья Дурницын делает вывод, что данное определение смоделировано так, чтобы охватить максимально большой круг деятельности для будущего развития искусственного интеллекта, а не дать четкое и лаконичное объяснение основным понятием с технической точки зрения.

При этом некоторые эксперты предполагают, что широкое определение на данном этапе является скорее преимуществом, чем недостатком, так как именно проведение эксперимента по внедрению искусственного интеллекта позволит определить, каким образом сформулированное понятие следует изменить. Ирина Шурмина, старший юрист CMS и Ксения Даньшина, юрист CMS считают важным, что определение отражает принципиальные характеристики искусственного интеллекта, которые выявляются из его определения:

это комплекс технологий, а не одна технология;

искусственный интеллект может самообучаться и искать решения без заранее заданных алгоритмов – это принципиальное его отличие от других технологий;

искусственный интеллект может получать результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека – то есть в определении заложено, что потенциально искусственный интеллект может получать более совершенные результаты, чем получаемые человеком.

Павел Ганин, адвокат (Палата адвокатов Нижегородской области), советник юридической компании a.t.Legal считает, что для более четкого понимания термина «искусственный интеллект» необходимо предоставление на государственном уровне возможностей для развития технологий искусственного интеллекта с привлечением юридических лиц и индивидуальных предпринимателей, осуществляющих деятельность по разработке, созданию, внедрению, реализации или обороту технологий искусственного интеллекта, а также товаров на основе указанных технологий. Прежде всего, это касается выведение нормативного регулирования искусственного интеллекта в РФ из «серой» зоны и введение операций с использованием искусственного интеллекта в повседневную практику отношений в государстве.

Правовые проблемы технологии искусственного интеллекта

Как было отмечено ранее, введение в оборот искусственного интеллекта при любых обстоятельствах сопровождается возникновением ряда проблем юридического характера.

Так, Ирина Шурмина среди горячих тем правового регулирования, возникающих в связи с использованием технологии искусственного интеллекта, выделяет следующие:

конфиденциальность данных;

безопасность и ответственность;

функционирование технологии «больших данных» (big data);

интеллектуальная собственность;

этика.

Основной составляющей искусственного интеллекта являются данные, при этом именно их большое количество позволяет системе обучаться, развиваться и учиться самостоятельно принимать решения. По этой причине следует отдельно проанализировать Закон № 123-ФЗ на предмет соответствия законодательству о персональных данных.

Обработка персональных данных, то есть любые действия (операции), совершаемые с персональными данными (с использованием средств автоматизации или без использования таких средств), для исследовательских целей осуществляется только с условием обязательного их обезличивания (п. 9 ст. 6 Федерального закона от 27 июля 2006 г. № 152 «О персональных данных»). При этом ст. 7 Закона № 123-ФЗ дополняет норму указанием, что обработка таких персональных данных осуществляется в целях повышения эффективности государственного или муниципального управления. Данная норма не является единственным нововведением в законодательстве о персональных данных: законодатель расширил условия обработки специальных категорий персональных данных (касающихся расовой, национальной принадлежности, политических взглядов, религиозных или философских убеждений, состояния здоровья, интимной жизни). Специальные категории персональных данных, полагает Александр Савельев, юрисконсульт компании IBM Россия/СНГ, доцент факультета права НИУ ВШЭ, к. ю. н. обладают особым правовым статусом ввиду потенциальной возможности наступления особо негативных последствий для субъекта при нарушении условий их обработки. Теперь обработка персональных данных, касающихся состояния здоровья, полученных в результате обезличивания персональных данных, допускается в целях повышения эффективности государственного или муниципального управления. Анна Серебряникова, управляющий партнер nlogic и президент Ассоциации больших данных полагает, что в рамках реализации правового режима целесообразно проработать объединение и обработку анонимизированных данных о клиентах из разных источников (банковские, абонентские данные, а также данные о поведении в Интернете) в целях кардинального улучшения планирования инвестиций для запуска гражданами малого и микробизнеса.

Как было отмечено ранее, еще одной острой проблемой применения технологии искусственного интеллекта является проблема безопасности. Особенно актуальным вопрос становится в связи с активным внедрением использования беспилотного транспорта. Так, на сегодняшний день нет единого мнения по вопросу юридической ответственности искусственного интеллекта за причиненный вред жизни и здоровью человека. В ряде зарубежных стран имели место случаи соответствующих ситуаций, что только подогрело дискуссию о необходимости правового регулирования ответственности искусственного интеллекта. В РФ аналогичных кейсов на данный момент нет, но постепенное увеличение числа беспилотных транспортных средств демонстрирует, что это является вопросом времени.

Ирина Шурмина также отметила, что в ряде случаев ставится вопрос о том, в каких сферах применение искусственного интеллекта в целом недопустимо или допустимо с соблюдением строгого контроля за его деятельностью, что противоречит сути функционирования искусственного интеллекта. Наиболее характерным примером выступает применение возможности использования беспилотных автомобилей: при функционировании автомобиля без инженера-тестировщика отрытым остается вопрос о распределении юридической ответственности при аварии. Однако использование беспилотного автомобиля с человеком, контролирующим его управление внутри, противоречит сути беспилотного транспорта и в значительной степени тормозит развитие технологии. Сергей Бородин, управляющий партнер коллегии адвокатов «Бородин и Партнеры», вице-президент Международного Союза (Содружества) адвокатов по международным связям, к. ю. н. считает, что ст. 264 и ст. 268 Уголовного кодекса, которыми установлена ответственность за нарушение правил дорожного движения или эксплуатации транспортных средств, неприменимо для аварий с участием беспилотного автомобиля по причине строгого формального характера уголовного законодательства с четким определением субъектов данных преступлений. Эксперт полагает, что в небольшом количестве случаев с определенными оговорками причинение вреда в такой ситуации может быть расценено как «оказание услуг, не отвечающих требованиям безопасности, если они повлекли по неосторожности причинение тяжкого вреда здоровью либо смерть человека» (ч. 2 ст. 238 УК РФ).

ГАРАНТ.РУ: http://www.garant.ru/news/1401154/#ixzz6T7QDROw3

16:39
373
RSS
Нет комментариев. Ваш будет первым!