Что такое искусственный интеллект с юридической точки зрения? В чем опасность говорить о субъективности искусственного интеллекта и перекладывать ответственность за результаты работы машины с разработчика и владельца устройства на неодушевленный предмет? Это и многое другое обсуждается с профессиональным мнением эксперта, который не понаслышке знаком с искусственным интеллектом. Иван Пургин, исполнительный директор компании «Фрактал», рассказывает о сложностях «искусственного интеллекта в юриспруденции».
В настоящее время в России нет специального законодательства в сфере надзора за искусственным интеллектом (далее — ИИ). В настоящее время ведется много дискуссий о правовом регулировании искусственного интеллекта, в основном речь идет о следующих аспектах:
- Правосубъектность искусственного интеллекта.
- Какие стандарты (правовые и этические) следует соблюдать при разработке технологий искусственного интеллекта.
- В каких правовых сферах можно применять искусственный интеллект.
- Сбор и использование больших данных и защита персональных данных.
Юристы много писали о правосубъектности. Теперь это благодатная почва для размышлений, особенно если мы зададимся вопросом о правовом статусе роботов и искусственного интеллекта.
ИИ «сильный» и «слабый»
Но прежде чем говорить о правовом статусе объекта, необходимо его определить. Юридическая наука заимствует концепции «сильного» и «слабого» искусственного интеллекта из философии искусственного интеллекта Джона Сирла. «Слабый» ИИ сможет решать множество конкретных задач с помощью заданного алгоритма, а «сильный» ИИ (когда он появится) сможет решать широкий круг задач без заранее заданного алгоритма, обладая и волей, и сознанием.
Понятие «слабый» искусственный интеллект включено в законодательство в России и за рубежом. На наш взгляд, это логично, поскольку возможность появления «сильного» искусственного интеллекта пока кажется малоправдоподобной, а дискуссии о правовом статусе сознательных программ или аппаратно-программных комплексов носят чисто теоретический характер.
ИИ - законодательства в разных странах
Определения искусственного интеллекта в нормативных актах различаются по широте и глубине. Поэтому в зарубежном законодательстве мы встречаем следующие определения искусственного интеллекта:
Китай. «Шанхайские правила содействия развитию индустрии искусственного интеллекта» определяют искусственный интеллект как теории, методы, технологии и программные системы, которые используют компьютеры и машины для моделирования, расширения и дополнения человеческого интеллекта, восприятия окружающей среды, приобретения знаний и использования их для достичь конкретных целей. Лучшие результаты.
Европа. Регламент ЕС по искусственному интеллекту, принятый Европейским парламентом в 2024 году, не дает определения искусственному интеллекту, но четко определяет ключевые характеристики систем искусственного интеллекта. К системам искусственного интеллекта относятся системы, предназначенные для автоматического выполнения действий и возможности делать выводы. «Эта способность рассуждения относится к процессу получения результатов, таких как прогнозы, контент, рекомендации или решения, которые влияют на физическую и виртуальную среду, а также к способности систем искусственного интеллекта выводить модели или алгоритмы или и то, и другое на основе входных данных.
В законодательстве Российской Федерации Указ Президента Российской Федерации № 490 «О развитии искусственного интеллекта в Российской Федерации» от 10 октября 2019 года определяет искусственный интеллект: «Искусственный интеллект – это совокупность технических решений, позволяющих подражать человеку. Когнитивные функции (в том числе поиск решений без заранее заданных алгоритмов) и достижение результатов, эквивалентных или превосходящих результаты интеллектуальной деятельности человека при выполнении конкретных задач. Этот набор технологических решений включает информационно-коммуникационную инфраструктуру, программное обеспечение (в том числе с использованием программного обеспечения) методы машинного обучения), процессы и услуги обработки данных и поиска решений».
Когда в наши дни люди говорят об искусственном интеллекте, они обычно имеют в виду технологию «машинного обучения», которая строит математические модели, выполняющие анализ на основе больших объемов данных. Но если говорить об искусственном интеллекте в широком смысле, то это совокупность научных теорий и методик создания программ, имитирующих когнитивные функции человека.
ИИ – субъект, объект, юрлицо или «животное»?
Возвращаясь к вопросу о правосубъектности искусственного интеллекта, необходимо отметить, что в прикладном смысле важно оценивать только правосубъектность «слабого» искусственного интеллекта. Существует несколько концепций относительно правового статуса искусственного интеллекта и роботов, созданных на основе методов нейронных сетей. Рекомендации ИИ учитываются:
- Юридические объекты (в том числе как «животные»)
- Юридический субъект (по аналогии с юридическим лицом или даже физическим лицом, или как новый субъект - «цифровое» или «электронное» лицо)
Мы считаем, что любая форма дискуссии о субъективности технологии искусственного интеллекта опасна, поскольку перекладывает ответственность за результаты работы машины с разработчиков и владельцев устройства на неодушевленный объект.
По любому определению искусственный интеллект — это объект закона, эффективный инструмент улучшения работы машин и упрощения работы человека, и именно так его должен рассматривать закон. При таком подходе Российской Федерации пока нет необходимости разрабатывать конкретные, совершенно новые нормы, регулирующие использование искусственного интеллекта, но корректировки существующих законов уже требуют рассмотрения, и проблемы возникнут в будущем.
Проблемы ИИ-обучения и доступа к большим данным
Одним из вопросов, широко обсуждаемых в профессиональном сообществе, является получение больших данных. Этот вопрос поднимался несколько раз на заседании CIPR в этом году.
Дело в том, что для обучения нейросетей необходим большой объем информации, то есть «очищаются» персональные данные граждан. Например, одна компания хотела создать приложение, которое будет использовать фотографии для определения вероятности наличия у человека злокачественной опухоли на коже. Для этого необходимо получить и обработать большое количество изображений различных образований. Вопрос: Где их получить и как не нарушить федеральный закон о «персональных данных». Для решения этой проблемы была создана Ассоциация больших данных (в которую вошли Яндекс, ВК, Сбербанк, Газпромбанк, Тинькофф Банк, Мегафон, Ростелеком, Qiwi, Билайн, МТС, Фонд Сколково, ВТБ, Авито и др.), которая совместно с Министерством Департамент цифрового развития разрабатывает закон о создании системы обмена большими данными и доступа к ним.
До сих пор не разработан подход, подходящий как бизнесу, так и государству, что существенно замедлило развитие сектора МСП.
Обратите внимание: Искусственный интеллект распознает человека лишь на основе движения глаз.
Но с другой стороны, угроза персональным данным при быстрой оцифровке не только реальна, но и может быть затронута большое количество граждан, если созданные системы помогут создать каналы утечки персональных данных.Мы считаем, что право на использование изображений граждан при распространении дипфейковых технологий также требует дополнительной защиты. Согласно статье 1. Статья 152.1 ГК РФ предусматривает, что опубликование и дальнейшее использование изображений граждан (в том числе их фотографий и видеозаписей или художественных произведений, их изображающих) допускаются только с согласия гражданина, но в случае нарушения этого права. По закону граждане имеют право потребовать удаления изображения, а также пресечь или запретить его дальнейшее распространение.
Я считаю, что эта сфера нуждается в более жестком регулировании. Возьмем, к примеру, Китай, январь 2023 года. Вступило в силу постановление, запрещающее использование дипфейковых приложений, если их использование угрожает национальной безопасности и социальной стабильности, нарушает общественный порядок или ущемляет законные права и интересы граждан. Использовать приложение можно только при наличии отметки о том, что контент создан с использованием технологии DeepFake.
ИИ и «Умный суд»
Надо сказать, что Китай добился большого прогресса в применении технологий искусственного интеллекта, правоприменении искусственного интеллекта и правовом регулировании. Например, технологии искусственного интеллекта широко используются в судопроизводстве, в том числе уголовном. В 2015 году была построена умная судебная система. Верховный суд Китая недавно постановил, что судьи должны использовать искусственный интеллект при принятии решений. В случае отклонения рекомендаций AI судья должен предоставить письменное объяснение своих действий. Эти объяснения, скорее всего, также станут основой для обучения нейронных сетей.
Применение искусственного интеллекта в правосудии – очень спорный вопрос. С одной стороны, технологии машинного обучения позволяют обрабатывать большое количество схожих материалов дел и выносить решения на основе сотен схожих рекомендаций, гомогенизируя судебную практику и устраняя коррупционные элементы. Однако даже самые умные машины могут допускать ошибки и упускать важные детали, кардинально меняющие обстоятельства дела, либо ошибки могут изначально пронизывать алгоритм обучения, но при обучении модели еще не устранен человеческий элемент; Вывод из этого заключается в том, что машины, даже самые умные, не должны решать судьбу, а люди должны нести ответственность за решения, которые они принимают.
ИИ и фотовидеофиксация нарушений ПДД
Например, в сфере фото- и видеосъемки нарушений правил дорожного движения в РФ принят именно такой принцип. Камера работает в автоматическом режиме и программа должна быть создана таким образом, чтобы не допускать постороннего вмешательства в процесс формирования и передачи фотоматериала для обеспечения доказательств преступления. Но решение о штрафе принимает не камера, а инспектор ГИБДД, получающий фотоматериал.
ИИ и «Два правовых подхода»
Сегодня в мире сложились два подхода к правовому регулированию искусственного интеллекта. Первый, который мы называем «системным», предполагает необходимость комплексного регулирования ИИ, то есть одновременного установления единых правил во всех отраслях, использующих виды, модели и технологии ИИ. Среди сторонников такого подхода есть страны ЕС.
Второй подход, который мы называем «оперативным», предполагает целенаправленное правовое регулирование использования технологий ИИ по мере развития потребностей общества и государства в них и развития технологии. К этой модели движутся Китай, США, Япония и, видимо, Россия.
Оба метода имеют недостатки и преимущества. Неоспоримым преимуществом первого метода является то, что он сложен и устраняет противоречие между нормативными актами и подзаконными актами. Однако очевидным недостатком является то, что этот вид надзора является медленным и имеет высокую степень запрета, хотя его цель – охранительная права граждан, это не способствует развитию науки и техники.
Таким образом, вышеупомянутые правила ЕС по искусственному интеллекту вступят в силу не раньше 2026 года. Напротив, при «оперативном» подходе законодатели быстрее реагируют на необходимость регулирования использования технологий, оценивая глубину регулирования, которая будет способствовать развитию инноваций, которые могут в данный момент ущемлять права граждан.
Одним из примеров является технология распознавания лиц в Китае, на которой построена система социального рейтинга граждан, однако использование этой технологии в Китае в настоящее время ограничено.
ИИ и «Трудовое право»
Если говорить о российском законодательстве, то помимо вышеперечисленных вопросов, касающихся защиты персональных данных и имиджа граждан, обсуждается и необходимость дополнительного регулирования использования технологий искусственного интеллекта в рамках трудового законодательства (например, без предупреждения сотрудников. Законно ли использовать систему видеонаблюдения с использованием технологий искусственного интеллекта), а в рамках прав интеллектуальной собственности: Кто является правообладателем, пользователем или правообладателем произведений, созданных искусственным интеллектом? Программное обеспечение, создавшее его, является ли созданный контент произведением. Но мы считаем, что все эти вопросы носит адресный характер и не требуют полного пересмотра законодательства.
Если говорить о специальных нормах, принятых в сфере регулирования искусственного интеллекта, то помимо упомянутого выше указа президента РФ в России действует также Кодекс этики в сфере искусственного интеллекта, который в во многом предлагает «Три закона робототехники» Азимова. Также существует свод законов
Создан «Альянсом искусственного интеллекта» во исполнение принятой Европейским парламентом в 2020 году резолюции «Этические принципы в области искусственного интеллекта, робототехники и связанных с ними технологий».
Это известно как «мягкое право» и требует, чтобы интересы человека ставились на первое место при разработке программного обеспечения для искусственного интеллекта.
ИИ и «Революция права»
Очевидно, что законодательство в различных странах будет двигаться в сторону ужесточения надзора и контроля за разработкой и использованием программного обеспечения искусственного интеллекта. Но очевидно также, что «правовой революции» в сфере искусственного интеллекта не произойдет, а стандарты, отвечающие требованиям времени, будут заложены в существующую законодательную структуру.
Все последние новости искусственного интеллекта читайте на New-Science.ruБольше интересных статей здесь: Новости науки и техники.
Источник статьи: Что есть Искусственный Интеллект с точки зрения права.