Искусственный интеллект в правовом поле: субъект, объект или инструмент?


С юридической точки зрения искусственный интеллект (ИИ) представляет собой сложный феномен, требующий четкого определения и правового регулирования. В интервью с экспертом Иваном Пургиным, исполнительным директором компании «Фрактал», обсуждаются ключевые вопросы, связанные с ИИ в юриспруденции: от его правосубъектности до этических стандартов и практики применения. Основная опасность, по мнению эксперта, заключается в попытках наделить ИИ субъектностью, что может привести к необоснованному перекладыванию ответственности с разработчиков и владельцев на неодушевленные системы.

В России на данный момент отсутствует специализированное законодательство, регулирующее сферу искусственного интеллекта. Активные дискуссии ведутся вокруг нескольких фундаментальных аспектов:

  1. Правосубъектность ИИ: Может ли искусственный интеллект быть носителем прав и обязанностей?
  2. Стандарты разработки: Какие правовые и этические нормы должны соблюдаться при создании технологий ИИ.
  3. Сфера применения: В каких областях права допустимо использование ИИ.
  4. Работа с данными: Вопросы сбора больших данных и защиты персональной информации в контексте обучения нейросетей.

Особенно оживленные споры вызывает тема правосубъектности, которая стала благодатной почвой для юридических и философских размышлений о статусе роботов и интеллектуальных систем.

«Сильный» и «слабый» ИИ: философская основа для права

Прежде чем определять правовой статус, необходимо договориться о терминах. Юриспруденция заимствует из философии концепцию Джона Сирла о «сильном» и «слабом» искусственном интеллекте. «Слабый» ИИ — это системы, решающие конкретные задачи по заранее заданным алгоритмам. «Сильный» ИИ — гипотетическая система, обладающая сознанием, волей и способностью решать широкий круг задач без предустановленных алгоритмов.

В действующее законодательство, как в России, так и за рубежом, включено понятие именно «слабого» ИИ. Это логично, поскольку появление «сильного» ИИ пока маловероятно, а дискуссии о его правовом статусе носят сугубо теоретический характер.

Законодательные определения ИИ в мире: от Китая до Европы

Подходы к определению искусственного интеллекта в нормативных актах разных стран значительно различаются.

Китай в «Шанхайских правилах» определяет ИИ как комплекс теорий, методов и систем, использующих компьютеры для моделирования и расширения человеческого интеллекта с целью достижения наилучших результатов.

Европейский Союз в своем Регламенте 2024 года не дает строгого определения, но фокусируется на ключевых характеристиках: системы ИИ способны к автоматическим действиям и выводам, влияющим на физическую и виртуальную среду.

Российская Федерация в Указе Президента №490 определяет ИИ как совокупность технологических решений, имитирующих когнитивные функции человека (включая поиск решений без заданного алгоритма) и достигающих результатов, сопоставимых с человеческими. Это определение включает инфраструктуру, ПО, методы машинного обучения и сервисы обработки данных.

На практике сегодня под ИИ чаще всего понимают технологии машинного обучения, которые анализируют большие данные. В широком смысле — это область науки, создающая программы, имитирующие человеческое мышление.

Правосубъектность ИИ: инструмент, а не личность

В прикладном смысле актуален вопрос правового статуса только «слабого» ИИ. Существуют две основные концепции:

  1. ИИ как объект права (аналогично имуществу или, в некоторых дискуссиях, животным).
  2. ИИ как субъект права (по аналогии с юридическим лицом, физическим лицом или как новый тип — «электронная личность»).

Экспертная позиция, представленная в статье, считает любые разговоры о субъектности ИИ опасными. Они рискуют переложить ответственность за действия системы с ее создателей и владельцев на неодушевленный объект. Искусственный интеллект — это, прежде всего, объект права и эффективный инструмент. Закон должен рассматривать его именно так. Такой подход не требует создания абсолютно новых правовых норм, но делает необходимой корректировку существующих законов.

Большие данные и обучение ИИ: баланс между инновациями и приватностью

Острейший вопрос — доступ к большим данным для обучения нейросетей. Для создания эффективных алгоритмов (например, для диагностики заболеваний по фото) нужны огромные массивы информации, часто включающей персональные данные. Это вступает в противоречие с законодательством о защите персональных данных.

Для решения этой проблемы в России создана Ассоциация больших данных (включающая крупнейшие IT- и финансовые компании), которая совместно с Минцифры работает над законом об обмене и доступе к большим данным. Пока единый подход, устраивающий и бизнес, и государство, не найден, что тормозит развитие сектора. Однако риски утечек и злоупотреблений персональными данными в эпоху дипфейков и быстрой оцифровки весьма реальны.

Требует усиления и защита права на изображение. Ст. 152.1 ГК РФ запрещает использование изображения гражданина без его согласия. Эксперт считает, что в эпоху дипфейков это право нуждается в дополнительной защите, приводя в пример Китай, где с 2023 года использование дипфейков строго регламентировано и требует специальной маркировки.

ИИ в правосудии: помощник, но не судья

Китай демонстрирует впечатляющий прогресс во внедрении ИИ в судебную систему («Умный суд»). Судьи обязаны использовать рекомендации ИИ, а в случае отклонения — давать письменное обоснование, которое, в свою очередь, становится data для обучения системы.

Применение ИИ в правосудии — тема спорная. С одной стороны, оно может унифицировать практику, ускорить обработку типовых дел и снизить коррупционные риски. С другой — даже самые совершенные алгоритмы могут ошибаться, упускать нюансы или быть изначально построенными на ошибочных данных. Ключевой вывод: машина не должна вершить судьбы. Окончательное решение и ответственность за него должны оставаться за человеком. Этот принцип, например, реализован в системе фотовидеофиксации нарушений ПДД в РФ, где решение о штрафе принимает инспектор, а не камера.

Два глобальных подхода к регулированию ИИ

В мире сформировалось два основных подхода к правовому регулированию ИИ:

1. Системный (ЕС): Комплексное регулирование — создание единых строгих правил для всех отраслей и видов ИИ сразу. Преимущество — последовательность и устранение правовых коллизий. Недостаток — медлительность и потенциальное торможение инноваций (Регламент ЕС вступит в силу только в 2026 году).

2. Оперативный (Китай, США, Япония, Россия): Точечное регулирование по мере возникновения конкретных проблем и развития технологий. Преимущество — гибкость и стимулирование развития. Недостаток — возможное запаздывание в защите прав граждан, как в случае с технологией распознавания лиц в Китае.

ИИ в российском правовом поле: точечные корректировки

Для России, помимо вопросов данных и изображений, актуальны проблемы регулирования ИИ в рамках трудового права (например, скрытое наблюдение за сотрудниками) и интеллектуальной собственности (авторство произведений, созданных ИИ). Однако, по мнению эксперта, эти вопросы носят адресный характер и не требуют полного пересмотра законодательства.

Помимо указа Президента, в России действует Кодекс этики в сфере ИИ, а также существуют нормы «мягкого права», такие как резолюция Европарламента об этических принципах, которые призывают ставить интересы человека во главу угла при разработке ИИ.

Будущее права и ИИ: эволюция, а не революция

Очевидно, что законодательство во всем мире будет ужесточать контроль над разработкой и использованием ИИ. Однако ожидать «правовой революции» не стоит. Скорее, стандарты, отвечающие вызовам времени, будут постепенно интегрированы в существующие правовые框架 (правовые рамки). Искусственный интеллект останется мощным инструментом, требующим разумного управления и четкого закрепления ответственности за теми, кто его создает и применяет.

Все последние новости искусственного интеллекта читайте на New-Science.ru

Больше интересных статей здесь: Новости науки и техники.

Источник статьи: Что есть Искусственный Интеллект с точки зрения права.