Роботы в законе. Должен ли искусственный интеллект отвечать за свои проступки
Технологические практики значительно опережают этическую и юридическую дискуссии вокруг них. Поэтому любой выход машины за пределы условной нормы может спровоцировать непонимание или агрессию. В аналитическом докладе*, подготовленном по заказу Госдумы для международного форума «Развитие парламентаризма», эксперты ряда подразделений НИУ ВШЭ, в частности ИСИЭЗ, представили мировые кейсы правового регулирования робототехники, рынков криптовалют, распространения недостоверной информации (fake news), агротехнологий, беспилотного транспорта, образования для цифровой экономики.
О самом интересном IQ.HSE расскажет в серии материалов. Сегодня – о проблемах искусственного интеллекта.
Опасная самостоятельность
В США при вынесении приговоров судьи используют оценки, полученные от различных компьютерных алгоритмов. Например, от системы Compas, которая предсказывает риск совершения повторного преступления. В 2016-м Эрик Лумис — один из заключенных, признанных ею потенциально опасным, получил шесть лет тюрьмы. Посчитав, что алгоритм сработал некорректно, Лумис подал апелляцию, но потерпел фиаско. Узнать, на основе какой информации принято решение, не удалось: технология принадлежит частной компании и является коммерческой тайной.
Свои вердикты секретная программа выносит по множеству данных о человеке — его возрасте, поле, национальности, образовании, доходах, фактах биографии, психологическим характеристикам и проч. Правота подобного «судейства» признается далеко не всеми. Эксперимент ученых из Дартмутского колледжа (США) показал, что Compas эффективен лишь в 65% случаев. Тем не менее за 20 лет с его помощью оценили поведение более миллиона обвиняемых.
Технология из фантастического триллера «Особое мнение» Стивена Спилберга давно в реальности. Компьютеры определяют степень опасности человека, полиция получает списки потенциальных преступников. Насколько это этично и чем грозит? Кинодокументалисты ищут ответы в фильме «PRE-CRIME» (Германия, 2017).
Системы на основе искусственного интеллекта (ИИ), в том числе интеллектуальные роботы, вершат законы, управляют транспортом и дорогами, лечат, делают безлюдными производства. Они становятся сложнее, а значит автономнее, уменьшая способность человека понимать и контролировать логику их «поступков».
С одной стороны, контроль и без того ограничен: большинство алгоритмов запатентованы, коммерческая тайна, как в случае с Лумисом, не позволяет до конца понять механизмы их действия. С другой, даже создатели не застрахованы от непредсказуемости своих творений: системы могут учиться на собственном опыте, впитывать общественные стереотипы и на основе этого принимать решения.
Такая склонность к самостоятельности ставит вопросы юридической ответственности ИИ. Повсеместный переход на умные технологии не за горами и для него, полагают авторы доклада, «необходим кардинальный пересмотр многих правовых норм, действующих со времен римского права».
Искусственный интеллект — наука и технология создания интеллектуальных машин, особенно интеллектуальных компьютерных программ.
Термин введен в употребление американским информатиком Джоном Маккарти. Предложен в 1956 году на конференции в Дартмутском колледже (США) — первом научном семинаре по искусственному интеллекту.
Динамика развития технологий искусственного интеллекта
2011 год
67 сделок по инвестициям в стартапы
на общую сумму $282 млн
2012
131 сделка ($415 млн)
2013
196 сделок ($757 млн)
2014
307 сделок ($2,17 млрд)
2015
397 сделок ($2,38 млрд)
Как регулировать компьютерный мозг
Предлагаются несколько моделей — от переложения на искусственный интеллект существующих законодательных норм до создания принципиально новых. Технологии ИИ можно рассматривать как:
Объект авторских прав, имущество или источник повышенной опасности
Применение норм об охране авторских прав, имуществе или об источниках повышенной опасности.
Например, в отношении финансовых алгоритмов для совершения сделок или в случаях аварий с участием беспилотного транспорта. Пока подобных происшествий мало и до суда разбирательство чаще не доходит. Но технический прогресс и способность искусственного мозга к автономии увеличат и число таких дел, и сложности с их регулированием.
Особый вид имущества
Использование норм, регламентирующих особый вид имущества — животных , поскольку последние также могут вести себя автономно.
В правовых системах в отношении животных обычно действуют общие правила об имуществе, следовательно, отвечать за ИИ, как и за животных, будут владельцы. Однако у такого подхода есть ограничения:
в рамках уголовного права применение законодательства по аналогии недопустимо;
существующие нормы созданы в первую очередь для домашних питомцев, которые не должны причинять вред при обычных обстоятельствах. В некоторых странах «в определённых случаях можно использовать более жёсткие нормы касательно диких животных, но это грозит замедлить инновации в связи с непредсказуемыми рисками ответственности для создателей», — комментирует один из авторов доклада, научный сотрудник Института права и развития ВШЭ — Сколково Максим Карлюк.
Юридическое лицо
Применение норм о юридических лицах.
Интеллектуальные машины, получившие этот статус, будут нести ту же ответственность, что и юрлица. Впрочем и здесь возникает проблема с аналогиями: «действия юридических лиц всегда восходят к действиям индивида или группы людей. Действия же систем на основе искусственного интеллекта не обязательно будут прямо восходить к действиям человека».
Новая правовая категория
Технологии ИИ наделяются «особой правосубъектностью».
В 2017 году Европейский парламент принял резолюцию «Нормы гражданского права о робототехнике». Помимо других вариантов ответственности, наиболее продвинутым машинам предлагается дать особый правовой статус электронного лица. «В резолюции не уточняется, но подразумевается, что такие роботы будут способны самостоятельно отвечать за ущерб, который наносят», — поясняет Максим Карлюк.
Создание условий
Резолюция Европарламента предусматривает систему обязательного страхования роботов их владельцами и производителями (наподобие страхования ответственности автоводителей в случае аварии). А когда причиненный вред не покрывается страховкой, деньги должны выплачиваться из специального компенсационного фонда.
Пока это лишь благие намерения. На практике полноценных законов о роботосфере и как таковом искусственном интеллекте в мире нет.
В странах, наиболее активно применяющих ИИ, правовые условия создаются. Одной из первых была Южная Корея. С 2008 года там существует Закон «О содействии развитию и распространению умных роботов». Под умным роботом понимается «механическое устройство, которое способно воспринимать окружающую среду, распознавать обстоятельства, в которых оно функционирует, и целенаправленно передвигаться самостоятельно». Введены термины «компания, инвестирующая в умных роботов» и «роботолэнд» (территория с инфраструктурой для развития и распространения роботов). Государство берет на себя ответственность за индустрию, финансирует ее и контролирует производителей в рамках закона.
В 2017 году Стратегия по искусственному интеллекту принята в Объеденных Арабских Эмиратах. Она направлена на внедрение ИИ в сфере транспорта, образования, космоса, производства. Здесь же, в ОАЭ, впервые в мире создано министерство по делам искусственного интеллекта, а первым в истории планеты министром по ИИ стал 27-летний Омар Бен Султан Аль-Олама.
В конце марта 2018 года национальная стратегия в сфере искусственного интеллекта, основанная на рекомендациях экспертов, также появилась во Франции. А Япония в 2015-м утвердила пятилетнюю «Новую стратегию роботов». Чтобы сохранить статус ведущей роботодержавы, нужна правовая реформа, говорится в документе – от поправок в законодательстве до появления ранее не существовавших правил эксплуатации роботов (создание новой системы радиочастот, изменения законов в области медицины, страхования, дорожного движения и проч.).
Российские реалии
С 30 марта 2016 года вступили в силу поправки к Воздушному кодексу РФ, устанавливающие обязательную сертификацию, аттестацию и государственную регистрацию беспилотных летательных аппаратов (дронов).
Термины, используемые в отношении роботов и роботизированных устройств, определены в действующем с 2016 года госстандарте ГОСТ Р ИСО 8373–2014 (идентичен мировому стандарту ISO 8373:2012).
В 2016-м международной юридической фирмой Dentons по заказу Grishin Robotics разработана концепция первого проекта закона о робототехнике. Предлагается внести поправки в Гражданский кодекс, в том числе добавить главу о роботах, способных действовать самостоятельно (роботах-агентах).
В конце 2017 года на рассмотрение в Комитет Государственной Думы РФ по экономической политике, промышленности, инновационному развитию и предпринимательству направлена «Модельная конвенция о робототехнике и искусственном интеллекте» от исследовательского центра «Робоправо». В документе предлагаются правила разработки, создания и использования роботов всех категорий независимо от их назначения, степени опасности, мобильности или автономности.
Клятва для программистов
В 2016 году СМИ сообщили об изобретении робота, способного умышленно нанести вред человеку. Это лишний раз показало актуальность защиты пользователей.
Авторы российской Модельной конвенции о робототехнике для этих целей предлагают оснастить роботов «черным ящиком» (фиксация и хранение информации о совершаемых действиях) и «красной кнопкой» (моментальное или аварийное отключение по требованию). В «Нормах гражданского права о робототехнике» от Европарламента прописывается функция отмены неправильного «поступка» робота, возвращения на несколько шагов назад и восстановления нормального хода работы.
Безопасность машин — вопрос качества их программирования, отсылающий к качествам самих «программистов» (исследователей, создателей, владельцев). Поэтому рядом с Правом встает Этика.
Этические вопросы так или иначе поднимаются во всех инициативах по регулированию отрасли. В 2018 году компания Майкрософт выпустила отчёт о влиянии искусственного интеллекта на человечество, предложив ввести аналог «клятвы Гиппократа» для программистов. А резолюция Европарламента, отсылая к законам робототехники Айзека Азимова, содержит Кодекс этики для разработчиков робототехники, закрепляющий четыре принципа:
«делай благо» (роботы обязаны действовать в интересах людей);
«не навреди» (роботы не должны причинять вред человеку);
автономия (добровольность взаимодействия человека с роботом);
справедливость (справедливое распределение выгод, получаемых от деятельности роботов).
IQ
* Аналитический доклад «Мировое экономическое развитие в условиях технологических вызовов: новые потребности в законодательном регулировании и отдельные практики» подготовлен экспертами научных подразделений НИУ ВШЭ: Института «Центр развития»; Института статистических исследований и экономики знаний; Института права и развития ВШЭ-Сколково; Института проблем правового регулирования; Института экономики транспорта и транспортной политики; Института образования.
Авторы доклада: В. Миронов, А. Соколов, Я. Радомирова, Т. Мешкова, Я. Моисеичев, М. Карлюк, А. Дупан, Ю. Бикбулатова, К. Молодыко, М. Башкатов, Е. Галкова, М. Блинкин, А. Рыжков, А. Иванов, Д. Каталевский, С. Янкевич, Н. Княгинина, Ю. Симачев.
Ранее по теме: На международном форуме обсудили законодательные аспекты развития мировой экономики