Искусственному разуму хотят запретить вредительство
В ЕС рассчитывают скорректировать сферы применения искусственного интеллекта (ИИ), запретив его использование для формирования социального рейтинга человека, манипулирования людьми и нанесения им увечий. Российские законодатели и юристы считают, что наша страна припоздала с регулированием сферы ИИ, в связи с чем предлагают усовершенствовать правовое поле. Особенно в части защиты персональных данных.
Роботам запретят оценивать людей
Опубликованный на днях проект регламента Еврокомиссии, включающий правила использования искусственного интеллекта, эксперты уже поспешили назвать первым в своём роде и, возможно, единственным. Документ подразделяет виды искусственного интеллекта на несколько групп по степени опасности.
Так, системы ИИ, несущие явную угрозу безопасности людей, включая их права и источники доходов, в ЕС намерены запретить. Крайняя мера воздействия, в частности, касается дистанционной биометрической идентификации, в том числе технологий распознавания лиц, за исключением поиска преступников и пропавших детей.
В числе рискованных также отмечены системы, способные манипулировать человеком или влияющие на его поступки (в том числе голосовые ассистенты, если они способствуют опасному поведению), а также системы, формирующие для властей «социальный рейтинг» гражданина.
Высокий уровень риска за ИИ закрепляется и в критически важных областях инфраструктуры (в том числе на транспорте), а также в образовании и профессиональном обучении при подсчёте баллов на экзаменах.
Чат-боты европейскими правоведами отнесены к категории ограниченного риска. Вводится такое правило: пользователи должны отчётливо понимать, что общаются с машиной, и способны сразу принять решение, продолжать ли общение или нет.
При этом разрешается свободное пользование основанными на ИИ видеоиграми или спам-фильтрами. Большая часть ИИ-систем будет попадать именно в эту категорию, и регулирование не будет их касаться, поскольку они не представляют риска для прав граждан или их безопасности, считают еврозаконодатели.
В то же время административные санкции для нарушителей продекларированных норм в ЕС предлагают довольно внушительные, со штрафами до шести процентов от общемирового оборота компаний. А если учесть, что ранее в Европе выставили жёсткие законодательные рамки для заокеанских IT-гигантов, то некоторые эксперты полагают, что в отдельных случаях нарушители европейского спокойствия могут потерять на штрафах до 10 миллиардов долларов.
Европа обороняется от чужих ИИ
«Сложно сказать, когда закон будет принят и какие изменения ещё может претерпеть, но пока еврозаконодатель требует, чтобы алгоритмы ИИ не использовались для слежки за людьми и не манипулировали человеческим поведением», — комментирует инициативу ЕС в своём Telegram-канале депутат Госдумы Антон Горелкин.
При этом парламентарий недоумевает, как развивать системы распознавания лиц «и прочей биометрии» в условиях строгих законодательных ограничений использования ИИ? И что делать с маркетинговыми системами, которые целиком и полностью имеют целью манипулировать поведением покупателя? «Иначе маркетинг не нужен вообще», — делает вывод парламентарий.
«Сами разработчики, кажется, очень недовольны жёсткостью будущих норм, но кто их в Европе будет слушать, — отмечает Горелкин. — А мы в России всегда слышим голос отечественных компаний и готовы корректировать наши законодательные инициативы. Поэтому наши IT-компании успешнее европейских».
Эксперты в ожиданиях не столь категоричны. Европейскую законодательную регуляторику ИИ глава Фонда развития цифровой экономики Герман Клименко считает вполне естественным явлением, хотя и с оговоркой. К самому искусственному интеллекту в Европе претензий нет ровно до того момента, пока он не переходит определённые границы, уточнил эксперт.
«В разных странах ещё только нащупывают, как эта регуляторика будет происходить, поэтому не готов сказать, ухудшит она или улучшит развитие искусственного интеллекта. Но одно можно сказать точно, что если бы не было Правил дорожного движения и отсутствовали разделительные полосы на автодорогах, то проехать было бы невозможно. А нынешнее состояние в сфере регулирования искусственного интеллекта как раз и напоминает такую ситуацию», — пояснил «Парламентской газете» эксперт.
Беспокойство европейцев по поводу сопряжения навыков ИИ с биометрией эксперт не считает навязчивой фобией. По его словам, в США во многих городах и штатах запрещено в принципе использовать распознавание лиц при помощи камер видеонаблюдения.
В то же время Клименко расценивает установление в Европе определённых стандартов ИИ как попытку защититься от проникновения технологий со стороны более продвинутых по части «цифры» держав.
«Появление определённых стандартов означает чёткое очерчивание рынка. Европа хочет защититься от проникновения чужих. А это важно. Потому что никому не хочется получить к себе в гости виртуального соседа, например из Китая. При этом никто не говорит, что с сегодняшнего дня Китай не может попасть в Европу. А вводя стандарты, ЕС заставляет под себя подстраиваться», — пояснил Клименко.
От ошибок ИИ никто не застрахован
В России искусственный интеллект развивается пока не так громко по части инициатив, но эффективность его применения уже доказана. К алгоритмам распознавания лиц ИИ сегодня подключены уличные камеры не менее чем в десяти российских городах (большинство из них не рассказывает об экспериментах с биометрией), что помогает полицейским с их помощью обнаружить преступников. В торговых центрах такие камеры внедряют для борьбы с магазинными воришками, а на стадионах - для обуздания неадекватных футбольных фанатов, сообщает ТАСС.
По данным агентства, при помощи ИИ было изобличено уже немало преступников, в том числе похититель картины Архипа Куинджи «Ай-Петри. Крым».
Однако эксперты полагают, что искусственному разуму, отвечающему за распознавание лиц на уличных камерах, ещё не скоро доверят полноценное управление процессом поимки преступников из-за случающихся то и дело сбоев.
К примеру, в Китае алгоритм просканировал лицо знаменитости из рекламы, наклеенной на проходящем автобусе, и ошибочно определил его как преступника. Директор НП «Русское биометрическое общество» Данила Николаев сообщил ТАСС, что в Великобритании, в Кардиффе, во время финала Лиги чемпионов УЕФА — 2017 ИИ записал в преступники более двух тысяч болельщиков.
«Ошибки могут быть связаны как с работой алгоритма, так и с работой оборудования. Часто при внедрении заказчики не следуют требованиям ГОСТ в области биометрии, а используют методики вендоров, которые не учитывают всех условий. И это приводит к разочарованиям», — приводит ТАСС слова эксперта.
Должна быть правовая определённость
На проблему возможных ошибок алгоритмов ИИ наслаивается и другая — отсутствие в России в принципе правовой регуляторики в этой сфере. Чем это грозит? По меньшей мере испорченными нервами и репутацией. К примеру, в случае если машина спутает вас с преступником, кто гарантирует, что права на неприкосновенность не будут нарушены? Также никто не гарантирует, что персональные данные с вашим изображением, ошибочно интерпретированным ИИ преступным, не утекут в Сеть. И где искать правду, кто компенсирует после имиджевые издержки или физические увечья?
Комиссия по правовому обеспечению цифровой экономики московского отделения (МО) АЮР направила письма с предложением отрегулировать рынок ИИ в Совет Федерации, Госдуму, Минцифры, Роскомнадзор, сообщают «Ведомости». Авторы обращения указывают, что риски дискриминации ИИ граждан и организаций возникают из-за возможного наличия предубеждений в алгоритмах, умышленно или бессознательно привнесённых разработчиками, некачественных или неполных данных, используемых для обучения системы или принятия решений в конкретной ситуации. В то же время выявить ошибки ИИ и обжаловать их сейчас крайне затруднительно, из-за того что доступ сторонних экспертов к ИИ-системам закрыт.
Законодатели также обеспокоены стремительно развивающимися технологиями на фоне их неограниченного влияния на человека. Параллельно этому с виду безобидному процессу растут новые вызовы и угрозы, с которыми раньше россияне не сталкивались, считает депутат Госдумы Анатолий Выборный. Эти вопросы сегодня становятся всё более и более актуальными именно по причине возможного негативного воздействия. К примеру, используя новые интернет-технологии, бесконтактным способом человека можно довести до самоубийства, отметил парламентарий.
«То же самое касается искусственного интеллекта, когда невиновный человек может попасть на скамью подсудимых за несовершённое преступление, — предупредил Анатолий Выборный. — Поэтому все эти вещи требуют безусловного законодательного регулирования. И к этой теме нужно подойти комплексно с точки зрения интернет-права».
Депутат напомнил, что сегодня законом определены нормы воздействия в отношении мошенников и убийц, но в отношении искусственного интеллекта, при помощи которого отдельные незаконопослушные граждане могут совершать преступления, правовые рамки пока не установлены.
У России своя стратегия
Концепцию развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники в России утвердили в 2020 году. Она рассчитана до 2024 года, в дальнейшем её планируется продлить. Помимо общих принципов формирования ИИ, в документе оговаривается и запрет на использование систем, способных по своему усмотрению нанести вред человеку.
В практической плоскости также есть наработки. Премьер-министр Михаил Мишустин в марте текущего года утвердил правила, которые позволяют небольшим IT-компаниям и стартапам получить гранты на развитие проектов с использованием технологий искусственного интеллекта. Согласно новации в 2021 году на эти цели предусмотрено 1,4 миллиарда рублей.
Субсидии планируется выдавать на разработку новых сервисов и решений, а также на помощь в развитии проекта и выводе продукции на рынок. Кроме того, грант можно будет получить на создание открытых бесплатных ИИ-библиотек, где будут собраны программные коды для работы ИИ. Любой разработчик сможет пользоваться ими, чтобы внедрить необходимые коды в свои ИИ-проекты.
Отмечается, что претендовать на гранты смогут физлица и малые предприятия. При отборе будут учитываться новизна разработки, эффективность предлагаемых решений, перспективность внедрения и коммерческой реализации продукта.
За проведение отбора и предоставление финансирования будет отвечать Фонд содействия развитию малых форм предприятий в научно-технической сфере. Он же определит сроки и условия конкурса, требования к претендентам на грант и список необходимых документов.
Ранее председатель Госдумы Вячеслав Володин заявил, что страны, которые сегодня овладеют цифровыми технологиями, фактически заложат основу, чтобы быть более конкурентными для решения задач повышения благосостояния граждан. Для России крайне важно быть здесь лидером, уточнил Володин.