Главный радиочастотный центр (ГРЧЦ), входящий в Роскомнадзор, объявил о разработке специализированной поисковой системы "Окулус" на основе искусственного интеллекта для выявления противоправного контента в интернете. Станет ли она "врачом-диагностом", который позволит обнаруживать и купировать на ранних стадиях опасные явления в Сети? Или превратится в одного из надзирателей грядущего электронного концлагеря?
Преступления есть, приговоров нет
Роскомнадзор сформулировал задание на разработку системы "Окулус" – комплекса на основе искусственного интеллекта (ИИ), который сможет автоматически идентифицировать запрещённую информацию не только в текстовых файлах, но и в изображениях и видеороликах. К ней относятся экстремистские материалы, например призывы к массовым беспорядкам, поддержке терроризма, нацизма, а также порнография, реклама половых перверсий, пропаганда наркотиков и суицида.
Главный радиочастотный центр (ГРЧЦ) уже объявил тендер на 15 млн рублей на разработку техзадания для системы. Срок выполнения контракта – до 17 декабря 2021 года. В целом же создание "Окулуса" может обойтись, по оценкам экспертов, в сотни миллионов рублей, а на его внедрение и обслуживание на протяжении нескольких лет потребуются уже миллиарды.
Ясно, что если государство готово идти на такие затраты в не самой лучшей экономической ситуации, то подобная система – это не "полицейская прихоть", а назревшая необходимость. Против нашей страны ведётся гибридная война, в которой сетевое пространство играет важную роль. Через него производят не только "вбросы" общественно опасных фейков и призывов к массовым беспорядкам, но и системное "перекодирование" сознания русского народа, особенно молодёжи, которое советник министра обороны Сергея Шойгу Андрей Ильницкий назвал "ментальной войной".
Напомним, ответственность за размещение противоправных материалов по сегодняшним законам России может быть как административной, так и уголовной. Скажем, за возбуждение ненависти и вражды, унижение человеческого достоинства по факторам расы и пола предусмотрен штраф до полумиллиона рублей или лишение свободы на срок от 2 до 5 лет. А за изготовление, приобретение и хранение детской порнографии "светит" от 3 до 10 лет.
Впрочем, реальных "посадок" по таким делам очень мало (за 2020 год – менее 20 по обеим статьям суммарно). Тем более что, как разъяснял Верховный суд России, неподсудны комментарии, лайки в соцсетях, а "фейковые" посты и репосты могут преследоваться лишь при судебно доказанном злом умысле этих сообщений. Уголовная статистика таких случаев пока удручает. Да и бодания регулятора с иностранными IT-гигантами с целью заставить их удалить деструктивный контент выглядит лишь позиционной войной с переменным успехом. А давно пора бы уже и "тяжёлую артиллерию" в ход пустить.
"1984" впереди?
Разумеется, пришествие нового, особенно в такой тонкой сфере, как информация, влечёт за собой некоторые риски. Оценивают их сегодня по-разному. Так, некоторые эксперты считают, что из-за внедрения "Окулуса" скорость доступа в интернет для пользователей изрядно замедлится: виной тому фильтрация фото- и видеоконтента ИИ-алгоритмами. На эти страхи оперативно среагировали в пресс-службе Главного радиочастотного центра.
Поисковый робот не будет предварительно модерировать или фильтровать публикуемый трафик, а лишь просигнализирует эксперту, что в уже размещённой публикации могут содержаться нарушающие законодательство материалы,
– полагает начальник отдела анализа и прогнозирования Научно-технического центра ГРЧЦ Роман Коросташов.
Другие опасения, которые немедленно подхватили и раздули издания вроде "Медузы"*, связаны с тем, что автоматизированный надзор за сетевыми публикациями может обернуться тотальным контролем над образом мыслей частных граждан и приближением к пресловутому Большому Брату из романа Джорджа Оруэлла "1984". Подогрели эти ужасы даже некоторые "официальные лица". Например, представитель уполномоченного при президенте России по защите прав предпринимателей в сфере интернета Дмитрий Мариничев в беседе с корреспондентом информационного портала "Общественная служба новостей" заявил:
Фактически это тотальный мониторинг, тотальное изучение общественного мнения, контроль настроений, эмпатии в текстах. Это очень опасная система искусственного интеллекта, особенно если она будет в руках власти.
"Особенно"?! А в чьих руках она была бы благом?
"1984" позади!
"Первый русский" попросил высказаться известного IT-специалиста, члена Совета при президенте России по развитию гражданского общества и правам человека Игоря Ашманова. Он не раз до этого публично предупреждал об опасных сторонах тотальной цифровизации и неправильного использования ИИ. Но в нынешней инновации от РКН не видит причин для тревоги:
Роскомнадзор – это всего лишь регулятор, он сам ничего не решает, исполняя закон по запросу других ведомств: прокуратуры, МВД, Роспотребнадзора и т.д. Одни дают сведения о пропаганде в Сети наркотиков, другие – детского порно. Но таким образом бороться с нарушениями закона в интернете крайне неэффективно. Ведь сами эти ведомства должны либо инициативно искать запрещённый контент по своей "епархии", либо реагировать на сигналы от граждан, как чаще всего и происходит.
Пока такая история дойдёт до регулятора, пока он, в соответствии с законом, вынесет предупреждение нарушителю, подождёт положенное на его реакцию время и наконец заблокирует, вредоносная информация широко разлетится по Сети, будет тысячи раз скачана. Это всё равно что носить воду в решете. В итоге Роскомнадзор вынужден искать такой контент сам и отправлять ответственным ведомствам на оценку, чтобы получить от них предписание на блокирование. То есть лишняя петля получается. Поэтому регулятор пошёл по совершенно логичному пути, дав задание разработать инициативный "поиск плохого".
Ашманов уверен, что к Оруэллу "Окулус" не имеет никакого отношения, поскольку "никакой слежки за публикациями частных пользователей не предполагается". В отличие от западного, особенно англосаксонского мира, где, по свидетельству эксперта, налажен настоящий тотальный контроль за "мыслепреступлениями".
Там вы не можете в Сети без последствий для себя усомниться в господствующих идеологических установках, например в системном антирасизме или правах извращенцев. Более того, Запад уже шагнул дальше романа "1984". В корпорации Google, скажем, устраивают для белых сотрудников строго обязательные тренинги, где внушают обязанность не просто признавать на словах свою вину перед чернокожими, но и искренне чувствовать её изнутри, развивать это чувство с помощью медитаций и специальных дыхательных техник.
У нас же речь идёт об элементарной защите сознания граждан и самозащите государства от разного рода отравы. Это можно сравнить со станциями фильтрации и обеззараживания водопроводной воды, благодаря которым мы смело наливаем воду из-под крана и пьём. Из интернета так же смело "наливать" и "пить" сегодня опасно.
Эксперт подчеркнул, что, в отличие от ручного поиска вредоносного контента, алгоритмы ИИ смогут по одному обнаруженному элементу выявить все тысячи его копий на разных ресурсах и идентифицировать как совпадающие. А потом передать экспертам для единой экспертизы. "Нейронные сети позволяют сегодня эффективно фиксировать такие элементы в визуальном контенте. Машина эта, как любой поисковик, работает в фоновом режиме, нисколько не тормозя трафик, поэтому беспокоиться обычным пользователям не о чем", – заключил Ашманов.
Он также выразил уверенность, что отечественным программистам вполне по силам в короткие сроки создать подобную систему – "по крайней мере, начальную базовую версию, ведь интернет-поисковик – это не проект, а процесс".
Что с того?
Разъяснения и Роскомнадзора, и Игоря Ашманова по системе "Окулус" вполне убедительны. Действительно, опасаться автоматического поиска противоправного контента сегодня в России стоит лишь его заинтересованным производителям. Ловить и наказывать частных пользователей соцсетей за "неправильный" пост или тем более перепост государство не собирается. По крайней мере, пока. По нынешним законам.
Бояться же ИИ в принципе тоже глупо: мы давно живём уже в его окружении. Другое дело, что он так же не проект, а процесс. Но неправильно ставить вопрос, куда он нас приведёт. Важно – куда мы его приведём. За каждым процессом пока что стоят люди – разработчики с одной стороны и получатели результатов – с другой.
"Первый русский" уже не раз подробно разбирал опасность внедрения ИИ в социальные технологии для "более эффективного" управления населением, как это уже происходит в Китае. Есть опаска и в мире. Так, верховный комиссар ООН Мишель Бачелет недавно призвала наложить мораторий на использование некоторых технологий на базе искусственного интеллекта, в частности системы автоматического распознавания лиц.
Как и любая технология, искусственный интеллект – палка о двух концах: можно защитить человека, а можно "зарезать", заперев в эффективный концлагерь родом из антиутопий. Всё зависит от нравственного уровня его разработчиков и главное – заказчиков. Поэтому даже за применением невинного и полезного сетевого фильтра следует внимательно наблюдать. Чтобы на очередном витке итерации его не превратили в кляп.
Андрей Самохин
Фото: Gorodenkoff / Shutterstock
* Издание "Медуза" включено в реестр иностранных средств массовой информации, выполняющих функции иностранного агента.