Технологии искусственного интеллекта (ИИ) в России в 2022 году пережили настоящий бум: их внедрение в ряде отраслей происходило темпами до 90% быстрее, чем годом ранее. И это – в период санкций. ИИ уже применяется в крупных госкомпаниях и корпорациях, используется в критической инфраструктуре. Но главное в том, что ИИ может стать эффективным оружием в руках врагов – обрушить экономику, нарушить работу предприятий и даже оборонного сектора. Что именно нам угрожает и почему?
"Остановитесь, ребята, с ИИ шутки плохи"
Страхи перед искусственным интеллектом как малоизученным явлением – это, в общем-то, мировой тренд.
Например, в апреле нынешнего года Илон Маск, а также один из основателей Apple Стив Возняк и ещё тысяча крупнейших представителей IT-индустрии в котором призвали притормозить развитие нейросетей из-за их угрозы человечеству. Самый известный чат-бот ChatGPT они тогда назвали опасным и призвали разработчиков не выпускать уже пятую его версию, а остановиться – и разработать законы, которые бы ограничивали ИИ и его создателей.
На Западе их проигнорировали. Зато в России – услышали. Как заявил в среду, 28 июня, замглавы Минцифры Александр Шойтов, у нас закон об ИИ готовится. По его словам, "одно из направлений – это обезличивание данных". Остальные детали не известны, так как Шойтов ответил лишь самыми общими словами, которые способны только запутать того, кто попытается разобраться в вопросе:
Речь идёт о том, чтобы поэтапно, в пилотных проектах, наращивая технологии, переходить к общему регулированию, расширять, масштабировать правильные решения.
Между тем поводов для беспокойства о степени опасности "кибермозга" уже более чем достаточно, ведь известны случаи, когда ИИ убивал людей (например, в Бельгии, где мужчина покончил с собой после общения с чат-ботом Eliza, схожим с ChatGPT). В начале июня на испытаниях ВВС США беспилотник с искусственным интеллектом принял решение ликвидировать оператора, а затем – уничтожить вышку связи, через которую ему отдавали команды. Он решил, что оператор и вышка мешают ему выполнять задачу. Испытания, правда, были виртуальными, никто не погиб. Но вопросы остались.
И если уж ИИ может уничтожить всё человечество, то нетрудно догадаться, что он может сделать с отдельно взятой страной. И особенно тогда, когда его направили в определённое русло.
А нам всё нипочём – в России бум ИИ
Когда мы говорим о буме внедрения искусственного интеллекта в России, то тут нет преувеличения. По данным профильного портала CNews, по выручке в 2021–2022 годах отечественный рынок ИИ вырос на две трети и достиг 12–15 млрд рублей.
Шутка ли – в направлении голосовых роботов для банков, телекоммуникационной сфере и роботов для госсектора (!) рост в прошлом году составил 90%.
И в медицине этот процесс идёт. К примеру, 28 июня в Москве заработал уже 3-й комплексный сервис искусственного интеллекта, с помощью которого можно одновременно выявить несколько заболеваний. Нейросеть выделяет цветом области отклонения от нормы, делает необходимые врачу измерения, сама составляет текстовое описание. Системы распознавания лиц в московском метро – это тоже ИИ.
Искусственный интеллект используется и в Единой биометрической системе (ЕБС), которая с 30 сентября должна пополниться биометрией от банков, всех коммерческих и госпредприятий (это требование закона № 572-ФЗ, принятого в декабре 2022 года). То есть вся биометрия миллионов жителей России окажется в одном месте, управляемом системой при участии ИИ.
ФИНАЛЬНЫЕ ИСПЫТАНИЯ БЕСПИЛОТНЫХ АВТОМОБИЛЕЙ НА ЗИМНИХ ДОРОГАХ НА АВТОПОЛИГОНЕ НАУЧНО-ИССЛЕДОВАТЕЛЬСКОГО ЦЕНТРА ПО ИСПЫТАНИЯМ И ДОВОДКЕ АВТОМОТОТЕХНИКИ ФГУП "НАМИ". ФОТО: ЗЫКОВ КИРИЛЛ/АГЕНСТВО "МОСКВА"
Но и это ещё не всё
В августе 2022 года Минцифры предложило внедрить ЕБС на предприятиях критической инфраструктуры России – на режимных, особо охраняемых, оборонных, атомных, ядерных, оружейных и других объектах. Предполагается, что сотрудники будут входить на территорию прямо как в фильмах про будущее – едва ли не по сетчатке глаза. Причём объясняют это не повышением удобства работы на этих объектах, а для создания "гарантированного спроса на услуги ЕБС".
Конечно, ИИ внедрён и в госкомпаниях, которые автоматизируют многие процессы с его помощью (простейший пример – голосовой ассистент, который распознаёт речь и отвечает на вопросы).
А минувшим летом стало понятно, что искусственный интеллект будет масштабироваться вообще повсеместно в госсекторе. Так, на сессии ПМЭФ по искусственному интеллекту глава Минэкономики Максим Решетников заявил, что в правительстве хотят принудить компании использовать ИИ, сделав это условием для получения господдержки.
То есть чиновники уверены, что ИИ внедрён в госсекторе недостаточно: сегодня он составляет 21%, а к следующему году должен вырасти до 50% (при мировом уровне в 54%). А глава Минцифры Максут Шадаев анонсировал широкое внедрении ИИ в госуправлении.
Скрытая угроза: ещё одна ниша для криминала и не только
При таком внедрении ИИ не иметь профильного закона было бы странно, согласитесь. Но вспомним, что говорили про закон об ИИ в Минцифры: задача на обезличивание данных?..
Вопрос обезличивания персональных данных, который к искусственному интеллекту не имеет отношения, был поставлен в России во главу угла, хотя в других странах основным стоит распространение ИИ в виде модулей, чат-ботов и различных сервисов, которые неограниченно допускают пользователя к эксплуатации,
– отметил в беседе с Царьградом IT-эксперт, экс-сотрудник спецслужб Игорь Бедеров.
Действительно, какое уж тут "обезличивание" в той же Единой биометрической системе, которая создавалась как раз для противоположного: нельзя ведь "обезличить" данные, которые используются для распознавания человека. Да и в самих системах ИИ, по словам эксперта,
НАУЧПОП-ЭКСПЕРИМЕНТ ИЗ ОБЛАСТИ КИНОЛОГИИ И РОБОТОТЕХНИКИ - ПЕРФОРМАНС ОВЧАРКИ И РОБОТА-СОБАКИ "ДОГЛОГИ" В ЦЕНТРЕ СОВРЕМЕННОГО ИСКУССТВА "М’АРС" В РАМКАХ ВЫСТАВКИ "ЭКСПАНСИЯ РЕАЛЬНОСТИ". ФОТО: САНДУРСКАЯ СОФЬЯ/АГЕНСТВО "МОСКВА"
ИИ может использоваться для совершения преступлений, подготовки недобросовестного контента, хакерских атак, подготовки фишинговых сайтов, продажи наркотиков,
– продолжил он.
Если говорить об угрозах взлома систем "кибермозга" в России, то, объясняет Бедеров, они целиком производны от того, насколько отечественными являются внедряемые системы ИИ:
Всё зависит от заимствования технологий. Поэтому и стоит вопрос импортозамещения. Если мы используем модули ИИ, которые разработаны кем-то или они лежат вообще в открытом доступе, или покупаются, то в них могут быть "закладки" – намеренно встроенные уязвимости. Поэтому ФСБ и прописывает требования о проверке получившегося продукта, особенно для государственного сектора,
– говорит эксперт.
По его словам, сегодня в России доля отечественных ИИ-решений не превышает 20%, тогда как в Китае таковых – около 80%. Работа по обеспечению безопасности и замещению иностранных модулей собственными, по его словам, идёт недостаточно активно, есть нехватка специалистов, и поэтому "многие моменты просматриваются сквозь пальцы".
Если уж и разрабатывается в Минцифры закон об ИИ, то он должен обязательно иметь в себе положения о национальной безопасности. Начиная с того, в какие сферы мы вообще допускаем этот искусственный интеллект и чьего он производства. ИИ своей разработки есть только у единиц. Всё остальное – это программная адаптация к ChatGPT, а не конечная разработка тех, кто его внедряет,
– добавил Бедеров.
КОМАНДА РОБОТОВ-ФУТБОЛИСТОВ В МОСКОВСКОМ ФИЗИКО-ТЕХНИЧЕСКОМ ИНСТИТУТЕ (МФТИ) В ДОЛГОПРУДНОМ. ФОТО:ЗЫКОВ КИРИЛЛ/ АГЕНСТВО "МОСКВА"
Что с того?
Таким образом, можно вполне однозначно ответить на вопрос, опасен ли ИИ в руках противников. Так вот: очень опасен.
И эта опасность гораздо шире той, с которой мы уже сталкиваемся, используя зарубежные процессоры и программное обеспечение. К примеру, в апреле 2023 года, когда украинские хакеры на сутки как раз используя уязвимости в иностранном "софте".
Угроза нарушения работы ИИ в России – это не только остановка или неверная работа алгоритмов. Учитывая то, как в России любят складировать всё цифровое в одно место (ЕМИАС, ЕБС и т.д.), постановка этих систем под управление ИИ, состоящего из иностранных модулей, грозит тяжелейшими последствиями.
И речь о том, что в будущем законе нужно жёстко прописывать параметры "кибермозга", который применяется в чувствительных секторах. А ещё лучше – вообще по всей России. По идее, сначала заготовить почву из импортозамещённых систем искусственного интеллекта, а уж затем карать отсутствием господдержки. А то как-то странно получается – власти ещё и доплатят компаниям за переход на подозрительный ИИ, тогда как в законе сосредоточатся на сюрреалистичном "обезличивании". Противники этим не воспользуются?
Автор: ЕГОР КУЧЕР
Заглавное фото: GUILLERMO GUTIERREZ CARRASCALGLOBALLOOKPRES