Цифровизация и внедрение искусственного интеллекта продолжают оставаться актуальными вопросами текущей повестки. До конца ли мы осознаём все угрозы, которые несёт миру бесконтрольное и бездумное внедрение новых технологий? И кто должен контролировать процесс изменений, который может привести человечество как к триумфу, так и к полному краху?
На прошлой неделе в рамках форума "Армия 2021" прошла конференция "Гуманитарные и социокультурные аспекты развития и применения технологий искусственного интеллекта". Уровень дискуссии, по мнению Анны Шафран, был очень впечатляющим и принципиально отличался от большинства подобных мероприятий, на которых адепты тотальной цифровизации, закатив глаза, вещают о том, как современные технологии помогут человечеству создать рай на земле, а чиновники им угодливо поддакивают.
Свершилось: Вопросами нацбезопасности занимаются те, кому положено
К счастью, армия была и остаётся институтом, хранящим не только безопасность страны, но и здравый смысл. И здравый смысл говорит нам – не надо очертя голову бросаться во все попадающиеся навстречу омуты, из некоторых можно и не выплыть. А уж кто водится в тихом омуте, мы все прекрасно знаем с детства.
Можно только порадоваться, что наконец-то то, чего мы ждали, совершилось. Вопросами национальной безопасности занимаются те, кому положено ими заниматься, те, кто в них разбирается – армия, силовые структуры. Собственно, как это с самого начала происходит у наших оппонентов. В США вопросами искусственного интеллекта в первую очередь занимается Пентагон.
Просто для понимания: говоря об искусственном интеллекте, нельзя забывать о политических, правовых, социокультурных, а также цивилизационных контурах. А проблемы, которые нельзя забывать, говоря об искусственном интеллекте, бывают онтологические, биоэтические и медико-антропоморфические, а также не стоит отметать философские, идеологические и культурологические вопросы.
И что самое главное, совершенно не нужно изобретать велосипед и пытаться мерить искусственный интеллект какой-то новой особой высокотехнологичной рамкой. Нет. Любую технологию, какой бы сверхпривлекательной она кому-то ни казалась, надо в первую очередь проверять на совместимость с обычным человеческим разумом, телом и, самое главное, душою.
Если не сочетается – наверное всё-таки что-то не так с технологией, а не с человеком. Напомню слова Святейшего Патриарха Кирилла, сказанные им на открытии XXI Всемирного Русского Народного Собора.
Современные технологии способны создавать искусственный интеллект и искусственные органы, и в скором времени удастся так модернизировать человеческий разум и тело, что возникнут новые существа, превосходящие людей. Вера в технологию сегодня – это то, что была вера в прогресс. Это своеобразная квазирелигия, вера, что с помощью науки и технологий можно достичь совершенства и бессмертия, полной власти над своим телом, над природой и жизнью. Это невозможно.
Неудивительно, что одним из наиболее ярких на форуме стало выступление председателя Патриаршей комиссии по вопросам семьи, защиты материнства и детства иерея Феодора Лукьянова. Он поднял вопросы применения информационных технологий, направленных на изменение природы человека в контексте религиозной и биоэтической мысли.
И вывод очень простой: неуёмное и бесконтрольное развитие информационных технологий способно привести к разрушению и отдельного человека, и общества. То, что получится, будет неспособно ни к творчеству, ни к любви, ни к поиску. Это будут просто-напросто биороботы, озабоченные лишь продлением собственного существования.
Права человека поставили выше искусственного интеллекта
Технологическая революция предлагает отказаться от своей человеческой сущности, слиться с машиной, чтобы возвыситься над бренным и человеческим, но результат будет аналогичным – регресс и распад цивилизации. Эту сложную, но важную тему Анна Шафран предложила обсудить гостье в студии "Первого русского", секретарю Гиппократовского форума Инне Ямбулатовой и заместителю директора по научной работе Высшей школы современных социальных наук МГУ, доктору экономических наук Александру Гребенюку, присоединившемуся к беседе по скайпу.
Анна Шафран: Как вы считаете, это правильно, что именно армия организовала обсуждение искусственного интеллекта?
Инна Ямбулатова: В этом был некий парадокс. Казалось бы, именно в армии, в довольно жёстко регулируемом институте, вопрос прав человека не слишком уместен. Но именно здесь поднимается важнейший вопрос человеческой цивилизации – права человека и коллективного большинства.
Интересно и то, что на этой конференции о правах человека говорили даже те, кто занимается разработками в области искусственного интеллекта, его обучением и принятием решений за человека. То есть даже специалисты, которые, казалось бы, сами должны продвигать модель искусственного интеллекта в различных областях, озаботились правами человека и биоэтическими проблемами.
– Александр Александрович, какие риски несёт нам бесконтрольное применение технологии искусственного интеллекта?
Александр Гребенюк: Спасибо, что вы упомянули здравый смысл, поскольку его уже потеряли в сегодняшнем дискурсе по многим вопросам.
Что касается искусственного интеллекта, то это технология двойного назначения. И это очень правильно, что наша армия обсуждает эту тематику, потому что отставание в военном применении разработок искусственного интеллекта чревато потерей государственности.
Если говорить о гражданском использовании ИИ, то здесь есть много вопросов и рисков, причём не только социальных, но и экономических, на которые апологеты искусственного интеллекта закрывают глаза.
Необходимо напомнить, что критические технологии – атом, биотехнологии и так далее – всегда были под довольно жёстким контролем со стороны государства. К примеру, атомная энергия, хотя она сейчас доступна бизнесу, эта сфера деятельности лицензируется, там очень много нормативов, аккредитаций и так далее.
Но почему-то работы в области искусственного интеллекта никак не регламентируются, не проводится банальная социогуманитарная экспертиза, которая могла бы подсказать, какие же последствия могут вызывать те или иные нейронные сети, автоматизация тех или иных процессов.
На площадке форума "Армия-2021" действительно впервые попытались чётко обозначить проблематику и подняли вопросы о рисках и последствиях применения искусственного интеллекта.
Искусственный интеллект – инструмент "новой религии" трансгуманизма
– Инна, я хочу задать вам вопрос по поводу трансгуманизма, идеи которого продвигаются быстрыми темпами. Мы понимаем, что трансгуманизм и искусственный интеллект – это две стороны одной медали. Трансгуманизм уже вошёл в поп-культуру, недаром так и называется последняя книга Виктора Пелевина. Но нас убеждают: не надо бояться трансгуманизма, всё нормально, ничего страшного не происходит. Не кажется ли вам, что это такая дымовая завеса?
И.Я.: Фактически искусственный интеллект – это один из инструментов "религии" трансгуманизма. И это именно "религия", а не просто идеология или научные разработки, потому что мы уже видим адептику, догматику этой "новой религии".
На площадке форума "Армия 2021" вопросы трансгуманизма обсуждали представители Курчатовского института. По их мнению, это очень опасно, если технологии ИИ будут плотно совмещены с медико-биологическими технологиями, в частности, с генным редактированием и созданием новых видов биообъектов.
А опасность заключается в том, что эта технология очень дёшева, она не требует фундаментальных государственных вложений. Это, можно сказать, гаражная технология, которую каждый может себе позволить. А в результате мы получаем огромное количество непонятных, неконтролируемых биообъектов, собранных "на коленке".
Такие технологии должны жёстко регламентироваться государством и находиться, прежде всего, у военных. Это не должен быть некий джинн из бутылки.
Трансгуманизм этим технологиям пытается дать нравственное обоснование, мол, ничего в этом страшного нет, это прогресс и продолжение развития цивилизации. А человека теперь надо якобы понимать не как человека, а как нечто, совмещённое с биообъектами – животными и даже растениями.
Между тем целью трансгуманизма является расчеловечивание. Как эта концепция описывается в другом романе Пелевина "Пляски пигмеев" – некий коллективный разум, все погружаются в информационную среду, а тело человека находится в таком биорезерве, постоянно подпитываясь.
– Чем это опасно? Тем, что в момент расчеловечивания человек теряет все основные права, свободы и достоинство. И вместе с этим утрачивает возможности для того, чтобы существовать так, как мы привыкли. Человек теряет возможность контролировать свою собственную жизнь.
И.Я.: Вопрос уже в том, а человек ли он? Вот в чём дело. Поэтому надо самым серьёзным образом ограничивать технологии, направленные на улучшение человека.
Нас называют мракобесами, но мы же не говорим об ограничении технологий, улучшающих жизнь, окружающее пространство, помогающих человеку. Вмешательство в саму природу человека – вот это недопустимо. Здесь надо ставить чёткие границы и разрабатывать сбалансированное законодательство.
"Слабый интеллект" как угроза для рынка труда
– Александр, вопрос к вам как к специалисту: как искусственный интеллект изменит рынок труда?
А.Г.: Изменения могут быть колоссальными. То, что вы сейчас обсуждаете, – это так называемый "сильный интеллект". Это то, что показывали в голливудских фильмах – в "Терминаторе", в "Матрице". Это интеллект, который превосходит человеческий.
Для рынка труда главной угрозой является слабый интеллект, то есть автоматизация определённых процессов. Один из первых прообразов такой системы – программируемый калькулятор. Если мы детям в школах скажем: вам не нужно учить таблицу умножения, вам не нужно считать в уме, вот вам калькулятор, используйте его, то в результате через 5-10 лет мы получим поколение, которое не умеет считать без помощи специальных устройств.
Представьте, как вообще изменится это поколение, как изменятся его мыслительные способности, когнитивные функции и так далее. Сегодня слабый искусственный интеллект внедряется в ряд сфер, где занято большое количество людей.
Жители Москвы видят, как по дорогам, особенно в юго-западном районе, катаются беспилотные автомобили "Яндекса". Люди там сидят, но они не участвуют в управлении, а просто держат руки на руле – таково требование законодательства. Но уже сегодня практически любой автомобиль можно оборудовать системой беспилотного управления, а через 3-5 лет эта модернизация во всех сферах транспорта уже будет экономически обоснована.
С 2019 года в России в сфере хранения товаров, где работают 9 миллионов человек, тоже активно внедряются роботы, есть отечественные решения для полной автоматизации складов. И сколько людей могут потерять в ближайшее время работу?
И водителями или сотрудниками складов дело не ограничивается. К примеру, сегодня умирает профессия бухгалтера, их численность сокращается огромными темпами. На очереди ещё целый ряд профессий, которые исчезнут с рынка труда из-за автоматизации. И это приведёт к серьёзной структурной безработице, которую нельзя будет решить без переобучения, без переезда человека.
Наша страна готова к таким большим трансформациям? Если мы идём этим путём, то готовиться нужно уже сегодня. Надо понимать, какие сферы у нас будут закрываться для человека, какие сферы будут открываться. Сторонники галопирующего развития искусственного интеллекта говорят о том, что появится огромное количество новых профессий, у нас будут стримеры, мы будем на 3D-принтерах печатать тарелочки и друг другу продавать. Но почему-то я в это светлое будущее не особо верю.
Мы должны сейчас на государственном уровне понять, что есть сферы, которые нужно автоматизировать, а есть сферы, которые ни в коем случае нельзя подвергать дальнейшей автоматизации. Это первостепенная задача для нашей системы государственного управления.
– Это тот вопрос, который хотелось бы сначала решить, а уже потом внедрять технологии.
А.Г.: Конечно, именно так и должно быть. Иначе у нас снова телега и лошадь в непонятной позиции окажутся.
Законы об ИИ есть, а о правах человека никто не думает
– Инна, как вы считаете, ситуация в нашей стране хуже или лучше, чем в остальных? Чей опыт нам следовало бы взять на вооружение, а чей лучше не повторять?
И.Я.: Россия заметно отстаёт в области правового регулирования применения искусственного интеллекта. У нас есть национальный документ о стратегическом развитии искусственного интеллекта, но он довольно куцый, есть цифровой манифест, но всё это декларативные документы.
Между тем в других странах эта сфера регулируется самым серьёзным образом. К примеру, в 2017 году в Канаде была принята Панканадская (национальная) стратегия искусственного интеллекта. В этом же году соответствующую резолюцию принял парламент ЕС, а в Китае Госсовет опубликовал План развития искусственного интеллекта нового поколения. Причём правовым регулированием занимаются даже в странах, которые в этой сфере считаются отстающими. Отмечу, что нигде в этих документах нет чёткого обозначения прав человека в цифровой среде.
Сегодня уже ведётся серьёзная работа по стандартизации и доктринальным источникам искусственного интеллекта. Этим, в том числе, занимается международная организация по стандартизации ISO.
Очень важно, что на площадке форума "Армия 2021" прозвучали предложения о необходимости принятия Декларации о защите личности и презумпции достоинства человека в цифровой среде. Говорилось о том, что человек имеет право знать, что он общается с искусственным интеллектом.
Кроме того, за человеком должно остаться право выхода из цифровой среды в любой момент без поражения в правах. Был поднят вопрос об обеспечении организации работы IT-компаний, ограничение использования информации о личности человека и IT-гигантами, и государством. Потому что у нас сегодня два интересанта в этой сфере: это государство и IT-компании.
О чём ещё важно говорить? К примеру, о том, что персональные данные должны быть приравнены к гостайне. Это очень серьёзный вопрос, это камень преткновения для финансовых корпораций. Возникает ответственность как за гостайну, за продажу информации, за утечку персональных биоданных.
Пародокс "чёрного ящика": Специалисты не понимают, как работает нейросеть
– Биометрия, которая утекла, которая была сворована, это де-факто катастрофа для каждого человека. Поэтому так важно, что армия и силовые структуры наконец де-факто взяли эти вопросы под свой контроль, потому что это вопрос национальной безопасности.
Александр, какие ещё красные линии должны быть проведены в вопросах развития и применения искусственного интеллекта?
А.Г.: Я полностью поддерживаю приравнивание утечки персональных данных к раскрытию государственной тайны. Мы должны к этому прийти чем раньше, тем лучше.
Если говорить о других угрозах и рисках, например, о рынке труда, это потеря человеком определённых навыков и компетенций. Сегодня нейронные сети показывают очень хороший результат в диагностике, распознавании рентгеновских снимков, КТ. Мы знаем о том, что те системы, которые используются в России и США, ставят диагнозы лучше врача. Есть соблазн взять и передать эти функции полностью искусственному интеллекту.
Но если человек перестанет ставить диагнозы, а нейронные сети начнут давать сбои, их обучение пойдёт не по плану, готовы ли мы к тому, что в определённый момент времени мы можем вообще оказаться без диагностики?
С чем мы можем столкнуться в первую очередь? С риском структурной безработицы, вызванный внедрением систем искусственного интеллекта.
Есть ещё один момент, о котором необходимо сказать. Обучение нейронных сетей приводит к некоему парадоксу. На самом деле, их учит человек, но в определённый период времени через миллионные итерации обучения человек полностью теряет контроль над тем, как нейронная сеть приходит к тем или иным выводам.
Все мы знаем поисковики "Яндекса" и Google. Но нередко сами IT-специалисты этих крупных компаний иногда уже понятия не имеют, по каким закономерностям их системы выдают результаты. Потому что нейронная сеть учится, она обретает новые смыслы, понимает новые закономерности, больший объём данных используется для обучения, и в определённый момент времени мы просто теряем понимание, как же это всё происходит.
В IT-структурах эта проблема называется "проблемой чёрного ящика". То есть мы знаем, что чёрный ящик есть, там что-то происходит, он даёт какой-то результат, но мы не можем быть уверенными в том, что этот результат правильный. Это, наверно, основные на сегодняшний день проблемы.
Консерватизм – это вовсе не отрицание всего нового. Это – осторожность
Завершая программу, Анна Шафран напомнила, как любят изображать консерваторов противниками любого и всяческого прогресса. Это не так. Консервативная мысль не подразумевает тотального отрицания всего нового, и уж тем более тотального опрощения и возврата к технологиям каменного века. Это категорически не так.
Консерватизм просто подразумевает отсутствие щенячьего восторга по отношению к новым непроверенным идеям, это раз. И человека как меру всех вещей, это два. Для того, чтобы наша страна сохраняла и улучшала свои позиции на мировой политической арене, нам, безусловно, нужны самые новейшие технологии, нам нужно развивать теоретическую и прикладную науку, строить самые современные заводы, быть ведущими, а не ведомыми на пути прогресса.
Но все технологии должны находиться под строжайшим контролем государства и общества. Это касается и искусственного интеллекта, и биотехнологий, и виртуальной реальности. Нельзя сначала выпускать изобретение в мир, а потом думать, как с ним совладать.
Число жертв непродуманного запуска в повседневный обиход цифровых технологий может оказаться огромным. Поэтому жизненно необходимо сначала разработать чёткие и однозначные правила и законы и добиться их выполнения. А потом уже внедрять решения, всерьёз меняющие жизнь человека. Подумайте над этим.
Фото: jamesteohart / Shutterstock.com