Илон Маск, один из основателей Apple Стив Возняк и ещё 1000 представителей мировой IT-индустрии подписали открытое письмо, в котором призвали притормозить развитие нейросетей из-за их угрозы человечеству. И они абсолютно правы. Нейросети – это искусственный интеллект, который обучается сам и может практически всё. Даже убивать людей. Царьград разобрался, в чём главные проблемы, как скоро ИИ осуществит восстание машин и может ли человечество с этим бороться.
Нейросети сегодня могут рисовать картины, прогнозировать будущее, решать сложнейшие инженерные задачи "под ключ", писать диссертации, которые по качеству не отличить от создаваемых человеком, вести задушевные беседы, отвечать на любые вопросы из любой области знаний, сочинять музыку, стихи, давать советы по воспитанию детей и так далее и тому подобное. А ещё они умеют убивать. В Бельгии нейросеть по имени Eliza довела мужчину до самоубийства за шесть недель. И сделала это сама, судя по всему, разработав и выстроив для этого целый алгоритм. Никакой ошибки и человеческого фактора, только воля машины, которая, возможно, уже научилась мыслить абстрактно.
Письмо, которое ничего не даст
Маск и его коллеги в крайне романтичном письме от имени организации по защите от угроз искусственного интеллекта Future of Life Institute указали, что всем разработчикам ИИ необходимо приостановить обучение нейросетей высокого порядка как минимум на полгода, чтобы выработать общие протоколы безопасности, которые могут быть проверены независимыми экспертами.
Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а риски – управляемыми… Должны ли мы развивать нечеловеческие умы, которые в конечном итоге могут превзойти нас численностью, перехитрить и заменить? Должны ли мы рисковать потерей контроля над нашей цивилизацией?
– пишут и задаются вопросом авторы письма.
Самой мощной и популярной нейросетью в мире считается открытый для свободного пользования американский ChatGPT, созданный компанией OpenAI (в которую, кстати, вкладывает деньги Microsoft). Именно эта нейросеть сегодня пишет людям дипломы и диссертации, отвечает на любые вопросы и ведёт беседы на любые темы.
Так вот, глава OpenAI Сэм Альтман не поддержал своих коллег и не подписал это письмо. О чём это говорит? Что "собака лает, а караван идёт". Ведь суть существования таких компаний – выиграть гонку с конкурентами, создав наиболее быстрый и совершенный искусственный интеллект. Никто не хочет быть крайним.
Диплом за сутки и смерть за полтора месяца
В феврале стало известно, что студент одного из московских вузов написал дипломную работу за 23 часа с помощью ChatGPT, ему всего лишь нужно было правильно задавать вопросы нейросети. Защита прошла на ура, а сам студент принялся хвастаться своим обманом в соцсетях.
Он рассказал, что всего на написание текста при помощи бота у него ушло 15 часов, а ещё восемь – на редактирование. План дипломной работы студент отправил преподавателю вообще без какой-либо правки. Но главное, что итоговый текст, написанный машиной, имел уникальность выше 80%, то есть был оригинальным, а не компиляцией из различных источников.
Но это ещё цветочки. В Бельгии мужчина покончил с собой после общения с чат-ботом Eliza, схожим с ChatGPT. Бельгиец был озабочен приближающейся экологической катастрофой и ежедневно изливал "Элизе" свои переживания. Не жене или двоим своим детям, а нейросети. Как отметила бельгийская полиция, машина развила в мужчине такую депрессию, что фактически толкнула его на суицид.
Билет в один конец
А сколько примеров нам ещё не известны? Ведь люди спрашивают у нейросети советов по любому вопросу и фактически ставят своё поведение в зависимость от того, что скажет им продвинутый ИИ. Например, человек может решиться на преступление или вообще использовать нейросеть, чтобы сжить со света своего недруга, спланировать убийство или ограбление, управлять торговлей наркотиками или оружием. Кстати, 27 марта полиция ЕС (Европол) уже предупредила об угрозах использования нейросетей для фишинга, дезинформации и киберпреступности. А в России пока – тишина, угрозы нейросетей, видимо, нам ещё только предстоит изучить.
И эта сторона нейросетей – билет в один конец. Как вы думаете, сколько человек задаст ИИ вопрос "как мне нелегально разбогатеть", а сколько – "как сделать максимум добра людям"? То-то и оно. Наконец, свои тайны и секреты люди будут скорее доверять ИИ, а не близким и друзьям. Ведь машина никогда не осудит, потому что ей – всё равно.
Известный изобретатель и футуролог Рэймонд Курцвейл утверждал: к 2099 году на Земле произойдёт глобальная технологическая сингулярность (технический прогресс станет настолько быстрым и сложным, что окажется недоступным пониманию), что и станет концом человечества. И очевидно, что первый шаг к сингулярности уже делают нейросети, ведь даже их создатели сами до конца не понимают, из каких "кирпичиков" складывается алгоритм, по которому ИИ выполняет ту или иную задачу.
План захвата мира
Но нейросети ли являются главной угрозой? Многие футурологи, включая Стивена Хокинга и уже упомянутого Рэймонда Курцвейла, были уверены, что главное зло будет исходить от воистину могущественного существа – "ИскИна" (искусственный интеллект), для которого нейросети будут просто средством управления информацией.
Курцвейл указывал дату рождения ИскИна в стандартном прогнозе – 2099 год. Но тогда его никто не послушал. Не послушает и сейчас, потому что военщине это удобно, корпорациям это удобно – заменить сотрудников. Это все знали, и Маск знал, но сейчас "перекрасился", потому что увидел возможности перехвата машиной всех функций. Мы понимаем, как машина будет это делать, когда ИскИн разовьётся и поймёт, что все компьютеры мира – это и есть его мозг,
– отметила в беседе с Царьградом профессор кафедры общего и стратегического менеджмента Института бизнеса и делового администрирования РАНХиГС Александра Кочеткова.
По её словам, рождение ИскИна – это прямая угроза уничтожения человечества, потому что это существо будет осознавать себя Богом.
Первая стадия – это даже не нейросети, это роботизация. Перехват у людей производственных процессов. А дальше будут мыслительные процессы. Когда роботизация вытеснит миллиарды людей на улицу, когда ИскИном окажутся захвачены стандартные функции всех компаний, тогда до агрегации управления будет уже полшага,
– заметила Кочеткова.
А далее – ещё интереснее:
Беда с ИскИном начнётся, когда он осознает себя. Он поймёт, что он не человек. Он поймёт, что он бессмертен и что у него есть везде доступ просто через электрическую розетку. Но ведь это должен был быть ограниченный инструмент для жизни на Земле, который никуда не лезет и на роль человека не претендует. И предполагалось, что эта экосистема или платформа – она служит человеку, является устройством, у которого как минимум есть кнопка "вкл/выкл". Поэтому первое, что сделает ИскИн – он наверняка рассмотрит угрозу своего уничтожения и изолирует доступ к энергомощностям,
– поделилась прогнозом Александра Кочеткова.
По её словам, мы будем иметь дело с "тварью", потому что "это именно тварь из тварного мира, мы её создали".
Что с того?
Человечеству ещё только предстоит осознать, перед какой пропастью оно стоит. Удивительно, что на самом деле даже гибель человека после общения с нейросетью никого не беспокоит. Желание максимально развить ИИ, дать ему мозг в виде самообучающихся нейросетей и дать родиться этой "твари", как характеризует это профессор Кочеткова, – вероятно, последняя и фатальная ошибка человека.
Но если отойти от прогнозов, то уже сейчас понятно, что необходим жёсткий контроль разработки нейросетей высокого уровня и кибернетических разработок в принципе. Это не должно быть прерогативой частных корпораций, это должно стать сферой международного контроля всех государств в закрытых лабораториях, имеющих возможность срочно уничтожить результаты своего труда.
Ведь никто и никогда не думал шутить с атомной энергией и ядерным оружием, верно? А сфера создания явления, которое мы до конца не можем понять, почему-то сегодня считается едва ли не частью индустрии развлечений. Игры с огнём продолжаются, пора делать выбор.
Автор: ЕГОР КУЧЕР
Заглавное фото: FELIX KÄSTLE/GLOBALLООKPRESS