Что мы знаем об искусственном интеллекте



Пожалуй, одним из самых сложных тестов машинного интеллекта явилась шахматная партия, состоявшаяся почти 20 лет назад между компьютером Deep Blue и чемпионом мира по шахматам Гарри Каспаровым. Машина одержала победу. В настоящий момент завершилась серия игр в логическую игру го, где соревновались ИИ AlphaGo от DeepMind (владелец Google) и легендарный чемпион по игре в го из Китая Ли Си Дол. В четырех из пяти партий победу одержала машина, показав свое превосходство над человеком в этой игре. Невероятно сложная игра между человеком и ИИ показывает, что машинный интеллект за это время развился очень сильно. Кажется, что роковой день, когда машины действительно станут умнее человека, теперь уже как никогда близок. Однако кажется, многие совсем не понимают, а скорее даже заблуждаются в отношении тех последствий, которые нас могут ожидать в будущем.

Мы действительно недооцениваем некоторые очень серьезные и даже опасные последствия развития искусственного интеллекта. В прошлом году соучредитель компании SpaceX Элон Маск выступил с заявлением, в котором выразил опасение на счет возможного порабощения мира искусственным интеллектом, что в свою очередь вызвало огромное количество комментариев как сторонников, так и противников такого мнения.

Для столь фундаментально революционного будущего, которое нас может ожидать, удивление вызывает огромное число сегодняшних разногласий по поводу того, случится ли оно вообще и чем оно в конечном итоге обернется. Особенно странным выглядит отрицание невероятных преимуществ, которые мы сможем получить при создании действительно умного ИИ, конечно же, при учете всех возможных рисков. Все эти вопросы невероятно сложны в получении нужных ответов, так как ИИ, в отличие от любых других изобретений человечества, может действительно «омолодить» это человечество или полностью его уничтожить.

Сейчас сложно понять, во что верить и на что надеяться. Однако благодаря пионерам компьютерных наук, нейробиологам и теоретикам развития ИИ, потихоньку начинает проясняться четкая картинка. Ниже приведен список самых частых заблуждений и мифов в отношении искусственного интеллекта.

Мы никогда не создадим ИИ с человекоподобным интеллектом

 

Реальность, в свою очередь, говорит о том, что у нас уже есть компьютеры, которые соответствуют и даже превосходят человеческие возможности в некоторых сферах. Взять хотя бы шахматы или ту же игру го, торговлю на биржах или роль виртуального собеседника. Компьютеры и алгоритмы, которые ими управляют, со временем станут только лучше, и это лишь вопрос времени, пока они не сравняются с возможностями человека.

Исследователь из Нью-Йоркского университета Гэри Маркус как-то сказал, что «практически все», кто работает со сферой ИИ, считают, что машины однажды нас превзойдут:

«Единственный спор между сторонниками и скептиками заключается во временных рамках этого события».

Такие футурологи, как Рэй Курцвейл считают, что событие это может произойти уже в ближайшие десятилетия, в то время как другие говорят, что на это потребуется несколько столетий.

Скептики ИИ неубедительны в своих доказательствах того, что создание искусственного интеллекта как нечто уникального и очень похожего на настоящий живой человеческий мозг в технологическом плане находится где-то за гранью реальности. Наш мозг тоже машина. Биологическая машина. Он существует в том же мире и подчиняется тем же законам физики, что и все остальное. И со временем мы полностью разгадаем весь принцип его работы.

ИИ будет обладать сознанием

 

Существует общее мнение, согласно которому машинный интеллект будет обладать сознанием. То есть ИИ будет думать так же, как это делает человек. Помимо этого, некоторые критики, например, соучредитель компании Microsoft Пол Аллен считают, что из-за неполной теоретической базы, описывающей механизмы и принципы самосознания, мы пока не создали даже общий искусственный интеллект, то есть интеллект, способный выполнять любые интеллектуальные задачи, с которыми может справиться человек. Однако по мнению Мюррея Шанахана, доцента факультета когнитивной робототехники Имперского колледжа Лондона, мы не должны приравнивать два этих понятия.

«Самосознание — это определенно очень интересный и важный объект исследований, однако я не считаю, что самосознание должно являться обязательным атрибутом человекоподобного искусственного интеллекта», — говорит Шанахан.

«По большому счету мы используем термин «самосознание» лишь для индикации нескольких психологических и когнитивных атрибутов, которые, как правило, связаны между собой в человеке».

Вполне реально представить очень умную машину, у которой отсутствует один или несколько таких атрибутов. Когда-нибудь мы сможем построить действительно невероятно умный ИИ, но при этом лишенный способности к самосознанию, а также субъективному и осознанному пониманию окружающего мира. Шанахан отмечает, что объединение интеллекта и самосознания внутри машины все же будет возможно, но мы не должны упускать того факта, что это два совершенно отдельных друг от друга понятия.

И хотя один из вариантов «Теста Тьюринга», в котором машина показала, что она ничем не отличается от человека, был успешно пройден, это совсем не означает, что эта машина обладает сознанием. С нашей (человеческой) точки зрения, продвинутый искусственный интеллект может показаться нам как нечто обладающее самосознанием, однако сама машина будет осознавать себя не больше, чем тот же камень или калькулятор.

Мы не должны бояться ИИ

В январе этого года основатель компании Facebook Марк Цукерберг поделился своими мыслями о том, что нам не следует бояться ИИ, добавив, что эта технология сможет привнести огромную пользу во всем мире. Правда в том, что он прав лишь отчасти. Мы действительно сможем получить удивительные преимущества, имея в своем распоряжении ИИ (начиная от самоуправляемых автомобилей и заканчивая новыми открытиями в медицине), однако никто не может гарантировать, что каждое применение ИИ обязательно принесет пользу.

Высокоинтеллектуальная система, возможно, и будет знать все необходимое для тех или иных задач (например, разрешение сложной мировой финансовой обстановки или взлом компьютерных систем врага), однако за пределами узкоспециализированных задач потенциал ИИ пока совершенно неясен, а потому потенциально опасен. Например, система компании DeepMind специализируется на игре го, однако у нее нет возможностей (и причин) исследовать области за пределами этой сферы.

 

Компьютерный вирус Flame, задачей которого было слежение за ближневосточными странами[/i]

Многие из таких систем могут носить серьезную угрозу безопасности. Хорошим примером является мощный и весьма хитрый вирус Stuxnet, военизированный «червь», созданный американскими и израильскими военными для проникновения и атаки на иранские атомные станции. Только эта вредоносная программа каким-то образом (случайно или преднамеренно) поразила еще в добавок и одну из российских атомных станций.

Другим примером является вирус Flame, разработанный для направленного кибер-шпионажа на Ближнем Востоке. Легко представить, как «будущие версии» вирусов Stuxnet и Flame самостоятельно выйдут за пределы своих поставленных задач и смогут заразить практически всю инфраструктуру той или иной страны. И сделают это очень тихо и незаметно.

Искусственный сверхинтеллект будет слишком умным, чтобы допускать ошибки

 

Математик, исследователь искусственного интеллекта и основатель робототехнической компании Surfing Samurai Robots Ричард Лузмор считает, что большинство сценариев конца света с участием ИИ выглядят маловероятными, потому что все они в общем и целом основываются на том, что ИИ однажды скажет: «Я понимаю, что уничтожение людей является ошибкой моего программного кода, однако я все равно вынужден следовать поставленной задаче».

Лузмор считает, что если ИИ будет вести себя согласно этому сценарию, он столкнется с логическими противоречиями, которые поставят перед ним под сомнение всю его накопленную базу знаний и приведут в конце концов к его собственному осознанию своей глупости и бесполезности.

Исследователь также считает, что те люди, которые говорят, что «ИИ будет делать только то, что будет заложено в его программе», заблуждаются, так же как и те люди, которые когда-то говорили те же самые слова, но в сторону компьютеров, заявляя о том, что компьютерные системы никогда не будут обладать универсальностью.

Питер Макинтайер и Стюарт Армстронг, оба работающие в Институте будущего человечества при Оксфордском университете, в свою очередь, не согласны с этим мнением, аргументируя это тем, что поведение ИИ будет в обязательной и в значительной степени обосновано именно программным кодом. Ученые не верят в то, что ИИ никогда не совершат ошибок или же, напротив, будут слишком глупы, чтобы понять, чего именно мы от них хотим.

«По своему определению искусственный сверхинтеллект (ИСИ) является агентом, чей интеллект многократно будет превосходить лучшие умы человечества практически во всех областях», — говорит Макинтайер.

«Он точно будет понимать то, чего мы от него будем хотеть».

Макинтайер и Армстронг считают, что ИИ будет выполнять только те задачи, на которые он был запрограммирован, однако если каким-то образом он самостоятельно разовьется, то, вероятнее всего, он попытается выяснить, насколько его действия будут отличаться от человеческих задач и заложенных в него законов.

Макинтайер сравнивает будущее положение людей с тем, с которым приходится сталкиваться мышам. Мыши обладают мощным инстинктом поиска еды и убежища, однако их цели очень часто вступают в противоречие с человеком, который не желает видеть их в своем доме.

«Подобно нашим знаниям о мышах и их желаниях, система сверхинтеллекта тоже может все о нас знать и знать то, чего мы хотим, но при этом будет совершенно безразлична к нашим желаниям».

Простое решение исключит проблему контроля ИИ

 

Как показано в фильме «Из машины», будет очень трудно контролировать ИИ, который будет гораздо умнее нас[/i]

Если предположить, что однажды мы создадим сверхинтеллект, который будет умнее людей, то нам придется столкнуться с серьезной проблемой, проблемой контроля. Футурологи и теоретики искусственного интеллекта пока неспособны объяснить, как мы сможем управлять и сдерживать ИСИ после его создания. Неясным остается и то, как мы сможем убедиться в том, что он будет дружелюбно настроен по отношению к людям. Совсем недавно исследователи из Технологического института Джорджии (США) наивно предположили, что ИИ сможет обучиться и впитать в себе человеческие ценности и знания общественных норм путем простого чтения простых сказок. Да, да, простых детских сказок и историй, которые нам родители читали в детстве. Но в реальности же все окажется гораздо сложнее всего этого.

«Было предложено множество так называемых «решений» вопроса контроля искусственного интеллекта», — говорит Стюарт Армстронг.

Одним из примеров таких решений может являться программирование ИСИ таким образом, чтобы он постоянно пытался понравиться или угодить человеку. Альтернативой может служить интеграция в его исходных код таких концептов, как любовь или уважение. А чтобы избежать такого развития сценария, по которому ИИ сможет упростить все эти понятия и воспринимать этот мир через призму этих сверхупрощенных понятий, разделив его только на черное и белое, его можно запрограммировать на понимание и принятие интеллектуального, культурного и социального разнообразия.

 

Три закона робототехники, созданных Айзеком Азимовым, отлично вписываются в концепт фантастических произведений, однако в реальности нам нужно кое-что более комплексное для решения вопроса проблемы контроля[/i]

К сожалению, эти решения слишком простые и выглядят как попытка уместить всю сложность человеческих симпатий и антипатий в рамках одного общего определения или понятия или же попытка уместить всю сложность человеческих ценностей в одно слово, фразу или идею. Попробуйте для примера вместить в эти рамки последовательное и адекватное определение для такого понятия, как «уважение».

«Конечно, не следует думать, что такие простые варианты совершенно бесполезны. Многие из них предлагают отличный повод задуматься, а возможно, и стимулируют поиск решения конечной проблемы», — говорит Армстронг.

«Но мы не можем полагаться исключительно на них без более комплексной работы, без четких исследований и поиска последствий от использования тех или иных решений».

Мы будем уничтожены искусственным сверхинтеллектом

 

Никто не может гарантировать, что ИИ однажды нас уничтожит, как и никто не может с уверенностью сказать, что мы не сможем найти способы контролировать и использовать ИИ в своих целях. Как однажды сказал американский специалист по искусственному интеллекту Элиезер Юдковски: «ИИ не может любить или ненавидеть вас, однако вы состоите из атомов, которые он смог бы использовать для чего-то другого».

Оксфордский философ Ник Бостром в своей книге «Сверхинтеллект: пути, опасности и стратегии» пишет о том, что настоящий сверхинтеллект однажды сможет себя осознать, что сделает его опаснее любого из когда-либо созданных человеком изобретений. Такие выдающиеся современные мыслители, как Элон Маск, Бил Гейтс и Стивен Хокинг (многие из которых считают, что «создание ИИ может стать самой страшной ошибкой в истории человечества»), в большей степени соглашаются с этим мнением и уже бьют тревогу.

Питер Макинтайер считает, что для большинства задач, которые сверхителлект сможет перед собой поставить, люди будут выглядеть как лишнее звено.

«ИИ однажды сможет прийти к заключению — и следует отметить, что рассчитает это он весьма правильно, — что люди не хотят за счет него максимизировать доходность какой-нибудь определенной компании любой ценой, невзирая на последствия для потребителей, окружающей среды и живых существ. Поэтому у него появится огромный стимул разработать план и стратегию, благодаря которым человек не сможет помешать решению поставленной задачи, путем ее изменения или даже отключения ИИ».

По мнению Макинтайера, если задачи ИИ будут прямо противоположны нашим собственным, то это даст ему отличные причины для того, чтобы не дать нам его остановить. И если учесть, что уровень его интеллекта будет гораздо выше нашего, остановить его действительно будет очень и очень трудно, если вообще возможно.

Однако с уверенностью сказать что-либо сейчас невозможно, и никто не сможет сказать, с какой именно формой ИИ нам придется иметь дело и каким образом это может угрожать человечеству. Как однажды сказал Элон Маск, ИИ на самом деле можно будет использовать для управления, слежения и контроля других ИИ. А возможно, в него вообще будут внедрены человеческие ценности и изначальная дружелюбность к людям.

Искусственный сверхинтеллект будет дружелюбным

 

Философ Иммануил Кант считал, что интеллект прочно взаимосвязан с принципами морали. В своей работе «Сингулярность: философский анализ» нейробиолог Дэвид Чалмерс взял за основу знаменитую идею Канта и постарался ее применить для анализа становления искусственного сверхинтеллекта.

«Если описанные в этой работе принципы верны, то наряду с резким развитием ИИ стоит ожидать и резкое развитие моральных принципов. Дальнейшее же развитие приведет к появлению систем ИСИ, которые будут обладать сверхморалью и сверхинтеллектом. Поэтому нам следует ожидать только доброжелательных качеств с их стороны».

Правда в том, что идея продвинутого ИИ, обладающего принципами морали и исключительной добродетели не выдерживает критики. Как указывает Армстронг, в мире полно умных военных преступников. Интеллект и мораль в человеке, например, никак не связаны, поэтому ученый ставит под сомнение, что такая взаимосвязь будет существовать у других форм интеллекта.

«Умные люди, ведущие себя аморально, как правило, создают гораздо больше проблем и боли, нежели их менее интеллектуальные собратья. Интеллект дает им возможность быть более изощренными в их плохих, нежели хороших поступках», — говорит Армстронг.

Макинтайер поясняет, что возможность агента достигать поставленной задачи никак не соотносится с тем, какой именно это задача является.

«Нам очень повезет, если наши ИИ станут более нравственными, а не только умными. Полагаться на удачу — это, конечно, последнее дело в таком вопросе, но, возможно, именно удача определит наше положение в будущем», — говорит исследователь.

Риски, связанные с ИИ и робототехникой, носят одинаковых характер

 

Это особенно распространенное заблуждение, что используется в СМИ, а также в голливудских блокбастерах вроде «Терминатора».

Если искусственный сверхнителлект, такой как Skynet, например, действительно захочет уничтожить все человечество, то вряд ли он будет использовать военизированных андроидов с пулеметами в каждой руке. Его хитрость и эффективность мышления позволят ему понять, что гораздо удобнее будет использовать, скажем, новый вид биологической чумы или, например, какую-нибудь нанотехнологическую катастрофу. А может, он просто возьмет и уничтожит атмосферу нашей планеты. ИИ потенциально опасен не просто потому, что его разработка тесно связана с развитием робототехники. Причина его потенциальной опасности заключается в тех методах и средствах, благодаря которым он сможет заявить миру о своем присутствии.

ИИ, показанные в научной фантастике, являются отражением нашего будущего

 

Без сомнения, многие годы писатели и фантасты используют среду научной фантастики в качестве плацдарма для предположений нашего реального будущего, однако фактическое создание ИСИ и реальные последствия этого пока находятся за горизонтом наших реальных знаний. Более того, столь искусственная и явно нечеловеческая природа ИИ не позволяют даже с какой-либо точностью предположить, что этот ИИ будет из себя представлять на самом деле.

В большинстве научно-фантастических произведений ИИ максимально похож на человека.

«Перед нами на самом деле целый спектр самых разнообразных возможных видов разума. Даже если взять только человеческий вид. Например, ваш разум далеко не идентичен разуму вашего соседа. А ведь это сравнение — лишь капля в море всего возможного многообразия разумов, которые могли бы существовать», — говорит Макинтайер.

Большинство научно-фантастических произведений созданы, конечно же, в первую очередь для того, чтобы рассказать историю, а не быть максимально убедительными с научной точки зрения. Если бы было все наоборот (наука важнее сюжета), то следить за такими произведениями было бы неинтересно.

«Только представьте, какими бы скучными были все эти истории, где ИИ, без самосознания, возможности радоваться, любить или ненавидеть, уничтожает всех людей практически без какого-либо сопротивления для достижения своей цели, которая, к слову, тоже может быть не очень интересной для читателя или зрителя», — комментирует Армстронг.

ИИ отнимет наши рабочие места

 

Возможность ИИ автоматизировать те процессы, которыми мы занимаемся вручную, и его потенциальная возможность уничтожить все человечество — это совсем не одно и то же. Однако, согласно Мартину Форду, автору книги «Рассвет роботов: технологии и угрозы безработного будущего» («Rise of the Robots: Technology and the Threat of a Jobless Future»), эти понятия очень часто пытаются сравнивать и объединять в единое целое. Конечно, это замечательно, что мы стараемся предвидеть последствия создания ИИ так далеко, но только в том случае, если эти старания не будут отвлекать нас от проблем, с которыми мы можем встретиться уже через пару десятилетий, если ничего не предпримем. И одной из основных таких проблем является массовая автоматизация.

Мало кто будет спорить, что одной из задач искусственного интеллекта будет поиск пути автоматизации многих рабочих позиций, начиная от заводских рабочих мест и заканчивая некоторыми должностями «белых воротничков». Некоторые эксперты предсказывают, что половина всех рабочих мест, по крайней мере в США, могут попасть под автоматизацию уже в ближайшем будущем.

Источник: infoglaz.ru



войдите Vkontakte Yandex

Комментарии 0

    Выделите опечатку и нажмите Ctrl + Enter, чтобы отправить сообщение об ошибке.