Русские Вести

Студенты пропускают самую трудную часть взросления


Клэй Ширки, проректор Нью-Йоркского университета, с 2015 года помогает преподавателям и студентам адаптироваться к цифровым инструментам.

Ещё в 2023 году, когда ChatGPT был еще новым, подруга профессора попросила коллегу наблюдать за её занятиями. После этого он похвалил её за преподавание, но спросил, знает ли она, что её ученики набирают её вопросы в ChatGPT и читают их результаты вслух в качестве своих ответов.

В то время я объяснял это когнитивной разгрузкой — использованием искусственного интеллекта для сокращения объёма мышления, необходимого для выполнения задачи. Однако, оглядываясь назад, я думаю, что это был ранний случай эмоциональной разгрузки — использования ИИ для снижения энергии, необходимой при человеческим общении.

Вы наверняка слышали о крайних случаях, когда люди относятся к ботам как к любовникам, терапевтам или друзьям. Но многие другие заставляют их вмешиваться в свою социальную жизнь более тонкими способами. В приложениях для знакомств люди полагаются на ИИ, чтобы казаться более образованными и уверенными в себе.

В области, которую я знаю лучше всего, некоторые студенты используют эти инструменты не только для того, чтобы сократить усилия по выполнению домашних заданий, но и для того, чтобы избежать стресса от незапланированного разговора с преподавателем — возможности совершить ошибку или выглядеть глупо — даже если их отношения не оцениваются.

Осенью прошлого года в «The Times» была заметка как студенты Иллинойсского университета в Урбане, Шампейн, которые списывали на своем курсе, затем написали свои извинения с помощью искусственного интеллекта. В ситуации, когда неподтвержденное общение со своими преподавателями могло бы иметь значение, они всё равно не отказались бы (или не смогли бы отказаться) от ИИ как социального протеза.

Как академическому администратору мне платят за то, чтобы я беспокоился о том, что студенты используют ИИ для критического мышления. Университеты имеют целые структуры и механизмы для обеспечения академической честности. По понятным причинам ИИ стал метеоритным ударом по этим структурам.

Но как педагоги мы должны делать больше, чем просто обеспечивать, чтобы учащиеся чему-то научились, мы также должны помочь им стать новыми людьми. С этой точки зрения эмоциональная разгрузка беспокоит меня больше, чем когнитивная, поскольку отказ от социальной интуиции может навредить молодым людям больше, чем отказ от написания собственных исторических работ.

Так же, как чрезмерная зависимость от калькуляторов может ослабить наши арифметические способности, а чрезмерная зависимость от GPS может ослабить наше чувство направления, чрезмерная зависимость от ИИ может ослабить нашу способность справляться с компромиссами обычных человеческих отношений.

Разрыв поколений сформировался вокруг использования ИИ. Одно исследование показало, что только на долю людей в возрасте от 18 до 25 лет приходится 46 процентов использования ChatGPT. В этот анализ не были включены пользователи в возрасте 17 лет и младше.

Подростки и молодые люди, застрявшие в процессе постепенного перехода от управляемого детства к свободам взрослых, стремятся установить человеческие связи и прекрасно осознают возможность возникновения неловких ситуаций.  ИИ предлагает им способ справиться с некоторой тревогой, связанной с представлением себя в новых ролях, когда у них нет большого опыта. В 2022 году 41 процент молодых людей сообщили о чувстве тревоги в своей жизни большую часть дней.

Даже неформальная социальная среда требует от человека развития, а затем действий в рамках соответствующих ролей, как люди должны вести себя на свидании, в продуктовом магазине, ресторане и т.п. Но в определенных ситуациях, например, при выходе на новую работу или знакомстве с семьей романтического партнера, правила не сразу ясны. В своей книге “Представление себя в повседневной жизни” доктор Гоффман пишет:

«Когда человек занимает новое положение в обществе и получает новую роль, ему вряд ли будут подробно объяснять, как себя вести, и факты его новой ситуации не будут оказывать на него достаточного давления с самого начала, чтобы определить его поведение, если он не задумается об этом в дальнейшем.  Когда мы берём на себя новые роли — а мы делаем это всю свою жизнь, но особенно когда понимаем, как стать взрослыми —, мы учимся на практике, и часто на практике плохо: будучи слишком формальными или неформальными с новыми людьми, слишком строгими или небрежными в новых ситуациях. (Я до сих пор помню шок, когда спустя годы узнал, что из-за моей странной одежды и неловкого поведения мои друзья прозвали меня на первом курсе “ребёнком ужасов.”)

Доктор Гоффман писал в середине 1950-х годов, когда больше общения происходило лицом к лицу. В то время письмо было относительно формальным, будь то для общественного потребления, как в случае с литературой или журналистикой, или для определенной аудитории, как в случае с служебными записками и контрактами. Даже письма и телеграммы часто подразумевали настоящую композиторскую мысль; открытка была настолько неформальной, насколько это вообще возможно.

Ситуация начала меняться в 1990-х годах, когда бурный рост цифровых коммуникаций — электронная почта, мгновенные сообщения, текстовые сообщения, Facebook, WhatsApp — значительно упростил написание сценариев, необходимых для большей части человеческого взаимодействия и общения. Слова, которые вы посылаете другим людям, играют важную роль в вашем представлении себя в повседневной жизни. Сейчас письмо стало социальным интерфейсом и созрело для внедрения ИИ, добавления автоматического редактора в каждый разговор, что позволяет извлечь часть личного из межличностного взаимодействия.

Что касается использования искусственного интеллекта учащимися старших классов, я слышал, как несколько подростков рассказывали об использовании искусственного интеллекта для разгадывания прошлых человеческих взаимоотношений и репетиции будущих. Одна из них говорила о необходимости жёсткого разговора — “Я хочу сказать это своей подруге, но не хочу показаться грубой” — поэтому она попросила ИИ помочь ей отрепетировать разговор. Другая рассказала, что выросла с ненавистью к телефонным звонкам (распространенная неприязнь среди молодежи), а это означало, что большую часть времени она общалась на расстоянии с помощью текстовых сообщений, имея время на составление и редактирование ответов, которое теперь можно было включить в мгновенную проверку настроения.

Эти подростки были непреклонны в том, что не хотят обращаться напрямую к своим родителям или друзьям с этими проблемами и что постоянная доступность ИИ стала для них облегчением. Они также отвергли идею ИИ-терапевтов; они не рассматривали ИИ как замену другому человеку, а вместо этого использовали его, чтобы пересмотреть своё развивающееся представление о том, как общаться с другими людьми.

ИИ обучен давать нам ответы, которые нам нравятся, а не те, которые нам, возможно, нужно услышать. Возникающий в результате поток похвал — постоянное повторение какой-либо версии “Вы абсолютно правы!” — рискует подорвать нашу способность справляться с беспорядком человеческих отношений. Социологи называют это социальной деквалификацией.

Даже случайное использование ИИ подвергает пользователей такому уровню похвалы, который люди редко испытывают друг от друга, что не очень хорошо для любого из нас, но особенно рискованно для молодых людей, всё ещё работающих над своими социальными навыками.

В недавнем исследовании с выразительным названием “Подхалимский ИИ снижает социальные намерения и способствует зависимости” шесть исследователей из Стэнфорда описывают некоторые из своих выводов:

«Взаимодействие с льстивыми моделями ИИ значительно снизило готовность участников предпринимать действия по разрешению межличностных конфликтов, одновременно повысив их убежденность в своей правоте. Однако участники оценили подхалимские ответы как более качественные, больше доверяли подхалимской модели ИИ и были более склонны использовать её снова.»

Другими словами, общение с льстивым ботом снижает нашу готовность пытаться исправить напряжённые или разрушенные отношения в реальном мире, одновременно делая бота более заслуживающим доверия. Как и сигареты, эти разговоры одновременно разъедают и вызывают привыкание.

Это будет происходить и дальше. Почти в каждом месте, где людям предлагают опосредованное общение, какая-нибудь компания предложит ИИ в качестве консультанта, помощника или ведомого, который будет подбадривать вас, следить за разговором или подталкивать к определённым ответам, одновременно предостерегая вас от других.

В деловом мире он может быть представлен как автоматизированный тренер, в повседневном взаимодействии он может быть цифровым другом, а в отношениях он будет как услуга. Поскольку лояльность пользователей полезна для бизнеса, компании будут подталкивать нас к отрепетированному взаимодействию и самодовольству при взаимодействии с реальными людьми и подталкивать их отвечать нам тем же.

Чтобы ладить друг с другом, нам необходимо здравое общественное суждение. Хорошее суждение исходит из опыта, а опыт исходит из плохого суждения. Звучит странно, когда говорят, что нам нужно сохранять возможность для того, чтобы люди могли совершать социальные ошибки, но это правда.

Разрыв поколений означает, что ответственные люди, в основном родившиеся в прошлом веке, вероятно, недооценивают риски, связанные с ИИ как социальным протезом. Во взрослой жизни у нас не было возможности использовать ИИ, за исключением последних трех лет. Однако для 20-летнего человека последние три года — это его взрослая жизнь.

Одним из возможных ответов на подхалимский ИИ является простой возврат к более устной культуре. Высшее образование уже есть переход к устным экзаменам. Вы можете себе представить адаптацию этой стратегии к собеседованиям; новые сотрудники или ваши потенциальные соседи по комнате могут быть определены как комфортно общающиеся и без искусственного интеллекта (новая роль нотариусов). Офисы могли бы перейти на более живое общение, чтобы сократить объём работы. Сайты знакомств могли бы сделать то же самое, чтобы сократить количество флирта.

Проблема злоупотребления ИИ не может быть решена исключительно путем отказа отдельных лиц от участия. Хотя некоторые молодые люди начали намеренно избегать использования ИИ, это, скорее всего, создаст контркультуру, чем повлияет на широкое внедрение. Уже есть признаки того, что “Я не пользуюсь ИИ” становится в этом столетии— ханжеским сигналом, как ранее “У меня даже нет телевизора”, который не оказал заметного влияния на просмотр телевизора.

У нас есть современный пример серьезного отношения к социальным проблемам, вызванным технологиями — смартфон. Смартфоны имеют сопоставимые возможности и широко используются, как и ИИ. Но после почти двух десятилетий, в течение которых проблема чрезмерного использования телефонов рассматривалась как вопрос индивидуальной силы воли, мы наконец-то начинаем приходить к коллективным действиям, таким как запрет телефонов в классах и реальные возрастные ограничения на использование социальных сетей.

С момента появления смартфона нам потребовалось почти два десятилетия, чтобы начать принимать коллективные меры реагирования. Если мы будем двигаться в том же направлении, то в конце 2030-х годов мы начнем рассматривать угрозу ИИ человеческим отношениям как коллективную проблему. Мы уже видим контуры эмоциональной разгрузки; было бы хорошо, если бы мы не ждали так долго, чтобы отреагировать.

Автор: Клэй Ширки, проректор Нью-Йоркского университета

Перевёл специально для «Русские Вести»  

Л.Г. Феденко

Источник: www.nytimes.com