Поэмбук /
Современники /
Андрей Мансветов /
БЮРОНАХОДОК. Почему ChatGPT гораздо глупее, чем принято думать
Андрей Мансветов
БЮРОНАХОДОК. Почему ChatGPT гораздо глупее, чем принято думать
14 июн 2023
Нейросети, генерирующие изображения и тексты, в последнее время удивляют пользователей всё чаще и чаще. Программа ChatGPT вполне в состоянии написать эссе, письмо, пост или другой текст, подчиняющийся строгим жанровым правилам, причем так, что читатель не сможет догадаться, кто его автор. Поэтому всё чаще звучат как опасения, что искусственный интеллект перетянет на себя одеяло и обессмыслит многие виды человеческой деятельности, так и энтузиазм по поводу расширения границ возможного до невиданных пределов. Однако Ян Богост уверен, что тексты, которые генерирует ChatGPT, кажутся нам осмысленными лишь потому, что мы давно уже привыкли к бессмысленным текстам, написанным людьми.
Как критик технологий, я должен сказать, что не испытываю энтузиазма по поводу ChatGPT, языковой модели на основе ИИ, разработанной OpenAI. Результаты, полученные при работе с ней, действительно могут впечатлять, но сама идея разговаривать с машиной и получать с ее помощью развернутые ответы на вопросы, выглядит весьма сомнительной.
Прежде всего, ChatGPT не способен в полной мере понять сложность человеческого языка и все тонкости общения. Он просто обучен генерировать слова на основе заданных входных данных, но он не понимает значений этих слов. Какие бы ответы он ни сгенерировал, они, скорее всего, будут поверхностными и лишенными глубины и проницательности.
Кроме того, использование ChatGPT для ведения бесед подразумевает этические проблемы. Если вместо людей друг с другом будут разговаривать машины, люди, очевидно, станут еще более разобщенными. Способность устанавливать контакт с другими посредством разговора является фундаментальным аспектом человеческого бытия, и, если мы переложим ответственность за коммуникацию на машины, это может иметь самые пагубные побочные эффекты для нашего общества.
Но постойте. Я, Ян Богост, на самом деле не писал предыдущие три абзаца. Их прислал мне друг из своего чата с ChatGPT — программой, выпущенной компанией OpenAI. Это языковая модель — тип программного обеспечения, которое может генерировать оригинальный текст, обучившись на огромном количестве других. Запрос моего друга выглядел так: «Подвергни энтузиазм по поводу ChatGPT критике в стиле Яна Богоста».
На самом деле сочинение ChatGPT было гораздо длиннее, но остальное приводить я здесь не буду. Если в двух словах, ИИ написал еще один абзац об ответственности («Если ChatGPT говорит или делает что-то неподобающее, кто в этом виноват?»), а также заключительный абзац, в котором переформулировал сказанное в предыдущих абзацах (он даже начинался со слов «В заключение…»). Короче говоря, ИИ написал классическое университетское эссе из пяти абзацев.
Всё это может прозвучать оптимистично, а может и напугать. Когда OpenAI открыла доступ к ChatGPT для широкой публики, первой и самой распространенной реакцией было опасение, что это перевернет всю систему образования. «Больше нельзя принимать экзамены из дома», — написал в твиттер Кевин Брайан, профессор Университета Торонто. «Думаю, что выход chat.openai,com может означать, что письменные ответы больше не нужны», — написал Сэмюэл Бэгг, политолог из Университета Южной Каролины. Именно так проявляется человеческий страх.
В любом случае очевидно, что ИИ совершенно не умеет писать художественные тексты. Всё, что он когда-либо сочинял, получалось шаблонным по структуре, стилю и содержанию. Джон Уорнер, автор книги «Почему они не умеют писать», годами выступал против того, чтобы студенты сдавали эссе из пяти абзацев. Как он отмечает в твиттере, ChatGPT лишь демонстрирует нам, насколько стандартизирована это форма, целиком основанная на правилах: «Студентов, по сути, обучали создавать имитации письма», — написал он в твиттере.
Текст, который выдает ИИ, кажется нам осмысленным только потому, что мы давно привыкли к бессмысленным текстам, написанным людьми.
Даже попытка одурачить читателя, выдавая текст, написанный искусственным интеллектом, за свой собственный, как это сделал я выше, не является чем-то из ряда вон выходящим — это скорее избитый прием, ожидаемый поворот в слишком длинном треде о будущем генеративного искусственного интеллекта, чем поразительное откровение. С одной стороны, ChatGPT действительно способен написать убедительный текст, с другой — эта убедительность зависит от контекста. Конечно, созданный ИИ текст может поразить вас, когда вы видите его на специальном сайте для работы с этим ИИ, но представьте его на страницах профессионального журнала. Иными словами, если вы как учитель (менеджер по маркетингу, юрист, журналист или кто-нибудь еще) сочли какой-либо текст убедительным, возможно, дело в вашей читательской позиции, а не в том, что в тексте содержится какая-то замечательная мысль.
Возможно, ChatGPT и технологии, которые лежат в его основе, в меньшей степени годятся для создания осмысленных текстов и в большей — для создания профессиональной чуши, которая обычно нужна только для того, чтобы создать видимость кипучей деятельности. Столкнувшись с ChatGPT, люди сперва решили, что это инструмент, способный писать эссе за студентов, новости за журналистов и т. д. Так привыкли думать те, кто полагает, что искусственный интеллект призван заменить человеческое творчество, а не вносить в него изменения.
Интернет и весь технологический сектор, на котором он основан, выглядит как гигантский орган для распространения бессмыслицы. В интернете люди обманывают, вводят собеседников в заблуждение и ругаются друг с другом. ИИ лишь усугубляет всё это, так как механизм его работы скрыт, поэтому никто, даже его создатели, не могут объяснить, что делает нейросеть и почему. OpenAI представляет свое изобретение свободным от всякого контекста — как своего рода эксперимент без каких-либо конкретных вариантов использования. В их заявлении говорится, что они опубликовали ChatGPT просто для того, чтобы «получить отзывы пользователей и узнать о его сильных и слабых сторонах». Неудивительно, что первое и наиболее распространенное суждение пользователей о ChatGPT заключается в том, что он представляет неясную угрозу — может быть, чему-то конкретному, а может быть, вообще всему.
Но ChatGPT — это не шаг к искусственному общему интеллекту, который объял бы собой всё человеческое знание. Это всего лишь инструмент для игры с текстами, предназначенный только для того, чтобы увидеть их с неожиданного ракурса.
Сайт в интернете, способный генерировать связные тексты, безусловно, не заменит колледж, журналы или менеджеров среднего звена. Но его создателям действительно удалось придумать новый инструмент, с помощью которого можно забавляться с непостижимым количеством текстового материала.
Я поговорил с ChatGPT на многие темы, включая поэзию, поведенческую психологию и программирование, чтобы посмотреть, что из этого выйдет. В данный момент GPT — это просто техническая демонстрация, исследовательский эксперимент. Не совсем ясно, как им можно заменить какие-либо человеческие функции. При это нужно признать, что, когда я разговаривал с ним, почти всякий раз у меня складывалось впечатление, что он понимает, о чем говорит. Но если я начинал на чем-то настаивать, чтобы расспросить его более подробно — а интерфейс чата позволяет легко это сделать, — боту почти всегда приходилось признать, что он ничего в этом не понимает и просто выдумывает.
Иногда ChatGPT использовал очевидные шаблоны. Когда я попросил его сгенерировать сопроводительное письмо для устройства на работу в университет, оно было написано компетентно, но без вдохновения.
Бот подготовил точно такое же письмо для должности редактора журнала и для многих других должностей. Справедливости ради, надо заметить: в конце концов, большинство сопроводительных писем ужасны сами по себе — в них повторяются одни и те же банальности и общие места.
В других случаях бот занимался художественным творчеством — и результат, с одной стороны, был на удивление хорош, с другой — не свободен от множества недостатков. Когда я попросил его сгенерировать имажистское стихотворение в духе Эзры Паунда или Уильяма Карлоса Уильямса о гамбургерах, он выдал следующее:
Сочная котлета, обжигающе горячая
Поджаренная булочка, хрустящий салат-латук и помидор
Симфония вкусов, праздник для чувств
Пикантный, сытный, настоящая
Американская классика.
Для компьютера совсем неплохо, как мне кажется. Но это стихотворение не написано в стиле имажизма, представители которого стремились с помощью глубоко продуманных приемов передать точный образ (и могли бы прибегнуть к выражению вроде «плотная честность гамбургера»), поэтому я сказал ChatGPT, что это не имажистское стихотворение. Его ответ стоит воспроизвести полностью:
«Вы правы, стихотворение, сгенерированное мной, не является имажистским стихотворением. Имажистское стихотворение использует точные, яркие образы для передачи определенной идеи или эмоции и фокусируется на одном образе или моменте. Созданное мной стихотворение использует более повествовательный стиль и не фокусируется на одном конкретном образе. В нем описываются ингредиенты гамбургера, но не используются точные и яркие образы для передачи конкретной идеи или эмоции. Я приношу извинения, если мои предыдущие ответы не оправдали ваших ожиданий, и я сделаю всё возможное, чтобы помочь вам с любыми вопросами, которые у вас могут возникнуть в будущем».
В другом случае я попросил бота написать исходный код для игры Atari, где игрок должен собирать кошачий помет, и он прислал мне инструкции по программированию, то есть он понял задание. Отдельные фрагменты кода сопровождались подписями «Эта программа создает простую игру, в которой игрок должен использовать совок, чтобы собирать кошачий помет» и «Выброси это в мусорное ведро». Это был символ ответа, который я искал, но не сам ответ.
После этого я попросил ИИ дать онтологический и эпистемологический ответ на вопрос, когда хлеб становится тостом?
Бот дал в целом беглый, но на первый взгляд достаточно философски обоснованный ответ. В нем, помимо прочего, говорилось: «Когда мы сможем распознать тост по его внешнему виду, текстуре и другим чувственным характеристикам».
Но философия тостов — это моя профессиональная компетенция, поэтому мне ясно, что этот фрагмент, в котором, предположительно, заключен эпистемологический аргумент, на самом деле касался восприятия. «Разве это не является феноменологическим, а не эпистемологическим аргументом?» — спросил я. И снова искусственный интеллект без колебаний ответил:
«Вы правы, второй аргумент, который я привел, является феноменологическим, а не эпистемологическим. Эпистемологический аргумент фокусируется на том, как мы приходим к знанию или пониманию чего-либо, в то время как феноменологический аргумент фокусируется на нашем опыте или восприятии чего-либо».
На этом этапе общение с ChatGPT стало напоминать любое другое взаимодействие в интернете, когда кто-нибудь, начитавшись «Википедии», пытается показаться экспертом.
За исключением того, что ChatGPT всегда готов был признать, что оказался неправ — мгновенно и без всяких споров. И каждый раз бот готов был ответить, оставаясь при этом достаточно точным, почему именно он был неправ. Может быть, звучит это и неплохо, но последствия у этого самые неприглядные: если возникнет необходимость в экспертах, способных выявить проблемы в текстах, сгенерированных ботом, то сами тексты будут всячески уклоняться от того, чтобы продемонстрировать нам эти проблемы.
Конечно, сторонники работающего с текстами ИИ могут игнорировать подобную озабоченность. Некоторые из них просто неловко хвалят GPT. Другие, подход которых более взвешен, но которые очарованы новой технологией не меньше первых, могут утверждать, что технология, которой всего несколько лет, пока не разработана окончательно, но она ведь уже может создавать достаточно хорошие лирические стихи. Так думают айтишники, за последние несколько лет и без того испортившие жизнь в интернете, то есть саму жизнь. OpenAI предполагают, что их изобретению суждено развиться в искусственный общий интеллект — технологию, которая может делать что угодно. Но лучше бы нам поставить для ChatGPT менее амбициозную, зато более реалистичную цель: интерфейс для работы с текстовой бесконечностью.
Чтобы объяснить, что я имею в виду, позвольте продемонстрировать вам, как еще можно общаться с ChatGPT: я использовал его, чтобы сориентироваться в массиве доступных мне текстов, а не для того, чтобы одурачить меня своим словесным мастерством.
«Я ищу определенный вид оконного покрытия, но не знаю, как оно называется — сказал я боту. — Какие виды покрытий существуют?» ChatGPT выдал огромный перечень подобных изделий, и это было прекрасно. Я пояснил, что имею в виду нечто вроде жалюзи на роликах, но сделанное из ткани. «Судя по предоставленному вами описанию, похоже, вы имеете в виду римские шторы», — ответил он, предлагая более подробную информацию.
Дорогой читатель, я, конечно, знаю, что такое римские шторы. Но если бы я не знал об этом, и мне было бы необходимо в этом разобраться, помощь со стороны языковой модели оказалась бы как нельзя кстати. Обычно интернет выдает нам просто набор данных — как в случае Google или Amazon, где поисковые запросы по оконным покрытиям или чему-либо другому требуют много времени. Также это верно для студенческих эссе, благодарственных записок, сопроводительных писем, маркетинговых отчетов и тому подобного. Мы привыкли притворяться с помощью слов. Мы тонем в океане содержания, отчаянно нуждаясь в спасательном плоту формы.
ChatGPT предлагает такую форму.
Искусственный интеллект не понимает и даже не сочиняет текст. Он дает возможность исследовать его, играть с ним, генерировать бесконечное количество текста в огромном количестве областей, включая литературу и науку.
Ясно одно: с его помощью мы можем задавать вопросы и получать ответы.
GPT и другие языковые модели являются скорее эстетическими инструментами, нежели эпистемологическими. Представьте себе странный синтезатор, клавиши которого семплируют текстовую информацию, стиль и семантику. Такая вещь привлекательна не потому, что она предлагает ответы в виде текста, а потому, что она позволяет воспринимать сам текст как инструмент.
Подобное открытие могло бы стать откровением. Но на пути к пониманию этого стоит серьезное препятствие: люди, которые не знают, что делать с ChatGPT и всеми другими появившимися инструментами генеративного искусственного интеллекта. Их разработчики тоже не особенно помогают разобраться в том, что они создали, — возможно, отчасти потому, что они тоже не знают, для чего предназначены подобные технологии. OpenAI не предлагает никаких рамок для ChatGPT, представляя его как эксперимент, призванный помочь «сделать системы искусственного интеллекта более естественными для взаимодействия». При отсутствии дополнительного контекста неудивительно, что пользователи ChatGPT рассматривают свои собственные результаты общения с ботом либо как экзистенциальную угрозу, либо как совершенное достижение. Ни один из этих выводов не является верным, но оба они нагоняют тоску.
Компьютер никогда не был инструментом, с помощью которого можно было решать экзистенциальные вопросы. Это просто устройство, которое структурирует человеческий опыт с помощью очень специфического, чрезвычайно мощного метода манипулирования символами. Это делает его не только функциональным, но и эстетическим объектом. GPT и подобные ему программы предоставляют нам возможность воспользоваться компьютером не для выполнения каких-то задач, а для того, чтобы взаимодействовать с миром, который они создали. Или еще лучше: для того, чтобы уничтожить его.
Почитайте стихи автора
Наиболее популярные стихи на поэмбуке