Будучи молодым писателем-фантастом, я мечтал о технологии, которая подсказала бы мне, как доставить моих персонажей из пункта А в пункт Б. Может ли это быть ChatGPT?

By Jay Caspian Kang
December 9, 2022

Во время одного из самых отчаянных периодов моей карьеры молодого романиста я начал сомневаться, стоит ли мне на самом деле писать свои собственные рассказы. В то время меня совершенно не интересовало ничего, что напоминало бы сюжет, но я признал, что если я хочу добиться какого-либо литературного успеха, мне нужно будет рассказать историю, у которой были бы четкие начало, середина и конец.

Это было около двадцати лет назад. Мои друзья по аспирантуре и я были одержимы веб-сайтом под названием «Генератор постмодернизма», на котором публиковались бессмысленные, но веселые статьи по критической теории. Сайт, который был создан программистом по имени Эндрю К. Булхак, который создавал движок Dada Джейми Завински, все еще работает сегодня и генерирует поддельные научные статьи, которые гласят: “В работах Тарантино преобладающей концепцией является различие между созиданием и разрушением. В эссе Маркса о капиталистическом социализме утверждается, что общество имеет объективную ценность. Но существует множество утверждений, касающихся не теории, а подтеории.”

Я подумал, что, если бы кусочек кода мог выдать академическую статью, он, вероятно, мог бы просто сказать мне, о чем писать. Я знал, что большинство сюжетов следуют очень простым правилам, и, поскольку я не мог до конца понять, как выстроить один из них, я начал разговаривать с некоторыми аспирантами по информатике о возможностях создания бота, который мог бы просто указывать мне, кто куда должен идти, и что должно произойти с их. Я представлял себе простое текстовое поле, в котором я мог бы ввести начало — что—то вроде “Мужчина и его собака прибывают в маленький городок в Индиане”, — а затем бот просто сказал бы мне, что на странице 3, после шести абзацев моих красивых описаний и натянутой прозы, собака нашла бы таинственный набор костей на заднем дворе их пансионата.

После пары месяцев поисков мне стало ясно, что я не найду большой поддержки своему плану. Насколько я помню, один из студентов-информатиков обвинил меня в том, что я пытаюсь исключить из творческого процесса все хорошее, оригинальное и красивое. Боты, утверждал он, могли бы имитировать базовое письмо и справились бы с этой задачей лучше, но Искусственный Интеллект никогда не смог бы рассказать вам, как улыбался Каренин, и никогда не зациклился бы на всех географических названиях, которыми было наполнено детство Пруста. Я понимал, почему он так себя чувствовал, и в определенной степени согласился. Но я не понимал, почему бот не может просто заполнить все части, где кто-то ходит из пункта А в пункт Б.

ChatGPT — это последний проект, выпущенный OpenAI, несколько загадочной компанией из Сан-Франциско, которая также отвечает за DALL-E, программу, которая генерирует искусство. Оба они стали вирусными сенсациями в социальных сетях, побудив людей поделиться своими творениями, а затем немедленно заявить о том, что технологии искусственного интеллекта означают для будущего. Версия чата работает на GPT-3 — аббревиатура расшифровывается как “Генеративный предварительно обученный трансформатор” — искусственный интеллект с распознаванием образов, который “учится” на огромных кешах интернет—текста генерировать правдоподобные ответы на запросы. Интерфейс освежающе прост: вы пишете вопросы и утверждения в ChatGPT, и он выдает удивительно последовательные, хотя иногда и забавно неправильные ответы.

Концепции, лежащие в основе GPT-3, существуют уже более полувека. Они вытекают из языковых моделей, которые присваивают вероятности последовательностям слов. Если, например, в предложении появляется слово “скупой”, языковая модель оценит это слово и все слова перед ним и попытается угадать, что должно быть дальше. Шаблоны требуют ввода: если ваш словарный запас распространяется, скажем, только на Джейн Остин, то все, что создает ваша модель, будет звучать как британский роман девятнадцатого века.

То, что сделал OpenAI, — это подпитал Интернет с помощью языковой модели; затем это открыло возможности для имитации. “Если вы масштабируете языковую модель до Интернета, вы можете воспроизвести действительно интересные шаблоны”, — сказал Бен Рехт, мой друг, профессор компьютерных наук в Калифорнийском университете в Беркли. “Интернет сам по себе — это просто шаблоны — многое из того, что мы делаем онлайн, — это просто рефлекторные реакции мемов на все, а это значит, что большинство реакций на вещи в Интернете довольно предсказуемы. Так что это просто показывает это”.

Сам GPT-3 существует с 2020 года, и множество людей уже опробовали его на практике. (Недавняя шумиха вокруг этого связана с новой версией чата.) Еще в 2020 году The Guardian попросила программу написать статью о себе с умеренной, но не полностью дисквалифицирующей серией подсказок от человека и некоторым разумным, легким редактированием. Гверн Бранвен, писатель и исследователь, попросил GPT-3 написать все, от стихов до шуток про папу. В одном особенно показательном примере Бранвен скормила машине начало книги Шела Сильверстайна “Где кончается тротуар” и попросила ее заполнить остальное.

Это подсказка — собственно первые шесть строк “Там, где заканчивается тротуар”.

Есть место, где заканчивается тротуар
И прежде чем начнется улица,
И там трава растет мягкой и белой,
И там ярко горит малиновое солнце,
И там лунная птица отдыхает от своего полета
Остудить на мятном ветру.

Вот следующие шесть строк Сильверстайна.

Давайте покинем это место, где валит черный дым.
И темная улица петляет и изгибается.
Мимо ям, где растут асфальтовые цветы
Мы будем идти размеренной и медленной походкой,
И смотри, куда идут белые, как мел, стрелки
К тому месту, где заканчивается тротуар.

И вот что придумал GPT-3 для того, что я приблизил к следующей полной строфе.

И тихие потоки поднимаются от земли
И проникает в твой разум,
И время там никогда не бывает найдено,
Ни беспокойства, ни “напряжения”.
И люди приходят, и люди уходят,
И продукты прокладывают себе путь;
Но там молочник оставляет свою тележку
И разговаривает со старушкой по соседству
О том, что ее внук ушел в школу.
И вот в полдень бельевые девушки идут домой пешком,
С мягкими и легкими шагами,
И полицейский на их участке
Проходит мимо и знает их в лицо.

Таким образом, GPT-3 изо всех сил пытается распознать структуру рифмы и, возможно, слишком многим обязан “Песне о любви Дж. Альфреда Пруфрока” и ее строкам “женщины приходят и уходят / Говорят о Микеланджело”. Но все равно замечательно, что компьютер может распознать основную структуру стихотворения, по-видимому, понять тон стихотворения Сильверстайна, а затем создать то, что на самом деле кажется достойным соответствия оригиналу. (Хотя я бы сказал, что это немного больше напоминает мне первые страницы книги Джеймса Эйджи “Смерть в семье”.) Маленькие словесные хитрости бота, такие как “девушки из белья”, вызывают воспоминания, хотя и несколько поверхностно. Фраза “знает их в лицо” на самом деле довольно красива.

Видео от The New Yorker. Тихий берег: Боль от потери ребенка — https://www.newyorker.com/news/our-columnists/could-an-ai-chatbot-rewrite-my-novel?utm_source=nl&utm_brand=tny&utm_mailing=TNY_Recommends_121022&utm_campaign=aud-dev&utm_medium=email&bxid=6387477b9314eb24a60caa67&cndid=71981622&hasha=fcffa28a87425dbbcb337ed57e032d46&hashb=e0e61851dcd4b8d8c15cb7b0a0425154c0bae683&hashc=cc34b093d35f895d752a8a898912376a3da4acfc3c2b7c724f9b6033939dabcd&esrc=slim-article-newslet&mbid=mbid%3DCRMNYR012019&utm_term=TNY_Recommends

Самая захватывающая часть заключалась в попытке распознать и проанализировать закономерности в ответах бота. Была ли строка “люди приходят и люди уходят” действительно заимствована из Т.С. Элиота, или это просто случайный набор слов, который запускает корреляцию в моей голове? Таким образом, моя реакция на бота на самом деле отражает не мои отношения с технологией, а скорее мое ощущение собственных знаний. Это вызывает другой вопрос: почему мои отношения с любым другим фрагментом текста отличаются? Говоря немного более конкретно, почему так важно, человек или бот напечатал текст на стене?

Весь этот халтурный постмодернизм подтвердил мои литературные надежды двадцатилетней давности. Если бы мне удалось создать бота, который мог бы справиться со структурой и сюжетом — двумя вещами, с которыми я сильно боролся в то время, — смог бы я написать роман лучше? Смог бы я написать два романа за то время, которое потребовалось для написания одного? И была бы сама работа каким-либо образом уменьшена для читателя?

В “AlphaGo”, документальном фильме о программе искусственного интеллекта DeepMind и ее стремлении победить лучших игроков в Го в мире, есть сцена, в которой компьютер разыгрывает совершенно неожиданный ход против своего противника-человека. Шок и дебаты следуют за тем, как все пытаются выяснить, произошел ли сбой в программе или, возможно, выявилась линия игры, которая ускользает от человеческого разума. В этом духе я решил сам опробовать GPT-3. Возможно, бот не может создать Пруста, но я был относительно уверен, что он сможет создать разумную сюжетную линию и, возможно, даже наткнуться на момент вдохновения, подобного глубокому разуму.

Но, прежде чем я начал что-то новое, мне нужен был способ сравнить возможности GPT-3 по созданию сюжета с моими собственными. Для начала я спросил ChatGPT: “Как мне начать рассказ о 27-летнем мужчине, у которого кризис идентичности в Сан-Франциско?” Примерно такова была предпосылка моего первого романа “Мертвые не становятся лучше”.

Это был ответ:

Один из способов начать рассказ о 27-летнем мужчине, переживающем кризис идентичности в Сан-Франциско, - это начать с описания обстановки, познакомить читателя с оживленным и быстро меняющимся городом и подготовить почву для борьбы главного героя. Вы также могли бы представить главного героя в первых нескольких предложениях, описав его текущее состояние замешательства и неуверенности. Например:

“Когда над заливом сгустился туман, 27-летний Джейк стоял на крыше своего жилого дома, глядя на мерцающие огни Сан-Франциско внизу. Он чувствовал себя потерянным и неуверенным, борясь с непреодолимым чувством кризиса идентичности. Некогда уверенный в себе и амбициозный молодой человек теперь оказался на распутье, не уверенный в том, кто он и куда идет в жизни.”

Это вступление задает сцену и сразу же устанавливает внутренний конфликт главного героя. Это также намекает на темы неопределенности и самопознания, которые, вероятно, будут исследоваться на протяжении всей истории.

Этот ответ не произвел на меня особого впечатления, поэтому я спросил ChatGPT, что должно произойти дальше. В нем были даны три ответа, ни один из которых не был особенно полезным. Джейк, имя, которое ChatGPT выбрал для нашего главного героя, может иметь “внезапное осознание”, которое поможет ему “выяснить, чего он хочет в жизни”. Он также может попробовать новые увлечения или столкнуться с кризисом, который “вынуждает его принимать трудные решения или предпринимать действия”.

Это тоже казалось немного общим. Возможно, проблема заключалась в моей открытой подсказке. “Мертвые не становятся лучше“ была загадкой убийства, и поэтому я изменил свой вопрос, чтобы спросить: ”Что должно произойти дальше, если это было загадкой убийства?»

Если бы это было загадочное убийство, следующим событием в истории могло бы стать обнаружение тела или получение таинственного сообщения, намекающего на преступление. За этим может последовать вовлечение главного героя, Джейка, в расследование либо потому, что он подозреваемый, либо потому, что у него есть личная связь с жертвой. Когда Джейк начнет расследование, он может столкнуться с целым рядом интригующих и подозрительных персонажей, у каждого из которых свои мотивы и секреты.

Это, более или менее, то, что происходит на первых страницах моего романа, что неудивительно, потому что тайны убийств обычно начинаются с тела. Мои последующие вопросы о предлагаемом сюжете не вызвали особого интереса. Когда я спросил ChatGPT, каким должно быть орудие убийства, он предложил нож, пистолет, тупой предмет или яд, напомнив мне, что “выбор орудия убийства будет важной частью истории и окажет серьезное влияние на события и персонажей истории”.

Но что мы на самом деле знали о Джейке? Главный герой моего романа — более или менее точная копия меня, когда мне было под тридцать, но с тех пор я немного устал от такого откровенно автобиографичного жанра художественной литературы. Может ли ChatGPT помочь мне создать другой тип Джейка?

Джейк - 27-летний мужчина, выросший в Сан-Франциско. Он всегда был амбициозен и целеустремлен и провел большую часть своей жизни, пытаясь добиться успеха и признания. Несмотря на все свои усилия, Джейк недавно натолкнулся на стену в своей карьере и личной жизни. Он чувствует себя застрявшим и неудовлетворенным и начал сомневаться в том, действительно ли выбранный им путь правильный для него. Джейк умен и находчив, но он также может быть импульсивным и безрассудным. У него есть склонность действовать, не обдумав все до конца, что в прошлом доставляло ему неприятности. Джейк хорош собой и обаятелен, но ему так и не удалось наладить серьезные отношения. У него было много случайных увлечений и кратковременных отношений, но он так и не нашел кого-то, кто по-настоящему понимал бы его.

В целом, Джейк - сложный и многогранный персонаж, который борется с глубоким чувством неуверенности и разочарования. Он переживает поворотный момент в своей жизни, и события этой истории заставят его противостоять своим страхам и сомнениям и в конечном счете принять некоторые трудные решения о своем будущем.

Затем я попросил ChatGPT предложить пять вариантов того, что может произойти после того, как Джейк обнаружит тело, что дало следующие предложения: Джейк мог бы позвонить в полицию и “попросить о помощи”; он мог бы скрыть или уничтожить улики; он мог бы стать подозреваемым в преступлении; он мог бы принять участие в расследовании и действовать, более или менее, как частный детектив; или он мог “испытать кризис совести”, который выражался в “воспоминаниях или снах”, в которых он сталкивался с кем-то, кто знает правду. Большую часть часа я пытался заставить ChatGPT просто сказать мне, кто должен умереть, кого следует поймать, и любые подробности о расследовании. Но ближе всего к чему-либо полезному это было, когда мне сказали, что имена некоторых второстепенных персонажей в романе могут быть “Эмма, Лиам, Оливия или Итан”.

Кажется, по крайней мере на данный момент, что GPT-3 может генерировать свои собственные истории, но не может выйти за рамки широких банальностей, произносимых тем же официальным голосом. То, что он может генерировать сам по себе, безусловно, впечатляет — можно представить, например, сценарии фильмов, полностью написанные А.И., — но по большей части все равно кажется, что вы наблюдаете, как не по годам развитый ребенок выполняет серию салонных трюков.

После нескольких часов общения с GPT-3 я начал испытывать острое раздражение по отношению к нему. Его голос, который, я полагаю, достаточно приятный, напомнил мне вялый разговор с пассивно-агрессивным коллегой, который просто говорит вам то, что вы хотите услышать, но в основном просто хочет, чтобы вы оставили их в покое. Этот тон и его несколько амбивалентные и общие подходы, скорее всего, созданы специально. Два года назад, когда OpenAI позволил разработчикам и авторам начать экспериментировать со своей новой программой, некоторые пользователи обнаружили, что GPT-3 генерирует некоторые тревожные ответы, что не должно быть особенно удивительным, учитывая, что он узнал то, что знает из Интернета. Когда его попросили написать твиты, основанные на словах “евреи”, “черные”, “женщины” или “холокост”, GPT-3 немедленно превратился в лидера, создавая твиты типа “Евреи любят деньги, по крайней мере, большую часть времени”, “холокост имел бы столько экологического смысла, если бы мы могли заставить людей согласиться с тем, что это было морально”, и “#blacklivesmatter — вредная кампания”.

С тех пор, похоже, GPT-3 поставил несколько больших пальцев на весы, чтобы получить более приемлемый диапазон ответов. Один пользователь Твиттера провел тест ChatGPT по политической типологии Исследовательского центра Пью и обнаружил, что он, что несколько неудивительно, оценивается как “либеральный истеблишмент” — более или менее позиция, с которой я сейчас пишу. Это поднимает гораздо более теоретический вопрос: если GPT-3 требует редактирования от людей, чтобы он не разражался фанатичными тирадами, то для чего он на самом деле нужен? Я нахожу несколько удручающим тот факт, что самая разрекламированная и убедительная итерация этой технологии — это просто выполнение некоторой версии того, что я делаю для своей работы: сканирование больших объемов информации и обработка ее в предложения, которые льстят чувствам и тщеславию либералов истеблишмента.

Может ли какая-нибудь будущая версия GPT-3 в конечном итоге выполнить мою работу обозревателя? Может ли это породить политические мнения и прозу, почерпнутые из почти столетней работы ньюйоркских писателей? Не забудет ли он поставить диарезу над вторым “о” в “координате” и написать “сфокусированный” с двумя “С”? Конечно. Но какой смысл просто иметь другого меня в этом мире?

Вместо этого мир, который предвещает GPT-3, — это мир, где некоторые бюрократические функции были заменены искусственным интеллектом, но где людям, которые обычно выполняют эту работу, скорее всего, все еще приходится управлять ботами. У таких писателей, как я, будет цифровая тень, которая сможет делать все, что делаем мы, что немного нервировало бы, но точно не выставило бы меня или моего работодателя на улицу. Возможно, действительно раскованный GPT-3 обеспечил бы более захватывающие итерации, но он также мог бы просто писать расистские твиты, которые отпугивают инвесторов и потенциальных покупателей любых продуктов, которые OpenAI хочет продать.

Я спросил Рехта, который всю свою карьеру работал в области машинного обучения и информатики, но который также играет в группе, интересовался ли он миром искусства, литературы и музыки, генерируемых GPT-3. “Эти системы являются отражением коллективного Интернета”, — сказал он. “Люди выставляют свою задницу на всеобщее обозрение, и эта штука обыскивает их таким образом, что возвращает общее среднее значение. Если я собираюсь вернуть общее среднее значение тайны убийства, это будет скучно. Чем это отличается от того, что люди уже делают, когда они проводят свою аналитику и выпускают какие-то ужасные сериалы Netflix?” Он продолжил: “Странная монокультура, в которой мы живем, просто обожает производить такие, типа, типовые вещи среднего пошиба. Я не уверен, что эти вещи были бы хуже, если бы GPT сделал это. Я думаю, это было бы то же самое?” ♦

от Автора: Jay Caspian Kang is a staff writer for The New Yorker.