2023 год широко описывается как “оппенгеймеровский” момент в индустрии искусственного интеллекта. Дж. Роберт Оппенгеймер, известный как “отец атомной бомбы” за свою ведущую роль в Манхэттенском проекте, боролся со смертельными последствиями своего изобретения.

Режиссер Кристофер Нолан вновь пробудил общественный интерес к жизни ученого в этом году, выпустив эпический блокбастер, подробно описывающий его измученную жизнь. Многие увидели параллели между попытками Оппенгеймера предупредить политиков о распространении ядерного оружия и современной тревогой по поводу возможных последствий искусственного интеллекта, причем некоторые ведущие технологи заявили, что ИИ представляет “риск исчезновения” наравне с ядерным оружием.

Когда этим летом фильм Нолана вышел на экраны кинотеатров, дебаты о том, как безопасно и ответственно разрабатывать искусственный интеллект, достигли пика в Вашингтоне. Когда президент Байден собирал высших руководителей компаний для обсуждения вопросов искусственного интеллекта в Белом доме, технические руководители и сенаторы увидели возможность использовать борьбу Оппенгеймера, чтобы проиллюстрировать морально сложные ставки в дебатах по поводу появляющейся технологии.

Но увлечение Оппенгеймером из Кремниевой долины вызвало у Нолана “противоречивые” чувства.

“Это замечательно, что ученые и технологи всех мастей обращаются к истории, смотрят на тот момент и беспокоятся о непреднамеренных последствиях”, — сказал Нолан в недавнем интервью в отеле Hay-Adams в Вашингтоне. “Но я также думаю, что важно иметь в виду, что ядерная угроза — это особая угроза человечеству”.

A still from the the 2023 film «Oppenheimer.» (Universal Pictures)

Нолан говорит, что атомная бомба была “силой разрушения”, и политики должны относиться к этому иначе, чем к такому инструменту, как искусственный интеллект. Он предостерегает от рассмотрения искусственного интеллекта как особого случая и предостерегает от приписывания технологии “богоподобных” атрибутов способами, которые могли бы позволить компаниям и правительствам уклониться от ответственности.

“Мы должны рассматривать это как инструмент, и нам нужна подотчетность за людей, которые владеют этим инструментом, и за то, как они им владеют”, — сказал он.

Некоторые технологи предупреждают о сценариях в стиле “конца света”, в которых ИИ развивает способность мыслить самостоятельно и пытается уничтожить человечество. Их предупреждения нашли отклик на мировой арене, и они были в центре внимания международной встречи мировых лидеров для обсуждения безопасности искусственного интеллекта в Блетчли-парке, историческом месте в Великобритании, где союзные шифровальщики расшифровывали секретные немецкие сообщения во время Второй мировой войны.

Но Нолан предупреждает, что сосредоточение внимания на этих потенциальных результатах отвлекает от решения проблем, которые компании и политики могли бы решить сейчас.

“Это позволяет всем сорваться с крючка, если мы рассматриваем самые экстремальные сценарии”, — сказал он.

По его словам, системы искусственного интеллекта уже используют его работы и другие голливудские фильмы для создания фотографий и видеороликов. Нолан говорит, что политикам необходимо рассмотреть способы, с помощью которых системы искусственного интеллекта сейчас отбирают работу у людей.

“Когда мы смотрим вдаль на то, где эта технология может быть применена или куда она ведет, я думаю, это отвлекает от вещей, которые необходимо решить прямо сейчас, таких как закон об авторском праве”, — сказал он. “О них не так захватывающе и интересно говорить… но они оказывают непосредственное влияние на занятость и компенсацию, с которыми необходимо иметь дело”.

J. Robert Oppenheimer at a congressional hearing in 1949. (AP)

По словам Нолана, история Оппенгеймера также свидетельствует о том, насколько трудным будет дальнейший путь регулирования искусственного интеллекта. ChatGPT ускорил гонку внутри ведущих компаний по разработке и внедрению систем искусственного интеллекта, и политики по всему миру находятся на ранних стадиях наверстывания упущенного. В Конгрессе США законодатели создали группу по разработке двухпартийного законодательства, касающегося этой технологии, на фоне активного лоббирования со стороны технологической индустрии.

Оппенгеймер в значительной степени потерпел неудачу в своих попытках устранить риски, связанные с его изобретением. По словам Нолана, он был “раздавлен” в своих попытках предотвратить разработку водородной бомбы. Усилия ученого работать в рамках политической системы, чтобы добиться перемен, в значительной степени провалились, особенно после того, как его допуск к секретной информации был аннулирован из-за обвинений в связях с коммунизмом.

“Я сочувствую людям, работающим на переднем крае искусственного интеллекта, которые посмотрят на историю Оппенгеймера и воспримут ее как поучительную историю, отчасти потому, что я не думаю, что она предлагает много ответов”, — сказал он.

По словам Нолана, в послевоенные годы исследователи-атомщики возвысились в поп-культуре и достигли славы, которой ученые никогда прежде не видели в истории. Но в конечном счете они оказались исключенными из политической системы.

“Когда политикам нужны изобретатели, у них есть право голоса, а когда они им больше не нужны, у них становится меньше права голоса”, — сказал Нолан. “История Оппенгеймера указывает на множество трудностей, подводных камней, связанных с такого рода проблемами”.

Striking workers demonstrate outside Warner Bros. Studios in Burbank, Calif., on Aug. 31. (Philip Cheung for The Washington Post)/Бастующие рабочие проводят демонстрацию возле студии Warner Bros. в Бербанке, Калифорния, 31 августа. (Филип Чанг для The Washington Post)

Если изобретатели не смогут в конечном счете решить, как будет использоваться их технология, это не сулит ничего хорошего для множества технических руководителей, исследователей и технологов, которые в этом году потратили значительное время на информирование вашингтонских политиков об искусственном интеллекте. Генеральный директор OpenAI Сэм Альтман, генеральный директор Tesla Илон Маск и ведущие исследователи искусственного интеллекта из таких школ, как Массачусетский технологический институт, провели часы, давая показания на слушаниях и беседуя с законодателями на закрытых заседаниях на фоне новых дебатов по ИИ.

Современная политическая среда ставит новые задачи, особенно по мере того, как компании, разрабатывающие системы искусственного интеллекта, приобретают все большее политическое влияние в Вашингтоне.

“Я обеспокоен тем, что нашим лидерам в Вашингтоне еще не удалось освободиться от манипуляций технологической индустрии, которые постоянно говорят им, что они недостаточно понимают, чтобы регулировать”, — сказал Нолан. “Мы должны немедленно покончить с этим режимом”.

Когда Нолан начал работать над фильмом об ученом 20-го века, он говорит, что понятия не имел, что это будет так актуально для технических дебатов этого года. Он часто обсуждал искусственный интеллект во время своего медиа-блица “Оппенгеймер”, а в ноябре он был удостоен премии Федерации американских ученых за государственную службу вместе с политиками, работающими над искусственным интеллектом, включая сенатора. Чарльз Э. Шумер (D-N.Y.), сенатор от штата Нью-Йорк. Тодд К. Янг (республиканец) и Алондра Нельсон, бывшая исполняющая обязанности директора Управления по научно-технической политике Белого дома.

“Снимая фильм об Оппенгеймере, я никогда не думал, что потрачу столько времени на разговоры об искусственном интеллекте”, — сказал Нолан.

фото: Christopher Nolan poses for a portrait in December 2020 in Burbank, Calif. (Emily Berl for The Washington Post)

Источник: https://www.washingtonpost.com/technology/2023/12/30/nolan-interview-ai-threats/

Автор: By Cat Zakrzewski. Cat Zakrzewski is a national technology policy reporter, tracking global efforts to regulate the tech industry. She focuses on AI policy and the battles over free speech online. Twitter