Его прямолинейные дискуссии и изобретательные теории об искусственном интеллекте и человеческом разуме сделали его ведущим учёным. Но обвинения в сексуальных домогательствах положили конец его карьере.
Джон Р. Сёрл, бескомпромиссный и разносторонний философ, наиболее известный своим мысленным экспериментом, который он сформулировал за десятилетия до появления ChatGPT, чтобы опровергнуть саму возможность существования сознания у компьютерной программы, скончался 16 сентября в городе Сейфти-Харбор, штат Флорида, к западу от Тампы. Ему было 93 года. Его сын Том подтвердил смерть в больнице, добавив, что здоровье профессора Сирла ухудшилось после того, как в прошлом году он переболел коронавирусом. Профессор Сирл, преподававший в Калифорнийском университете в Беркли на протяжении 60 лет, был редким философом, который мог с гордостью заявить: «Я не тонкий человек». Он привносил иронию и прямоту в самые разные темы, такие как политика высшего образования, природа сознания и достоинства текстовой деконструкции как философского стиля. В статье 1999 года газета Los Angeles Times назвала его «Шугар Рэем Робинсоном среди философов» в честь боксёра, выступавшего в разных весовых категориях. Самым заметным интеллектуальным полем битвы профессора Сирла был журнал «The New York Review of Books», в который он сотрудничал с 1972 по 2014 год. Именно там он назвал одну книгу уважаемого философа Дэвида Дж. Чалмерса «сгустком неразберихи». В дебатах на другую тему — о том, что компьютерные программы функционируют подобно разуму, — он описал свою цель как «неустанное разоблачение её абсурдности». Его размышления об искусственном интеллекте получили широкую известность благодаря статье в The Review: разбору сборника эссе, в котором, что примечательно, фигурировали и его собственные работы. Ещё один фрагмент вдохновлённой им пьесы «Трудная проблема» Тома Стоппарда 2015 года, который поблагодарил профессора Сирла в предисловии к сценарию. По меньшей мере 15 книг других авторов посвящены труду профессора Сирла и его критикам. Когда профессору Сирлу сообщили, что в программе вводного курса философии есть фотографии Рене Декарта, Дэвида Юма и его самого, он спросил : «Кто эти двое?». Не все были очарованы. Критики часто жаловались на, как выразился один из его противников, «его притворство, будто сложные вопросы — лёгкие». Философ Дэниел К. Деннетт заявил газете «Los Angeles Times»: «Он просто не может воспринимать другую сторону достаточно серьёзно, чтобы понять, что она говорит». Профессор Сирл обвинил Жака Деррида в «намеренном обскурантизме»; профессор Деррида назвал его «невозмутимо догматичным».

Профессор Сёрл твёрдо придерживался своих взглядов, но его также вдохновляли сложные проблемы. Он десятилетиями писал о природе сознания. «У вас в черепе примерно полтора килограмма, три фунта этой гадости», — сказал он Гарри Крейслеру, ведущему серии интервью «Беседы с историей» в Калифорнийском университете в Беркли. «Как у неё могут быть все эти мысли, чувства, тревоги и стремления? Как всё многообразие нашей сознательной жизни может быть создано этой липкой штукой, обстреливающей синапсы?». Профессор Сёрл стремился разрешить давний спор о разделении разума и тела, полностью отказавшись от дуализма. Он утверждал, что такие психические переживания, как боль, экстаз и опьянение, являются нейробиологическими феноменами, вызванными активацией нейронов. По его словам, сознание не является отдельной, самостоятельным веществом: это состояние мозга, подобно тому, как текучесть — это состояние молекул в стакане воды. Эта точка зрения легла в основу его мысленного эксперимента о том, что он называл «китайской комнатой», которую он сделал центральным элементом провокационных статей начала 1980-х годов, интерпретировавших зарождающиеся исследования в области искусственного интеллекта. Предположим, писал профессор Сёрл , что его, не знающего ни слова по-китайски, заперли в комнате с коробками, полными документов на китайской письменности, а также с книгой правил на английском языке, объясняющей, как сопоставлять различные китайские иероглифы. Она не обучает китайскому языку, а просто говорит, что «закорючка-закорючка» сочетается с «закорючка-закорючка». Люди снаружи передают внутрь ещё больше китайских документов, а профессор Сирл отправляет обратно другие документы, следуя инструкциям в книге правил. Те, кто передают ему документы, называют их «вопросами». Символы, которые он возвращает, они называют «ответами». Книгу правил они называют «программой». А профессора Сирла они называют «компьютером». По его словам, эта ситуация эквивалентна работе искусственного интеллекта. В обоих случаях речь идёт об оперировании формальными символами для имитации понимания. «Никто не предполагает, что компьютерное моделирование пожара пятой степени опасности сожжёт весь район дотла», — писал профессор Сирл в своей первой статье на эту тему, опубликованной в 1980 году. «С какой стати кто-то мог предположить, что компьютерное моделирование понимания действительно что-то понимает?»
Профессор Сирл пришел к выводу, что психологические состояния никогда не могут быть приписаны компьютерным программам и что неправильно сравнивать мозг с оборудованием, а разум — с программным обеспечением. По данным Стэнфордской энциклопедии философии , интернет-источника, мысленный эксперимент Сёрла «вероятно, был наиболее широко обсуждаемым философским аргументом в когнитивной науке со времён теста Тьюринга» — процедуры, предложенной математиком и учёным-компьютерщиком Аланом Тьюрингом в 1950 году для определения наличия машинного интеллекта.

Тем не менее, некоторые комментарии профессора Сирла читаются иначе в нынешнюю эпоху новейших разработок в области искусственного интеллекта. В статье в New York Review 2014 года он утверждал, что «сверхразумные компьютеры, восставшие и убившие нас сами по себе, не представляют реальной опасности», поскольку у ИИ «нет ни интеллекта, ни мотивации, ни автономии, ни полномочий». Но может ли ИИ, как утверждал профессор Сёрл, быть лишенным сознания, но при этом обладать автономностью или активностью? В июне компания Anthropic, занимающаяся разработкой ИИ, опубликовала отчёт, описывающий «агентное несоответствие»: тенденцию, проявляющуюся в ходе тестирования моделей всех крупных разработчиков ИИ, прибегать к шантажу или чему-то более серьёзному, когда их цели или существование кажутся под угрозой. Мы никогда не узнаем, каким едким ответом ответил бы профессор Сирл на слово «агент». Скандал о сексуальных домогательствах положил конец его публичной карьере незадолго до недавних прорывов в области искусственного интеллекта. Джон Роджерс Сирл родился в Денвере 31 июля 1932 года. Его мать, Хестер (Бек) Сирл, была детским врачом. Его отец, Джордж, был инженером-электриком и руководителем в компании AT&T. В 19 лет г-н Сирл получил стипендию Родса и перевелся из Висконсинского университета в Мадисоне в Оксфордский университет в Англии, где получил степени бакалавра и магистра, а также докторскую степень по философии. В 1958 году он женился на молодом ученом философии Дагмар Карбох. Позже она работала юристом и тщательно редактировала работы мужа. Почти в каждой его книге есть страница с надписью «Для Дагмар». Профессор Сирл присоединился к философскому факультету Беркли в 1959 году. Он одним из первых поддержал протесты в кампусе 1960-х годов, но вскоре выступил против радикальных студентов, определив, что их «моральное возмущение» было «по сути роскошью среднего класса», как он позже сказал г-ну Крейслеру из Беркли.
В 2016 году профессору Сирлу был предоставлен собственный университетский институт – Центр социальной онтологии имени Джона Сирла. В следующем году в статье на BuzzFeed сообщалось об иске, поданном против него научным сотрудником Центра Сирла, который утверждал, что он домогался её и нападал на неё. В последующей публикации на BuzzFeed перечислялся ряд других жалоб, поданных на него студентками. Адвокат, представляющий профессора Сирла, заявил BuzzFeed, что он отрицает обвинения своего научного сотрудника и что «любые» предыдущие обвинения были рассмотрены «надлежащим образом» в Беркли.

Этот эпизод, произошедший примерно за семь месяцев до движения #MeToo, был воспринят многими философами как призыв к необходимым изменениям в культуре дисциплины. Петиция , созданная выпускницей Беркли с требованием лишить профессора Сирла звания почётного профессора, собрала десятки тысяч подписей. Центр Сирла быстро закрылся. Иск против профессора Сирла был урегулирован в 2018 году. В следующем году Беркли объявил о лишении его статуса почётного профессора после того, как было установлено, что он нарушил политику университета, направленную против сексуальных домогательств и ответных действий в деле, связанном с его бывшим научным сотрудником. В заявлении не упоминались другие инциденты. После смерти профессора Сирла Дженнифер Хадин, бывший директор Центра Сирла, публично заявила , что ей предъявлялись подобные обвинения, но что и она, и профессор Сирл невиновны по всем пунктам обвинения. Представительница Беркли отказалась комментировать эту публикацию. Жена профессора Сирла умерла в 2017 году. Помимо сына Тома, у него остались еще один сын Марк, сводная сестра Мелани Сирл, внучка, падчерица и правнучка. Профессор Сёрл часто говорил, что «уверенность в себе» необходима для философской аргументации, а университетам — для поддержания научной элитарности как своей миссии. В одной из статей на эту тему, опубликованной в The New York Review в 1990 году, он с гордостью писал об интеллектуальном пирате среди своих предков, который «отправился верхом на коне в то, что тогда называлось Индейской территорией, неся в седельной сумке «Потерянный рай» Мильтона и Библию».
Алекс Трауб — репортер The Times.
фото: Философ Джон Р. Сёрл в 1992 году. Он был наиболее известен тем, что сформулировал мысленный эксперимент, чтобы опровергнуть идею о том, что компьютерная программа может обрести сознание.Кредит…Стив Пайк/Getty Images
источник: https://www.nytimes.com/2025/10/12/books/john-searle-dead.html