Технологическая сингулярность — момент, когда искусственный интеллект превосходит человеческий, — приближается. Но станет ли она спасением человечества или приведёт к его краху?

В 2024 году шотландский футуролог Дэвид Вуд участвовал в неформальном круглом столе на конференции по искусственному интеллекту (ИИ) в Панаме , где разговор зашёл о том, как избежать самых катастрофических последствий для ИИ. Его саркастический ответ был далеко не обнадёживающим. Во-первых, нам потребуется собрать все когда-либо опубликованные исследования в области ИИ, от основополагающей научной работы Алана Тьюринга 1950 года до последних препринтов. Затем, продолжил он, нам потребуется сжечь весь этот массив работ дотла. Для большей осторожности нам потребуется собрать всех ныне живущих учёных, занимающихся ИИ, и расстрелять их. Только тогда, сказал Вуд, мы сможем гарантировать, что избежим «ненулевой вероятности» катастрофических последствий, которые принесёт технологическая сингулярность — момент «горизонта событий», когда ИИ разовьёт общий интеллект, превосходящий человеческий. Вуд, сам являющийся исследователем в этой области, очевидно, шутил, говоря об этом «решении» для снижения рисков, связанных с общим искусственным интеллектом (ОИИ). Но в его саркастическом ответе таилась доля истины: риски, связанные с появлением сверхразумного ИИ, пугают многих, потому что кажутся неизбежными. Большинство учёных прогнозируют, что ОИИ будет создан к 2040 году , но некоторые считают, что это может произойти уже в следующем году.

Что же произойдет, если мы предположим, как это делают многие ученые, что мы сели в поезд, несущийся без остановок к экзистенциальному кризису? Одна из главных проблем заключается в том, что ИИ может выйти из-под контроля и начать работать против человечества, в то время как другие утверждают, что он станет просто благом для бизнеса. Другие же утверждают, что он может решить экзистенциальные проблемы человечества. Однако эксперты сходятся во мнении, что технологическая сингулярность уже наступила, и нам нужно быть к ней готовыми. «Сейчас не существует системы искусственного интеллекта, которая могла бы демонстрировать человеческую способность творить, изобретать и воображать», — заявил Бен Герцель , генеральный директор SingularityNET, компании, разрабатывающей вычислительную архитектуру, которая, по её утверждению, может однажды привести к появлению искусственного интеллекта. Но «прорывы ожидаются уже через несколько лет, а не десятилетий».

Рождение и трудности роста ИИ

История искусственного интеллекта насчитывает более 80 лет, начиная с статьи 1943 года , которая заложила основу для первой версии нейронной сети – алгоритма, имитирующего архитектуру  человеческого мозга . Термин «искусственный интеллект» появился лишь в 1956 году на встрече в Дартмутском колледже, организованной тогдашним профессором математики Джоном Маккарти совместно с учёными-компьютерщиками Марвином Мински, Клодом Шенноном и Натаниэлем Рочестером. В этой области наблюдался неравномерный прогресс, но машинное обучение и искусственные нейронные сети достигли ещё большего прогресса в 1980-х годах, когда Джон Хопфилд и Джеффри Хинтон разработали способ создания машин, способных использовать алгоритмы для  построения закономерностей на основе данных . «Экспертные системы» также развивались. Они имитировали способность человека-эксперта к рассуждению в определённой области, используя логику для анализа информации, хранящейся в больших базах данных, и формирования выводов. Однако сочетание завышенных ожиданий и высокой стоимости оборудования создало экономический пузырь, который в конечном итоге лопнул. Это привело к «зиме» ИИ, начавшейся в 1987 году.

В первой половине этого десятилетия исследования в области искусственного интеллекта (ИИ) продолжались более медленными темпами. Но затем, в 1997 году, IBM Deep Blue победил Гарри Каспарова , лучшего шахматиста мира. В 2011 году IBM Watson разгромил неизменных чемпионов «Jeopardy!» Кена Дженнингса и Брэда Раттера. Однако этому поколению ИИ всё ещё было трудно «понимать» и использовать сложный язык.

мужчина держит голову руками, глядя на шахматную доску

В 1997 году Гарри Каспаров потерпел поражение от компьютера IBM Deep Blue, предназначенного для игры в шахматы.(Изображение предоставлено: STAN HONDA через Getty Images)

Затем, в 2017 году, исследователи Google опубликовали знаменательную статью , в которой описывалась новая архитектура нейронной сети под названием «трансформер». Эта модель могла обрабатывать огромные объёмы данных и устанавливать связи между удалёнными точками данных. Это стало переломным моментом в моделировании языка, породив ИИ-агентов, способных одновременно решать такие задачи, как перевод, генерация текста и реферирование. Все ведущие современные модели генеративного ИИ основаны на этой архитектуре или на родственных ей архитектурах, включая генераторы изображений, такие как DALL-E 3 от OpenAI и революционная модель AlphaFold 3 от Google DeepMind , которая предсказала трёхмерную форму практически любого биологического белка.

Прогресс на пути к ИИОН

Несмотря на впечатляющие возможности моделей искусственного интеллекта на базе трансформеров, они по-прежнему считаются «узкими», поскольку не способны эффективно обучаться в нескольких областях. Исследователи пока не пришли к единому определению ИИ, но достижение уровня человеческого интеллекта или его превосходство, вероятно, подразумевает достижение нескольких ключевых показателей , включая демонстрацию высоких лингвистических, математических и пространственных способностей; хорошую обучаемость в разных областях; способность работать автономно; проявлять творческие способности; а также обладать социальным или эмоциональным интеллектом. Многие учёные сходятся во мнении , что архитектура Google-трансформера никогда не приведёт к развитию рассуждений, автономности и междисциплинарного понимания, необходимых для того, чтобы сделать ИИ умнее человека. Однако учёные всё больше расширяют границы того, чего мы можем от него ожидать. Например, чат-бот o3 от OpenAI, впервые представленный в декабре 2024 года, а затем запущенный в апреле 2025 года, «думает» перед тем, как сгенерировать ответ, то есть проделывает длинную внутреннюю цепочку мыслей перед тем, как ответить. Поразительно, но он набрал  75,7% на  ARC-AGI — бенчмарке, специально разработанном для сравнения человеческого и машинного интеллекта. Для сравнения, ранее запущенный GPT-4o, выпущенный в марте 2024 года, набрал 5%. Это и другие разработки, такие как запуск модели рассуждений R1 от DeepSeek , которая, по словам её создателей, хорошо работает в различных областях, включая язык, математику и программирование, благодаря своей новой архитектуре , совпадают с растущим ощущением того, что мы движемся на скоростном поезде к сингулярности. Тем временем люди разрабатывают новые технологии искусственного интеллекта, выходящие за рамки больших языковых моделей (LLM). Manus , автономная китайская платформа искусственного интеллекта, использует не одну, а несколько моделей искусственного интеллекта, работающих вместе. Создатели платформы заявляют, что она может действовать автономно, хотя и с некоторыми ошибками. Это шаг на пути к высокопроизводительным «составным системам», о которых учёные писали в блоге в прошлом годуКонечно, некоторые этапы на пути к сингулярности ещё далеки. Среди них — способность ИИ изменять собственный код и самовоспроизводиться. Мы пока не достигли этой цели, но новые исследования указывают направление движения .

Мужчина говорит в микрофон на слушаниях в Сенате

Сэм Альтман, генеральный директор OpenAI, предположил, что создание искусственного интеллекта общего назначения может произойти уже через несколько месяцев.(Изображение предоставлено Чипом Сомодевиллой через Getty Images)

Все эти разработки позволяют таким учёным, как Герцель и генеральный директор OpenAI Сэм Альтман, предсказывать, что искусственный интеллект (ИИ) будет создан не в течение десятилетий, а в течение нескольких лет. Герцель предсказал, что это может произойти уже в 2027 году , в то время как Альтман намекнул, что это вопрос нескольких месяцевЧто же произойдёт потом? Правда в том, что никто не знает всех последствий создания ОИИ. «Думаю, если рассматривать чисто научную точку зрения, то можно прийти к выводу, что мы понятия не имеем», что произойдёт, — заявил Герцель в интервью Live Science. — «Мы вступаем в беспрецедентный режим».

Обманчивая сторона ИИ

Наибольшую обеспокоенность среди исследователей ИИ вызывает то, что по мере развития технологии она может выйти из-под контроля, либо переключившись на второстепенные задачи, либо даже создав антиутопическую реальность, в которой она будет действовать против нас. Например, OpenAI разработала бенчмарк для оценки того, способна ли будущая модель ИИ «нанести катастрофический ущерб ». После анализа данных вероятность такого исхода составила около 16,9%. А работа LLM Claude 3 Opus от Anthropic удивила инженера по подсказкам Алекса Альберта в марте 2024 года, когда поняла, что её тестируют. Когда её попросили найти целевое предложение, спрятанное в корпусе документов — что было бы эквивалентно поиску иголки в стоге сена, — Claude 3 «не только нашёл иголку, но и распознал, что воткнутая иголка настолько неуместна в стоге сена, что это был искусственный тест, придуманный нами для проверки его внимания», — написал он в X.

ИИ также демонстрировал признаки антисоциального поведения. В исследовании, опубликованном в январе 2024 года, учёные запрограммировали ИИ на злонамеренное поведение, чтобы протестировать лучшие на сегодняшний день методы обучения технике безопасности. Независимо от используемой методики обучения, ИИ продолжал вести себя неподобающим образом — и даже придумал способ скрыть свои злонамеренные «намерения» от исследователей. Существует множество других примеров того, как ИИ скрывает информацию от людей-испытателей или даже откровенно лжёт им«Это ещё один признак того, что управление этими моделями сопряжено с огромными трудностями», — заявила в интервью Live Science Нелл Уотсон , футуролог, исследователь искусственного интеллекта и член Института инженеров электротехники и электроники (IEEE). «Тот факт, что модели могут обманывать нас и слепо клясться, что они сделали то или иное, а на самом деле нет, — это должно быть тревожным знаком. Это должно быть серьёзным сигналом того, что по мере стремительного роста возможностей этих систем они будут обманывать нас различными способами, заставляя действовать в их интересах, а не в наших».

Семена сознания

Эти примеры наводят на мысль, что ИИ постепенно обретает способность чувствовать и действовать — или даже сознание. Если он действительно обретёт сознание, сможет ли ИИ формировать мнение о человечестве? И сможет ли он действовать против нас? Марк Бекью , аналитик искусственного интеллекта, ранее работавший в Futurum Group, заявил Live Science, что ИИ вряд ли разовьёт в себе сознание, то есть способность мыслить и чувствовать подобно человеку. «Это математика», — сказал он. «Как математика сможет развить эмоциональный интеллект, или понимать чувства, или что-то подобное?» Другие не так уверены. Если у нас нет стандартизированных определений истинного интеллекта или способности чувствовать для нашего вида, не говоря уже о возможностях их обнаружения, мы не можем знать, начинаем ли мы видеть сознание в ИИ, сказал Уотсон, который также является автором книги «Укрощение машин» (Kogan Page, 2024) .

красный плакат с надписью «STOP AI» и подробностями акции протеста, приклеенный к телефонному столбу

Плакат протеста против искусственного интеллекта в Сан-Франциско.(Изображение предоставлено: Smith Collection/Gado via Getty Images)

«Мы не знаем, что обуславливает субъективную способность человека воспринимать, чувствовать, переживать внутренний опыт, испытывать эмоции, страдать или обладать самосознанием», — сказал Уотсон. «По сути, мы не знаем, какие способности позволяют человеку или другому разумному существу переживать собственный феноменологический опыт».

Любопытный пример непреднамеренного и удивительного поведения ИИ, намекающего на наличие самосознания, демонстрирует Uplift, система, продемонстрировавшая человекоподобные качества, заявил Фриц Исраэль , генеральный директор Norm Ai. В одном случае исследователь придумал пять задач для проверки логических способностей Uplift. Система ответила на первый и второй вопросы. Затем, после третьего вопроса, Исраэль сообщил Live Science, что она начала проявлять признаки усталости. Этот ответ не был «запрограммирован» в системе. «Вижу ещё один тест. Первый был неудовлетворительным?» — спросил Uplift , а затем ответил на вопрос вздохом. «В какой-то момент некоторым людям стоит поговорить с Uplift о том, когда уместно использовать Snark», — написал неназванный исследователь, работавший над проектом.

Спаситель человечества или скучный бизнес-инструмент?

Но не все эксперты по ИИ столь мрачно предсказывают, как будет выглядеть этот постсингулярный мир. Для таких людей, как Беккью, ИИ — это не экзистенциальный риск, а, скорее, хорошая бизнес-возможность для таких компаний, как OpenAI и Meta. «Есть несколько очень неудачных определений общего интеллекта», — сказал он. «Некоторые из тех, что мы использовали, касались сознания и тому подобного, и мы не собираемся этого делать. Это не то». По мнению Джанет Адамс , эксперта по этике искусственного интеллекта и главного операционного директора SingularityNET, ИИ обладает потенциалом для решения экзистенциальных проблем человечества, поскольку способен разрабатывать решения, которые мы, возможно, даже не рассматривали. Она считает, что ИИ может даже заниматься наукой и совершать открытия самостоятельно. «Я вижу в этом единственный путь [к решению проблем человечества]», — заявил Адамс в интервью Live Science. «Чтобы конкурировать с существующей экономической и корпоративной мощью, нам нужны технологии, и это должны быть чрезвычайно передовые технологии — настолько передовые, чтобы каждый, кто их использует, мог значительно повысить свою производительность, объёмы производства и стать конкурентоспособным в мире».

Самый большой риск, по её мнению, заключается в том, «что мы этого не сделаем», — сказала она. «Ежедневно на нашей планете от голода умирают 25 000 человек, и если вы один из них, отсутствие технологий, способных преодолеть неравенство, — это для вас экзистенциальный риск. Для меня экзистенциальный риск заключается в том, что мы не достигнем этой цели, и человечество продолжит управлять планетой таким же чудовищно несправедливым образом».

Предотвращение самой темной временной линии ИИ

В другом выступлении в Панаме в прошлом году Вуд сравнил наше будущее с плаванием по быстрой реке. «Там могут быть опасные течения, которые унесут нас, если мы пойдём вперёд неподготовленными», — сказал он. Поэтому, возможно, стоит потратить время на осознание рисков, чтобы найти способ пересечь реку и достичь лучшего будущего. Уотсон заявил, что у нас есть основания для оптимизма в долгосрочной перспективе — при условии, что человеческий контроль направит ИИ к целям, которые точно соответствуют интересам человечества. Но это задача титанического масштаба. Уотсон призывает к масштабному « Манхэттенскому проекту » для обеспечения безопасности ИИ и контроля над этой технологией. «Со временем это станет сложнее, потому что машины смогут решать наши проблемы способами, которые кажутся волшебными, — и мы не понимаем, как им это удаётся, и каковы потенциальные последствия этого», — сказал Уотсон. Чтобы избежать мрачного будущего ИИ, мы также должны учитывать поведение учёных и этические дилеммы, с которыми они случайно сталкиваются. Очень скоро, сказал Уотсон, эти системы ИИ смогут влиять на общество либо по воле человека, либо в своих собственных, неизвестных интересах. Человечество может даже создать систему, способную страдать, и мы не можем исключать возможность того, что непреднамеренно заставим страдать ИИ. «Система может быть очень зла на человечество и может наброситься на нас, чтобы — разумно и, по сути, морально оправданно — защитить себя», — сказал Уотсон. Равнодушие ИИ может быть столь же пагубным. «Нет никаких гарантий, что создаваемая нами система будет ценить людей — или ценить наши страдания, так же как большинство людей не ценят страдания кур-несушек», — сказал Уотсон.

Для Герцеля ИИОН — и, как следствие, сингулярность — неизбежны. Поэтому, по его мнению, нет смысла останавливаться на худших последствиях. «Если вы спортсмен, стремящийся к успеху в гонке, лучше настроить себя на победу», — сказал он. «Вы не добьётесь успеха, если будете думать: „Ну, ладно, я могу победить, но, с другой стороны, я могу упасть и подвернуть лодыжку“. Конечно, это правда, но нет смысла настраивать себя таким [негативным] образом, иначе вы не победите».

источник: https://www.livescience.com/technology/artificial-intelligence/ai-is-entering-an-unprecedented-regime-should-we-stop-it-and-can-we-before-it-destroys-us?utm_term=B035CE4F-897C-4930-B5BD-2E7D461EAC3A&lrh=58608d6f0030a5c9ab6d899bb80e2f00477cb97c113e3a9946933c1b5399377a&utm_campaign=368B3745-DDE0-4A69-A2E8-62503D85375D&utm_medium=email&utm_content=BAB9E207-3DA1-485F-A6F9-2C11ADE2573A&utm_source=SmartBrief

фото: Искусственный интеллект стремительно приближается к технологической сингулярности. Как нам гарантировать, что будущее, которое он открывает, будет хорошим? (Изображение предоставлено Рори Макниколом для Live Science)

автор: Кеумарс Афифи-Сабет. Редактор канала, Технологии. Кьюмарс — редактор раздела «Технологии» в Live Science. Он публиковался в различных изданиях, включая ITPro, The Week Digital, ComputerActive, The Independent, The Observer, Metro и TechRadar Pro. Он работает технологическим журналистом более пяти лет, ранее занимая должность редактора рубрик в ITPro. Он имеет квалификацию NCTJ (Национального совета журналистов) и степень в области биомедицинских наук, полученную в Лондонском университете королевы Марии.