Три влиятельных лидера в области искусственного интеллекта выступили с показаниями на слушаниях в Конгрессе во вторник, предупредив, что бешеные темпы развития ИИ могут привести к серьезным последствиям в течение следующих нескольких лет, таким как государства-изгои или террористы, использующие технологию для создания биологического оружия.
Йошуа Бенгио, профессор искусственного интеллекта в Монреальском университете, известный как один из отцов современной науки об искусственном интеллекте, заявил, что Соединенные Штаты должны добиваться международного сотрудничества для контроля за развитием искусственного интеллекта, установив режим, аналогичный международным правилам в отношении ядерных технологий. Дарио Амодей, исполнительный директор ИИ-стартапа Anthropic, сказал, что он опасается, что ультрасовременный ИИ может быть использован для создания опасных вирусов и другого биологического оружия всего за два года. А Стюарт Рассел, профессор компьютерных наук Калифорнийского университета в Беркли, сказал, что принцип работы искусственного интеллекта означает, что его сложнее полностью понять и контролировать, чем другие мощные технологии.
“Недавно я и многие другие были удивлены гигантским скачком, осуществленным такими системами, как ChatGPT”, — сказал Бенгио во время слушаний в Юридическом комитете Сената. “Более короткие сроки вызывают большее беспокойство”.
Слушания продемонстрировали, как опасения по поводу того, что искусственный интеллект превосходит человеческий интеллект и выходит из-под контроля, быстро перешли из области научной фантастики в мейнстрим. В течение многих лет футурологи теоретизировали, что однажды искусственный интеллект может стать умнее людей и преследовать свои собственные цели, что потенциально может привести к нанесению вреда человечеству.
Но за последние шесть месяцев горстка выдающихся исследователей ИИ, включая Бенгио, увеличили свои временные рамки, когда, по их мнению, “сверхумный” ИИ может стать возможным, с десятилетий до потенциально всего нескольких лет. Эти опасения сейчас звучат по всей Силиконовой долине, в средствах массовой информации и в Вашингтоне, и политики ссылаются на эти угрозы как на одну из причин, по которой правительствам необходимо принять законодательство.
Сенатор Ричард Блюменталь (D-Conn.), председатель подкомитета, проводившего слушания, сказал, что человечество показало себя способным изобретать невероятные новые технологии, о которых люди никогда не думали, что это возможно в то время. Он сравнил искусственный интеллект с Манхэттенским проектом по созданию ядерного оружия или усилиями НАСА по отправке человека на Луну.
“Нам удалось сделать то, что люди считали немыслимым”, — сказал он. “Мы знаем, как делать большие дела”.
Не все исследователи согласны с агрессивными сроками создания сверхмощного искусственного интеллекта, изложенными на слушаниях во вторник, и скептики отметили, что раскручивание потенциала технологии искусственного интеллекта может помочь компаниям продавать ее. Другие видные лидеры в области искусственного интеллекта заявили, что те, кто говорит об экзистенциальных страхах, таких как поглощение ИИ, преувеличивают возможности технологии и без необходимости сеют страх.
На слушаниях сенаторы также подняли вопрос о потенциальных антимонопольных проблемах.
Сенатор Джош Хоули (республиканец от штата Миссури) сказал, что одним из рисков является то, что крупные технологические компании, такие как Microsoft и Google, развивают монополию на AItech. Хоули в течение нескольких лет был ярым критиком крупных технологических компаний и использовал слушания, чтобы доказать, что компании, стоящие за технологией, сами по себе представляют риск.
“Я уверен, что это пойдет на пользу компаниям, я в этом не сомневаюсь”, — сказал Хоули. “В чем я менее уверен, так это в том, что с людьми все будет в порядке”.
На протяжении 1990-х и 2000-х годов Бенгио внес большой вклад в науку, которая формирует основу для технологий, делающих возможными чат-боты, такие как OpenAI ChatGPT и Google Bard. Ранее в этом году он присоединился к своему коллеге-пионеру искусственного интеллекта Джеффри Хинтону, заявив, что его все больше беспокоит потенциальное влияние технологии, которую они помогли создать.
В марте он был самым выдающимся исследователем искусственного интеллекта, подписавшим письмо с просьбой к технологическим компаниям приостановить разработку новых моделей искусственного интеллекта на шесть месяцев, чтобы отрасль могла согласовать набор стандартов, которые не позволят технологии выйти из-под контроля человека. Рассел, который также открыто высказывался о влиянии искусственного интеллекта на общество и был соавтором популярного учебника по искусственному интеллекту для университетских классов, также подписал письмо.
Блюменталь оформил слушание как сессию для выработки идей о том, как регулировать искусственный интеллект, и все трое лидеров высказали свои предложения. Бенгио призвал к международному сотрудничеству и созданию лабораторий по всему миру, которые исследовали бы способы направить искусственный интеллект на помощь людям, а не на то, чтобы он выходил из-под нашего контроля.
Рассел сказал, что потребуется новое регулирующее агентство, специально ориентированное на искусственный интеллект. Он прогнозирует, что технология в конечном итоге перестроит экономику и внесет значительный вклад в рост ВВП, и поэтому, по его словам, потребуется надежный и целенаправленный надзор. Амодей, со своей стороны, сказал, что он “не зависит” от того, будет ли создано новое агентство или для надзора за ИИ будут использоваться существующие регулирующие органы, такие как FTC, но сказал, что для компаний, занимающихся ИИ, должны быть созданы стандартные тесты, чтобы они могли протестировать свои технологии, чтобы попытаться выявить потенциальный вред.
“Прежде чем мы определим и запустим процесс для этого, мы, с точки зрения регулирования, стреляем в темноте”, — сказал он. “Если у нас не будет на месте вещей, которые сдерживают системы искусственного интеллекта, нам придется нелегко”.
В отличие от Бенгио и Рассела, Амодей фактически руководит работающей компанией по искусственному интеллекту, которая продвигает технологию вперед. В его стартапе работают бывшие исследователи Google и Open AI, и компания попыталась позиционировать себя как более вдумчивую и осторожную альтернативу крупным технологиям. В то же время компания привлекла около 300 миллионов долларов инвестиций от Google и полагается на центры обработки данных компании для запуска своих моделей искусственного интеллекта.
Он также призвал увеличить федеральное финансирование исследований в области искусственного интеллекта, чтобы узнать, как снизить ряд рисков, связанных с искусственным интеллектом. Модель предсказала, что злоумышленники могут использовать искусственный интеллект для разработки биологического оружия в течение следующих двух-трех лет, минуя жесткий промышленный контроль, призванный помешать людям разрабатывать такое оружие.
“Я беспокоюсь о нашей способности сделать это вовремя, но мы должны попытаться”, — сказал он.
Источник: https://www.washingtonpost.com/technology/2023/07/25/ai-bengio-anthropic-senate-hearing/