От «интеллектуальных» пылесосов и беспилотных автомобилей до передовых методов диагностики заболеваний искусственный интеллект проник во все сферы современной жизни.
Его сторонники считают, что это революционизирует человеческий опыт, но критики подчеркивают, что технология рискует возложить ответственность за принятие решений, изменяющих жизнь, на машины. Регулирующие органы в Европе и Северной Америке обеспокоены. Европейский союз, вероятно, примет законодательство в следующем году — Закон об искусственном интеллекте, направленный на ограничение возраста алгоритма.
Соединенные Штаты недавно опубликовали проект Билля о правах в области искусственного интеллекта, и Канада также обдумывает законодательство. Особое внимание в дебатах было уделено использованию Китаем биометрических данных, распознавания лиц и других технологий для создания мощной системы контроля.
Грай Хассельбалх, датский ученый, консультирующий ЕС по спорной технологии, утверждал, что Западу также угрожает создание «тоталитарных инфраструктур». «Я рассматриваю это как огромную угрозу, независимо от преимуществ», — сказала она агентству AFP.
Но прежде чем регулирующие органы смогут действовать, они столкнутся с непростой задачей определения того, что такое искусственный интеллект на самом деле.
«Игра в кружку»
Суреш Венкатасубраманян из Университета Брауна, который является соавтором Билля о правах в области искусственного интеллекта, сказал, что попытки определить искусственный интеллект — это «дурацкая игра». Любая технология, которая затрагивает права людей, должна подпадать под действие законопроекта, написал он в своем Твиттере.
ЕС, состоящий из 27 стран, идет по более извилистому пути, пытаясь определить обширное поле. В его законопроекте перечислены виды подходов, определяемых как искусственный интеллект, и он включает в себя практически любую компьютерную систему, которая включает автоматизацию.
Проблема проистекает из меняющегося использования термина «искусственный интеллект». На протяжении десятилетий в нем описывались попытки создать машины, имитирующие человеческое мышление. Но финансирование этого исследования, известного как символический ИИ, в значительной степени иссякло в начале 2000—х годов. С появлением титанов Кремниевой долины искусственный интеллект возродился как универсальный ярлык для их программ, сокращающих число, и созданных ими алгоритмов.
Эта автоматизация позволила им ориентировать пользователей на рекламу и контент, помогая им зарабатывать сотни миллиардов долларов. «Искусственный интеллект был для них способом более эффективно использовать эти данные наблюдения и мистифицировать происходящее», — сказала AFP Мередит Уиттакер, бывшая сотрудница Google, которая стала соучредителем института AI Now при Нью-Йоркском университете.
Таким образом, и ЕС, и США пришли к выводу, что любое определение искусственного интеллекта должно быть как можно более широким.
«Слишком сложный»
Но с этого момента две западные державы в значительной степени пошли разными путями. Проект Закона ЕС об искусственном интеллекте занимает более 100 страниц. Среди его наиболее привлекательных предложений — полный запрет определенных технологий «высокого риска» — типа инструментов биометрического наблюдения, используемых в Китае. Это также резко ограничивает использование инструментов искусственного интеллекта должностными лицами миграционной службы, полицией и судьями.
Хассельбах сказал, что некоторые технологии «просто слишком бросают вызов основным правам».
Билль о правах в области искусственного интеллекта, с другой стороны, представляет собой краткий набор принципов, сформулированных вдохновляющим языком, с увещеваниями вроде «вы должны быть защищены от небезопасных или неэффективных систем».
Законопроект был издан Белым домом и опирается на действующее законодательство. Эксперты считают, что в Соединенных Штатах, скорее всего, не будет специального законодательства об искусственном интеллекте самое раннее до 2024 года, поскольку Конгресс зашел в тупик.
«Телесная рана». Мнения о достоинствах каждого подхода расходятся. «Мы отчаянно нуждаемся в регулировании», — заявил агентству AFP Гэри Маркус из Нью-Йоркского университета. Он указывает, что «большие языковые модели» — искусственный интеллект, стоящий за чат—ботами, инструментами перевода, программным обеспечением для прогнозирования текста и многим другим — могут использоваться для генерации вредоносной дезинформации.
Уиттакер поставил под сомнение ценность законов, направленных на борьбу с искусственным интеллектом, а не «бизнес-моделей наблюдения», которые лежат в его основе. «Если вы не обращаетесь к этому на фундаментальном уровне, я думаю, вы накладываете пластырь на рану на теле», — сказала она. Но другие эксперты в целом приветствовали подход США.
Искусственный интеллект был лучшей мишенью для регулирующих органов, чем более абстрактная концепция конфиденциальности, сказал Шон Макгрегор, исследователь, который ведет хронику технических сбоев для базы данных инцидентов с искусственным интеллектом. Но он сказал, что может возникнуть риск чрезмерного регулирования. «Существующие органы власти могут регулировать искусственный интеллект», — сказал он агентству AFP, указав на Федеральную торговую комиссию США и жилищный регулятор HUD. Но в чем эксперты в целом согласны, так это в необходимости устранить шумиху и мистицизм, которые окружают технологию искусственного интеллекта.
«Это не волшебство», — сказал Макгрегор, сравнив искусственный интеллект с очень сложной электронной таблицей Excel.