Технологические гиганты, включая Google и Facebook parent Meta, за последние несколько лет значительно увеличили благотворительную помощь университетским городкам, что дало им влияние на ученых, изучающих такие важные темы, как искусственный интеллект, социальные сети и дезинформация.
Согласно новому исследованию проекта Tech Transparency Project, некоммерческой наблюдательной группы, изучающей технологическую индустрию, один только генеральный директор Meta Марк Цукерберг пожертвовал деньги более чем 100 университетским городкам, либо через Meta, либо через свою личную благотворительную организацию. Другие фирмы помогают финансировать академические центры, раздавая гранты профессорам и заседая в консультативных советах, зарезервированных для доноров, сообщили исследователи The Post.
Влияние Кремниевой долины наиболее заметно среди профессоров компьютерных наук в таких престижных учебных заведениях, как Беркли, Университет Торонто, Стэнфорд и Массачусетский технологический институт. Согласно статье, опубликованной в 2021 году исследователями из Университета Торонто и Гарварда, большинство профессоров компьютерных наук в тех школах, источники финансирования которых удалось определить, получали деньги от индустрии технологий, включая почти 6 из 10 ученых в области искусственного интеллекта.
Исследование показало, что доля еще больше возросла в некоторых спорных предметах. Из 33 профессоров, чье финансирование можно было отследить, которые писали об этике искусственного интеллекта, например, для ведущих журналов Nature и Science, все, кроме одного, получали гранты от технологических гигантов или работали их сотрудниками или подрядчиками.
Ученые говорят, что они все больше зависят от технологических компаний в получении доступа к большим объемам данных, необходимых для изучения социального поведения, включая распространение дезинформации и разжигания ненависти. И Meta, и X, ранее Twitter, сократили поток этих данных исследователям, требуя от них платить гораздо больше или заключать специальные сделки для получения доступа.
Эта динамика смены власти оказалась в центре внимания в понедельник после новостей о том, что известный исследователь дезинформации Джоан Донован подала жалобы государственным и федеральным чиновникам на Гарвардский университет. Донован утверждает, что личные связи руководителей Meta — наряду с гигантским грантом в 500 миллионов долларов на исследования искусственного интеллекта — стояли за ее увольнением в этом году из Гарвардской школы Кеннеди. Гарвард отрицает, что на него оказали ненадлежащее влияние.
“За последнее десятилетие Big Tech действительно успешно играла в эту игру”, — сказал Лоуренс Лессиг, профессор юридической школы Гарварда, который ранее основал Стэнфордский центр интернета и общества, не привлекая денег за пределами университета. “Количество ученых, которым платил только Facebook, невероятно”.
/Отстраненный от должности специалист по пропаганде Джон Донован обвиняет Гарвард в преклонении перед Meta
Большинство ученых, специализирующихся на технологиях, говорят, что компании не влияют на их работу, а в журналах, публикующих их исследования, действуют этические правила, призванные предотвратить вопиющее вмешательство. Но в интервью два десятка профессоров заявили, что, контролируя финансирование и доступ к данным, технологические компании обладают “мягкой силой”, замедляя исследования, разжигая напряженность между учеными и их институтами и смещая цели в областях небольшими, но потенциально преобразующими способами.
“Это тонко. Это просто напрашивается само собой”, — сказал профессор университета Макгилла Тейлор Оуэн.
Оуэн столкнулся с корпоративной властью, когда канадский глава Meta по публичной политике Кевин Чан вошел в консультативный совет школы публичной политики Макгилла. Чан пожаловался на то, что школа публиковала исследования Оуэна, которые критиковали компанию, и предположил, что Meta могла бы финансировать интенсивные занятия, предлагаемые для обучения журналистов. После того, как Оуэн возразил, школа отклонила это предложение. Чан не ответил на запрос о комментариях.
В то время как Meta не оспаривала учет грантов проекта Transparency Project, пресс-секретарь Дэвид Арнольд сказал, что подарки академическим учреждениям предназначены для “лучшего понимания влияния наших платформ” и что “антитехнологические организации”, поддерживающие проект Transparency Project, также финансируют академические исследования.
“Мы, конечно, хотим, чтобы это исследование было строгим и непредвзятым”, — сказал Арнольд. “С нашей стороны было бы неправильно не поддерживать внешние академические исследования, и, на самом деле, призывы к нам делать больше этого только растут”.
Многие ученые говорят, что бурное развитие искусственного интеллекта ускоряет связи между промышленностью и университетами — нормализует систему, при которой некоторые звезды академических кругов получают зарплату от таких компаний, как Meta и Google, продолжая преподавать в кампусах.
“Они платят за исследования тех самых людей, которые в состоянии их критиковать”, — говорит Хани Фарид, профессор компьютерных наук Калифорнийского университета в Беркли и Школы информатики. “Это то, что нефтегазовая промышленность сделала с изменением климата, и это то, что табачные компании сделали с исследованиями сигарет”.
/Исследования в области дезинформации терпят неудачу из-за юридических атак Республиканской партии
Фарид, который говорит, что брал деньги у большинства крупных компаний, получил 2 миллиона долларов от Meda в 2019 году для изучения глубоких замираний и целостности новостных сообщений в Facebook. Но на следующий год, после того, как он раскритиковал Meta в интервью СМИ, он говорит, что сотрудник компании сказал ему, что гигант социальных сетей был расстроен. Хотя Фарид не думает, что разговор должен был быть угрожающим, это было нежелательное напоминание о том, кто оплачивает счета.
Он отказался от оставшейся части средств, сославшись на “несоответствие между исследованиями и политическими решениями”.
Фарид сказал, что “крайне маловероятно”, что он снова станет партнером организации. Meta заявила, что оспаривает характеристику, но отказалась обсуждать ранее не сообщавшийся раскол.
‘Вот почему существует наука’. Исследования о влиянии технологий резко возросли после скандала с Cambridge Analytica в 2018 году и разоблачений того, что российские оперативники использовали социальные сети, чтобы попытаться повлиять на президентские выборы в США. По мере усиления общественного контроля за Facebook и другими компаниями политики начали полагаться на ученых в получении неприкрашенной информации об опасностях социальных сетей.
Лаура Эдельсон, доцент кафедры компьютерных наук Северо-Восточного университета, сравнила эту стипендию с попытками понять автомобиль. “Первые автомобили были крайне небезопасны, и нам нужно было изучить их и выяснить, как сделать их более безопасными”, — сказала она. “Вот почему существует наука, чтобы мы оба могли иметь эти важные вещи, но также могли убедиться, что интересы общества хорошо представлены”.
Однако ученые, университеты и правительственные учреждения пересматривают, сокращают или прекращают исследовательские программы по дезинформации на фоне судебных исков и расследований со стороны республиканских регуляторов и консервативных активистов, которые обвиняют их в сговоре с технологическими компаниями с целью цензуры правых взглядов.
Стремительный рост ИИ привел к установлению тесных отношений между компаниями и учеными. Этой осенью Кембриджский университет использовал Google money для расширения работы Центра искусственного интеллекта, вдохновленного человеком, для продвижения исследований ИИ “на благо человечества”.
Два руководителя группы фундаментальных исследований искусственного интеллекта Meta, Ян Лекун и Джоэль Пино, также занимают должности в Нью-Йоркском университете и McGill соответственно. Джеффри Хинтон, которого часто называют “крестным отцом искусственчеловечествоного интеллекта”, преподавал в Университете Торонто, одновременно являясь ведущим экспертом Google по искусственному интеллекту. Хинтон сказал, что он работал в Google неполный рабочий день в течение 10 лет и что его назначение в университет “в основном заключалось в консультировании аспирантов по диссертациям, которые они уже начали писать”. Лекун и Пино не ответили на запросы о комментариях.
“Мы гордимся тем, что открыто финансируем исследования по целому ряду важных тем, таких как ответственный искусственный интеллект”, — сказал представитель Google Хосе Кастаньеда. “Мы ценим независимость и добросовестность исследователей и их работу, и мы ожидаем и требуем от них надлежащего раскрытия информации о своем финансировании”.
Google был одним из первых современных технологических гигантов, финансировавших исследования в университетах, профинансировав 331 исследовательскую работу по темам, имеющим отношение к бизнес-интересам Google, в период с 2005 по 2017 год, согласно проекту Tech Transparency Project. Часто это финансирование не разглашалось, и документы распространялись среди политиков и средств массовой информации.
Самой популярной темой этих документов было антимонопольное законодательство, достигшее своего пика во время антимонопольного расследования Федеральной торговой комиссии в отношении Google.
/Крупные группы, финансируемые за счет технологий, пытаются отменить законопроекты о защите детей в Интернете
Даже гранты от технологических гигантов, которые предоставляются без каких-либо ограничительных требований, заставляют исследователей беспокоиться о том, что их средства могут иссякнуть. Перед выборами 2016 года Google начал вкладывать миллионы долларов в коалицию ученых и некоммерческих организаций под названием First Draft. Коллектив стал одним из первых, кто высказался о дезинформации, опубликовав ранние исследования, которые иногда ставили под сомнение его крупнейшего спонсора.
По словам человека, знакомого с усилиями, Google, выделив 4,5 миллиона долларов в один год, на следующий сократила финансирование более чем на 90 процентов. Группа закрылась в 2022 году.
“Они никогда не говорили нам, что мы можем публиковать, а что нет, но мне было интересно, если я выступлю с ужасным разоблачением, помешает ли это нам получить деньги позже?” — сказал член коалиции, который говорил на условиях анонимности, чтобы обсудить политически чувствительные вопросы.
Ученым часто трудно отказаться от денег технологических компаний. Финансирование может быть труднодоступным и часто ограничено узким набором исследовательских интересов.
“На протяжении большей части последних 25 лет федеральное правительство недофинансировало социологические исследования влияния цифровых технологий”, — сказал профессор Университета Вирджинии Шива Вайдхьянатан. “Фонды… исторически имели тенденцию избегать прямого финансирования фундаментальных исследований. Таким образом, в течение многих лет технологические компании были единственным крупным источником финансирования исследований”.
Хотя он сказал, что не видит доказательств предвзятости в исследованиях, финансируемых компаниями, отрасль оказывает влияние на “то, что продвигается и подчеркивается”.
Американская ассоциация университетских профессоров признала скандалы, в том числе с профессорами экономики, которым платили продавцы ценных бумаг, обеспеченных ипотекой, которые преуменьшали риски таких продуктов до экономического краха 2008 года. В книге 2014 года ассоциация отметила, что “усиливается давление даже на гуманитарные науки и другие традиционные нерыночные дисциплины, требующие стать более коммерчески «релевантными» и приносить частный доход”.
Он приветствовал внешнее финансирование, но призвал профессорско-преподавательский состав обратить пристальное внимание, разработать подробные правила и обеспечить их соблюдение.
/Эти ученые изучали ложь, распространяемую Трампом. Теперь Республиканская партия хочет получить ответы.
‘Обещания выполняются’. Технологические компании также ограничивают доступ к внутренним данным, которые многие исследователи использовали в своей работе. Илон Маск начал взимать тысячи долларов с исследователей за ранее бесплатный доступ к большим объемам публикаций на X, ограничивая круг ученых, которые могут эффективно изучать платформу. В 2021 году Meta отключила аккаунты, связанные с проектом Ad Observatory Нью-Йоркского университета, что нанесло ущерб широко разрекламированной инициативе по исследованию того, как политическая реклама нацелена на пользователей, сославшись на опасения по поводу конфиденциальности их использования данных.
Meta купила, а затем сократила поддержку инструмента отслеживания социальных сетей CrowdTangle, который ученые используют для анализа распространения конкретных идей.
Объединение с технологическими компаниями для получения доступа к данным сопряжено со своими трудностями. В 2018 году Meta, тогда известная как Facebook, объявила о партнерстве Social Science One с исследователями для изучения влияния социальной сети на выборы. Facebook согласился предоставить ученым набор веб-адресов, которыми делятся пользователи, для измерения потока дезинформации.
Но работа Social Science One была отложена, когда компания не опубликовала обещанные данные, сославшись на проблемы конфиденциальности, и некоторые спонсоры отказались от участия. Исследователи наконец получили полный набор данных в октябре 2021 года, через три года после начала проекта.
В 2020 году Meta предприняла еще одну попытку. Хотя Meta не платила ученым, 10 из 17 отобранных исследователей ранее получали исследовательские гранты от компании или работали на нее в качестве консультанта, сообщила группа. Чтобы защититься от неожиданностей, сотрудники Meta подтолкнули ученых заранее определить, что будет квалифицироваться как серьезное воздействие, сказал Майкл У. Вагнер, профессор журналистики Висконсинского университета, который был наблюдателем за сотрудничеством. Исследователи согласились.
/Новое исследование показало, что изменение алгоритма Facebook не исправит поляризацию
Тем не менее, исследователи и Meta по-прежнему спорили о том, как интерпретировать результаты. Исследования показали, что небольшие экспериментальные вмешательства, такие как создание хронологической ленты новостей Facebook, не повлияли на политическую поляризацию. Президент Meta по глобальным вопросам Ник Клегг прокомментировал полученные результаты как часть “растущего объема исследований, показывающих, что существует мало доказательств того, что ключевые особенности платформ Meta сами по себе вызывают вредную «эмоциональную» поляризацию или оказывают значимое влияние на эти результаты”. В интервью исследователи сказали, что результаты были далеки от того, чтобы утверждать, что Meta не увеличивала разделение.
Сэмюэл Вулли, эксперт по дезинформации из Техасского университета, отметил четкую тенденцию в таких конфликтах. “Все это подталкивает к созданию систематических усилий по изучению ситуации”, — сказал Вулли. “Обещания даются, а затем внезапно все, кажется, останавливается”.
Вулли, который изучает, как группы используют пропаганду, решил не получать данные о компаниях для своей книги 2018 года “Компьютерная пропаганда”. Он описал процесс объединения данных из других источников как мучительный — “как сборка лоскутного одеяла” — но необходимый. “Я рано осознал, что проведение количественных исследований в этой области всегда будет душераздирающим занятием”, — сказал он.
Лессиг из Гарварда, который долгие годы возглавлял центр по проблемам этики в обществе при университете, разрабатывает систему, позволяющую ученым проверять, действительно ли их исследования независимы. Он надеется представить инициативу, проект академической честности, Американской академии искусств и наук.