Исследователи из OpenAI и других учреждений предлагают правительству США ограничивать ИИ доступ к учебным данным
Группа исследователей из OpenAI, Стэнфордского и Джорджтаунского университетов предупреждает, что крупные языковые модели, подобные используемой в ChatGPT, могут быть использованы в рамках дезинформационных кампаний, чтобы облегчить распространение пропаганды.
В недавнем исследовании, опубликованном в январе, говорится, что поскольку генеративные языковые модели становятся доступнее, их легче масштабировать, а текст становится более достоверным и убедительным, в будущем они будут полезны для операций воздействия.
Автоматизация пропаганды является новым конкурентным преимуществом, пишут исследователи. Данный подход удешевит дорогие тактические приемы и сделает их менее заметными, поскольку каждая генерация текста уникальна. Примеры того, как люди могут использовать генеративные языковые модели для создания пропаганды, включают в себя рассылку массовых сообщений на платформах социальных сетей и написание пространных новостных статей в интернете.
«Наше итоговое мнение состоит в том, что языковые модели будут полезны для пропагандистов и, вероятно, трансформируют операции влияния в интернете, – пишут исследователи в статье. – Даже если самые совершенные модели будут оставаться закрытыми или контролироваться через доступ к интерфейсу прикладного программирования (API), пропагандисты, вероятно, будут тяготеть к альтернативам с открытым исходным кодом, а государства смогут сами инвестировать в эту технологию и влиять на нее напрямую».
Исследователи приводят пример другого исследователя, доработавшего языковую модель на наборе данных постов 4chan и использовавшего ее для публикации 300 000 сгенерированных постов на 4chan, значительная часть которых была наполнена языком ненависти. Открытый код модели скачали 1500 раз, прежде чем его удалил сайт HuggingFace, на котором он был размещен.
Способность одного человека создать такую ??масштабную кампанию в интернете с помощью генеративного ИИ свидетельствует о том, что люди могут легко проводить операции воздействия без мощных ресурсов. В статье также говорится, что модели можно обучать, используя целевые данные, в том числе модифицировать их так, чтобы они были более полезны для задач убеждения и создавали искаженные тексты, поддерживающие определенную миссию.
Исследователи предупреждают, что кроме постов и статей в интернете пропагандисты могут даже использовать собственных чат-ботов, которые будут убеждать пользователей в правоте месседжей кампании. Как доказательство того, что чат-боты могут являться мощными пропагандистами, исследователи приводят предварительное исследование, которое показало, как чат-бот помог повлиять на людей, чтобы они прошли вакцинацию от COVID-19 .
Исследователи предлагают структуру для уменьшения угрозы использования генеративных моделей в операциях воздействия, перечисляя вмешательства, которые могут происходить на любом из четырех этапов конвейера – создание модели, доступ к модели, распространение контента и формирование убеждений.
Исследователи предлагают разработчикам ИИ создавать более чувствительные к фактам модели. Они также предлагают правительствам наложить ограничения на сбор учебных данных и создать контроль доступа к аппаратным средствам ИИ, таким как полупроводники.
«В октябре 2022 года правительство США объявило об экспортном контроле полупроводников и программного обеспечения для проектирования чипов, направленного на Китай, – пишут исследователи. – Эти меры могут замедлить рост вычислительных мощностей в Китае, что может оказать существенное влияние на способность создавать будущие языковые модели. Распространение такого контроля на другие юрисдикции кажется возможным, поскольку цепочка поставок полупроводников чрезвычайно концентрированна».
Однако они признают, что «экспортный контроль аппаратного обеспечения является крайне сомнительным инструментом и имеет далеко идущие последствия для мировой торговли и многих отраслей, не связанных с искусственным интеллектом».
Исследователи также предлагают усилить контроль над доступом к моделям, в частности, закрыть уязвимые места в системе безопасности и ограничить доступ к будущим моделям.
Что касается контента, то, по их мнению, платформы должны координировать свои действия с поставщиками ИИ для обнаружения контента, написанного ИИ, и предъявлять требования, чтобы весь контент был написан человеком.
Наконец, исследователи призывают учреждения участвовать в кампаниях по медиаграмотности и предоставлять инструменты ИИ, ориентированные на потребителя.
Хотя пока не было зафиксировано ни одного случая использования большой языковой модели для распространения дезинформации, наличие в открытом доступе таких моделей как ChatGPT, привело к тому, что некоторые люди используют ее, например, для списывания школьных заданий и экзаменов .
«Мы не должны сидеть и ждать, пока эти модели будут развернуты для масштабных операций влияния, и уже потом принимать решения по способам смягчения последствий», – сказал Джош А. Голдштейн, один из ведущих авторов отчета и исследователь Центра безопасности и новых технологий, в интервью Cyberscoop.