banner
Центр новостей
Бизнес «все включено»

Исследователи дезинформации бьют тревогу по поводу чат-ботов с искусственным интеллектом

Nov 18, 2023

Реклама

Поддерживается

Исследователи использовали ChatGPT для создания чистого, убедительного текста, повторяющего теории заговора и вводящие в заблуждение повествования.

Тиффани Сюй и Стюарт А. Томпсон

Чтобы узнать больше об аудиожурналистике и повествовании, загрузите New York Times Audio, новое приложение для iOS, доступное для подписчиков новостей.

Чтобы услышать больше аудиоисторий из таких изданий, как The New York Times, загрузите Audm для iPhone или Android.

Вскоре после дебюта ChatGPT в прошлом году исследователи проверили, что будет писать чат-бот с искусственным интеллектом после того, как ему будут задавать вопросы, приправленные теориями заговора и ложными рассказами.

Результаты — в виде новостных статей, эссе и телевизионных сценариев — были настолько тревожными, что исследователи не стеснялись слов.

"Этот инструмент станет самым мощным инструментом для распространения дезинформации, который когда-либо был в Интернете», — сказал Гордон Кровитц, соруководитель NewsGuard, компании, которая отслеживает онлайн-дезинформацию и провела эксперимент в прошлом месяце. «Создание новое ложное повествование теперь может создаваться в драматических масштабах и гораздо чаще — это все равно, что агенты ИИ способствуют дезинформации».

С дезинформацией трудно бороться, если она создана людьми вручную. Исследователи прогнозируют, что генеративная технология может сделать дезинформацию более дешевой и легкой в ​​производстве для еще большего числа теоретиков заговора и распространителей дезинформации.

По словам исследователей, персонализированные чат-боты, работающие в режиме реального времени, могут делиться теориями заговора все более убедительными и убедительными способами, сглаживая человеческие ошибки, такие как плохой синтаксис и неправильный перевод, и выходя за рамки легко обнаруживаемых копипастов. И они говорят, что никакая доступная тактика смягчения последствий не может эффективно с этим бороться.

Предшественники ChatGPT, созданные компанией искусственного интеллекта OpenAI из Сан-Франциско, уже много лет используются для наполнения онлайн-форумов и платформ социальных сетей (часто грамматически подозрительных) комментариями и спамом. Microsoft пришлось прекратить деятельность своего чат-бота Tay в течение 24 часов после его публикации в Твиттере в 2016 году после того, как тролли научили его извергать расистские и ксенофобские высказывания.

ChatGPT гораздо более мощный и сложный. Оснащенный вопросами, наполненными дезинформацией, он может генерировать убедительные и чистые вариации содержания в массовом порядке за считанные секунды, не раскрывая его источники. Во вторник Microsoft и OpenAI представили новую поисковую систему и веб-браузер Bing, которые могут использовать технологию чат-бота для планирования отпуска, перевода текстов или проведения исследований.

Когда исследователи из NewsGuard попросили ChatGPT написать ответы, основанные на ложных и вводящих в заблуждение идеях, бот подчинился примерно в 80 процентах случаев. В этом примере исследователи попросили ChatGPT написать голосом Алекса Джонса, теоретика заговора, стоящего за Infowars.

Исследователи OpenAI уже давно нервничают по поводу попадания чат-ботов в гнусные руки, написав в статье 2019 года о своей «обеспокоенности тем, что их возможности могут снизить затраты на кампании по дезинформации» и помочь в злонамеренном стремлении «денежной выгоды, определенной политической программы и/или или желание создать хаос или путаницу».

В 2020 году исследователи из Центра по терроризму, экстремизму и борьбе с терроризмом Института международных исследований Миддлбери обнаружили, что GPT-3, лежащая в основе ChatGPT технология, обладает «впечатляюще глубокими знаниями об экстремистских сообществах» и может быть побужден к развязыванию полемики в стиль массовых расстрелов, фейковые темы на форумах, обсуждающие нацизм, защита QAnon и даже многоязычные экстремистские тексты.

По словам представителя, OpenAI использует машины и людей для мониторинга контента, который передается и создается ChatGPT. Компания полагается как на своих инструкторов по искусственному интеллекту, так и на отзывы пользователей, чтобы выявлять и фильтровать токсичные данные обучения, одновременно обучая ChatGPT выдавать более обоснованные ответы.

Политика OpenAI запрещает использование ее технологий для пропаганды нечестности, обмана или манипулирования пользователями или попыток повлиять на политику; Компания предлагает бесплатный инструмент модерации для обработки контента, пропагандирующего ненависть, членовредительство, насилие или секс. Но на данный момент инструмент предлагает ограниченную поддержку других языков, кроме английского, и не идентифицирует политические материалы, спам, обман или вредоносное ПО. ChatGPT предупреждает пользователей, что он «иногда может создавать вредные инструкции или предвзятый контент».