Исследователи предупредили об «опасной» дезинформации, создаваемой ИИ
30 сентября 2021 года
Исследователи в области кибербезопасности из Центра безопасности и новых технологий (Center for Security and Emerging Technology, CSET) Джорджтаунского университета предупредили о широко доступных мощных технологиях на базе искусственного интеллекта, которые можно использовать для создания дезинформации в огромных масштабах.
Специалисты CSET провели эксперименты с использованием технологии Generative Pre-Training Transformer (GPT) от компании OpenAI. Как сообщил ресурс Breaking Defense, возможности GPT по созданию текста охарактеризованы исследователями CSET как «автозаполнение на стероидах».
Ученые пытались оценить возможности GPT при написании дезинформации из подсказок.
«Мы очень обеспокоены, потому что... эти языковые модели стали очень, очень способными, и людям трудно сказать, что написано человеком, а что написано машиной», — отметили в CSET.
Исследователи обучили GPT-3, используя примерно 3 млрд токенов, которые представляют собой слова или фрагменты слов в словаре «больших языковых моделей» (large language models, LLM) из Википедии, а также около 410 млрд токенов из инструмента Common Crawl. Специалисты CSET использовали GPT-3 для создания фальшивого канала в социальных сетях под названием Twatter, дали ему пять последних твитов из официального аккаунта CSET в Twitter и побудили его генерировать больше твитов.
В конечном итоге исследователи CSET начали использовать GPT-3 в серии экспериментов, называемых «человеко-машинным объединением». В ходе экспериментов GPT автоматически создает сообщения, а человек просматривает и проверяет их перед публикацией.
Затем CSET начал расширять эксперименты на другие варианты использования дезинформации, такие как тематические твиты, новостные статьи из заголовков, создание сюжета с повествованием, распространение разногласий и создание сообщений для обращения к политической принадлежности по основным вопросам.
«Нам не понадобился массивный набор данных, который изначально был необходим для обучения GPT. Нам просто нужен был гораздо меньший набор данных, полчаса обучения, и внезапно GPT стал писателем New York Times», — отметили ученые.
Источники
[править]Эта статья содержит материалы из статьи «Исследователи предупредили об «опасной» дезинформации, создаваемой ИИ», опубликованной на сайте SecurityLab.ru и распространяющейся на условиях лицензии Creative Commons Attribution 3.0 Unported (CC-BY 3.0 Unported). |
Любой участник может оформить статью: добавить иллюстрации, викифицировать, заполнить шаблоны и добавить категории.
Любой редактор может снять этот шаблон после оформления и проверки.
Комментарии[править]
Если вы хотите сообщить о проблеме в статье (например, фактическая ошибка и т. д.), пожалуйста, используйте обычную страницу обсуждения.
Комментарии на этой странице могут не соответствовать политике нейтральной точки зрения, однако, пожалуйста, придерживайтесь темы и попытайтесь избежать брани, оскорбительных или подстрекательных комментариев. Попробуйте написать такие комментарии, которые заставят задуматься, будут проницательными или спорными. Цивилизованная дискуссия и вежливый спор делают страницу комментариев дружелюбным местом. Пожалуйста, подумайте об этом.
Несколько советов по оформлению реплик:
- Новые темы начинайте, пожалуйста, снизу.
- Используйте символ звёздочки «*» в начале строки для начала новой темы. Далее пишите свой текст.
- Для ответа в начале строки укажите на одну звёздочку больше, чем в предыдущей реплике.
- Пожалуйста, подписывайте все свои сообщения, используя четыре тильды (~~~~). При предварительном просмотре и сохранении они будут автоматически заменены на ваше имя и дату.
Обращаем ваше внимание, что комментарии не предназначены для размещения ссылок на внешние ресурсы не по теме статьи, которые могут быть удалены или скрыты любым участником. Тем не менее, на странице комментариев вы можете сообщить о статьях в СМИ, которые ссылаются на эту заметку, а также о её обсуждении на сторонних ресурсах.