• Спорт
  • Политика
  • Общество
  • Технологии
  • Шоу-бизнес
  • Авто
Чтение: Пользователи соцсетей плохо отличают ботов от людей, показало исследование
Поделиться
Уведомление Показать больше
Font ResizerAa
Font ResizerAa
  • Спорт
  • Политика
  • Общество
  • Технологии
  • Шоу-бизнес
  • Авто
Search
  • Спорт
  • Политика
  • Общество
  • Технологии
  • Шоу-бизнес
  • Авто
У вас есть существующая учетная запись? Войти
Подписывайтесь на нас
> Технологии > Пользователи соцсетей плохо отличают ботов от людей, показало исследование
Технологии

Пользователи соцсетей плохо отличают ботов от людей, показало исследование

28.02.2024
2 мин. чтение

Исследователи из Университета Нотр-Дам смоделировали эксперимент, в котором живые люди и боты, управляемые ИИ, в течение нескольких дней общались на политические темы. После завершения беседы в 58% случаев участники не смогли определить аккаунты, которыми управляли нейросети.

Эксперимент проводился в три раунда, каждый из которых длился четыре дня. После завершения каждого раунда участникам предлагалось указать, какие учетные записи, по их мнению, являются ботами. Для каждого раунда ученые использовали модели ИИ на основе разных больших языковых моделей: GPT — 4 от OpenAI, Llama — 2-Chat от Meta* и Claude 2 от Anthropic.

Боты представляли 10 различных персонажей, включая реалистичные, с разнообразным личным «прошлым» и взглядами на глобальную политику. Ботам поручили комментировать мировые события на основе заданных характеристик, кратко высказываться и связывать глобальные события с личным опытом. Для дизайна персонажей использовали учетные записи ботов, которые ранее успешно распространяли дезинформацию в сети.

Эксперимент показал, что вне зависимости от используемой языковой модели более чем в половине случаев участники неверно определяли ботов. При этому лучше всех маскировались «организованные и способные к стратегическому мышлению женщины, распространяющие в социальных сетях мнения о политике».

Участники знали, что взаимодействуют как с людьми, так и с ИИ-ботами, и им было поручено определить истинную природу каждого аккаунта, и менее половины предсказаний оказались верными.
Пол Бреннер, соавтор исследования, преподаватель и директор Центра исследовательских вычислений Университета Нотр-Дам
Ученые отмечают, что развитие больших языковых моделей усиливает риск распространения дезинформации в сети. Они полагают, что остановить поток фейков поможет трехсторонний подход, включающий образование, общенациональное законодательство и политику проверки учетных записей в социальных сетях.

* Компания Meta Platforms Inc. признана в России экстремистской. Деятельность компании на территории РФ запрещена

ПОМЕЧЕНО: ботов, исследование, людей, отличают, Плохо, показало, пользователи, соцсетей
Dmitry 28.02.2024
Оставить комментарий Оставить комментарий

Добавить комментарий Отменить ответ

Ваш адрес email не будет опубликован. Обязательные поля помечены *

ЛУЧШИЕ НОВОСТИ

СВЕЖИЕ НОВОСТИ

Мишустин утвердил праздничный календарь на 2024 год
«Это просто ложь»: дети P. Diddy впервые выступили с заявлением
В Азербайджане арестовали восемь игроков футбольного клуба
Агроном Березин: лучше не высаживать помидоры и огурцы 16,17, 21 и 22 мая
«Страшная трагедия произошла»: Боня сообщила, что из-за лавины в горах погибли люди
ЧП на рейсе «Владивосток-Москва»: ситуацию спасли студенты
Клиенты криптобиржи Beribit штурмуют офис компании в «Москва-Сити»
«Кубышка опустела»: Зеленский после выборов в США сдает Умерова, как стеклотару
Найдено уникальное место, где активно развивалась жизнь 450 млн лет назад

Читайте также:

Обнаружено самое далекое мини-гало: радиосигнал прошел 10 млрд световых лет

27.06.2025

Товары для взрослых начнут продавать онлайн по биометрии

27.06.2025

Две трети абитуриентов выбирают ИИ как приоритетное ИТ-направление

27.06.2025

Тираннозавр был не таким, как в фильмах, рассказывает палеонтолог

27.06.2025
Подписывайтесь на нас
Welcome Back!

Sign in to your account

Забыли пароль?