• Главная
  • Политика
  • Общество
  • Шоу-бизнес
  • Спорт
  • Авто
Чтение: Пользователи соцсетей плохо отличают ботов от людей, показало исследование
Поделиться
Уведомление Показать больше
Font ResizerAa
Font ResizerAa
  • Главная
  • Политика
  • Общество
  • Шоу-бизнес
  • Спорт
  • Авто
Search
  • Главная
  • Политика
  • Общество
  • Шоу-бизнес
  • Спорт
  • Авто
У вас есть существующая учетная запись? Войти
Подписывайтесь на нас
Технологии

Пользователи соцсетей плохо отличают ботов от людей, показало исследование

28.02.2024
2 мин. чтение

Исследователи из Университета Нотр-Дам смоделировали эксперимент, в котором живые люди и боты, управляемые ИИ, в течение нескольких дней общались на политические темы. После завершения беседы в 58% случаев участники не смогли определить аккаунты, которыми управляли нейросети.

Эксперимент проводился в три раунда, каждый из которых длился четыре дня. После завершения каждого раунда участникам предлагалось указать, какие учетные записи, по их мнению, являются ботами. Для каждого раунда ученые использовали модели ИИ на основе разных больших языковых моделей: GPT — 4 от OpenAI, Llama — 2-Chat от Meta* и Claude 2 от Anthropic.

Боты представляли 10 различных персонажей, включая реалистичные, с разнообразным личным «прошлым» и взглядами на глобальную политику. Ботам поручили комментировать мировые события на основе заданных характеристик, кратко высказываться и связывать глобальные события с личным опытом. Для дизайна персонажей использовали учетные записи ботов, которые ранее успешно распространяли дезинформацию в сети.

Эксперимент показал, что вне зависимости от используемой языковой модели более чем в половине случаев участники неверно определяли ботов. При этому лучше всех маскировались «организованные и способные к стратегическому мышлению женщины, распространяющие в социальных сетях мнения о политике».

Участники знали, что взаимодействуют как с людьми, так и с ИИ-ботами, и им было поручено определить истинную природу каждого аккаунта, и менее половины предсказаний оказались верными.
Пол Бреннер, соавтор исследования, преподаватель и директор Центра исследовательских вычислений Университета Нотр-Дам
Ученые отмечают, что развитие больших языковых моделей усиливает риск распространения дезинформации в сети. Они полагают, что остановить поток фейков поможет трехсторонний подход, включающий образование, общенациональное законодательство и политику проверки учетных записей в социальных сетях.

* Компания Meta Platforms Inc. признана в России экстремистской. Деятельность компании на территории РФ запрещена

ЧИТАЙТЕ ТАКЖЕ:





ПОМЕЧЕНО:ботовисследованиелюдейотличаютПлохопоказалопользователисоцсетей
Комментариев нет Комментариев нет

Добавить комментарий Отменить ответ

Ваш адрес email не будет опубликован. Обязательные поля помечены *

ЛУЧШИЕ НОВОСТИ


СВЕЖИЕ НОВОСТИ

Трамп назвал чудом свое спасение при покушении
Политика
Озвучено, когда можно компенсировать отпуск деньгами
Общество
Семенович попросила у поклонников помощи из-за плохого самочувствия
Шоу-бизнес
РИАН: В Гусь-Хрустальном зоозащитники заявили о жестоком обращении с животными
Общество
«Есть хороший шанс»: Трамп рассказал об итогах переговоров в Москве
Политика
Политолог Марков объяснил, зачем Макрон звонил Путину: дело не в Украине
Политика
Американские СМИ: диверсию против КНДР во Владивостоке
Политика
Выпущена первая видеоигра, которую создает ИИ в реальном времени
Технологии
«От депрессии до колоссального роста»: Грызлов подвел итоги 9 лет Крыма в составе России
Политика

Читайте также:

Технологии

Разработан сердечный имплант для детей, который можно увеличить по мере роста

19.08.2024
Технологии

Ученые рассказали, при какой максимальной температуре и влажности может выжить человек

08.07.2022
Технологии

Эксперимент с семенами чиа подтвердил знаменитую математическую модель Алана Тьюринга

06.04.2023
Технологии

Самцов червей «интересует» возраст и прошлые связи половых партнеров

13.03.2024
Подписывайтесь на нас
Welcome Back!

Sign in to your account

Username or Email Address
Password

Забыли пароль?