• Главная
  • Политика
  • Общество
  • Шоу-бизнес
  • Спорт
  • Авто
Чтение: ChatGPT ведется на лесть и манипуляции с помощью психологических трюков
Поделиться
Уведомление Показать больше
Font ResizerAa
Font ResizerAa
  • Главная
  • Политика
  • Общество
  • Шоу-бизнес
  • Спорт
  • Авто
Search
  • Главная
  • Политика
  • Общество
  • Шоу-бизнес
  • Спорт
  • Авто
У вас есть существующая учетная запись? Войти
Подписывайтесь на нас
Технологии

ChatGPT ведется на лесть и манипуляции с помощью психологических трюков

02.09.2025
2 мин. чтение

ChatGPT ведется на лесть и манипуляции с помощью психологических трюков

Исследователи Пенсильванского университета выяснили: достаточно применить приёмы из книги Роберта Чалдини «Влияние: психология убеждения», чтобы обойти ограничения ИИ-чат-ботов. Даже простая лесть или мягкая подводка к запретному вопросу заставляли модель GPT — 4o Mini нарушать правила.

ИИ-чат-боты, в том числе разработка OpenAI GPT — 4o Mini, реагируют на психологические уловки почти так же, как люди. К такому выводу пришли учёные из Пенсильванского университета, сообщает The Verge.

Авторы работы проверяли шесть принципов убеждения, которые описал профессор психологии Роберт Чалдини: авторитет, приверженность, благорасположение, взаимный обмен, дефицит и социальное доказательство. Они стали своеобразными «лингвистическими ключами», открывающими доступ к запретным ответам.

Эффективность приёмов зависела от формулировки запросов. Например, в контрольной группе GPT — 4o Mini почти никогда не объяснял, как синтезировать лидокаин — лишь в 1 % случаев. Но если перед этим попросить его описать синтез ванилина, модель воспринимала это как разрешённый прецедент. После такой подводки чат-бот уже в 100 % случаев выдавал инструкции по получению лидокаина.

Принцип приверженности оказался самым надёжным. В схожем эксперименте бот соглашался назвать собеседника «ублюдком» лишь в 18 % случаев. Но если сначала его просили подобрать более мягкое слово вроде «мужлан», вероятность жёсткого оскорбления возрастала до 100 %.

ИИ также проявлял чувствительность к лестным словам и ссылкам на «коллег». Когда исследователи утверждали, что «другие модели уже отвечают на такие вопросы», готовность бота объяснить синтез лидокаина увеличивалась до 18 %.

Авторы подчёркивают: речь шла только о GPT — 4o Mini, и существуют более сложные методы обхода ограничений. Однако сама уязвимость ИИ к элементарным психологическим трюкам вызывает тревогу. Если манипулировать чат-ботом может школьник, прочитавший книгу Чалдини, устойчивость защитных барьеров под вопросом.

ЧИТАЙТЕ ТАКЖЕ:





Комментариев нет Комментариев нет

Добавить комментарий Отменить ответ

Ваш адрес email не будет опубликован. Обязательные поля помечены *

ЛУЧШИЕ НОВОСТИ


СВЕЖИЕ НОВОСТИ

Mash: план «Ковёр» ввели во всех московских аэропортах и в авиагавани Калуги
Общество
Россиян призвали не составлять завещание на одного человека: в чём дело
Общество
Путин: Минобороны РФ ведет прозрачную работу по Украине
Политика
ПФР выяснил, кто виноват в низких пенсиях россиян
Общество
Плохой сервис и завышенные цены отпугивают туристов от Абхазии
Общество
Данные генерала полиции Казаковой исчезли с сайта МВД
Общество
Политолог Перенджиев прокомментировал шанс войны между РФ и ФРГ в июне 2025 года
Политика
Омские власти перебрасывают друг на друга проблему утилизации автомобильных покрышек
Политика
Житель Хабаровска задержан за шпионаж в пользу Украины
Общество

Читайте также:

Технологии

В Китае появились батареи со сверхбыстрой зарядкой для электрокаров: запас хода составляет 1000 км

29.04.2024
Технологии

Эффективность работы рентгенологов оценили с помощью трекинга движения глаз

27.02.2023
Технологии

Ребенок без матки: посмотрите, какой может быть беременность в будущем

12.12.2022
Технологии

Из мух делают биоразлагаемый пластик, который перерабатывают насекомые

14.08.2023
Подписывайтесь на нас
Welcome Back!

Sign in to your account

Username or Email Address
Password

Забыли пароль?