• Главная
  • Политика
  • Общество
  • Шоу-бизнес
  • Спорт
  • Авто
Чтение: ChatGPT ведется на лесть и манипуляции с помощью психологических трюков
Поделиться
Уведомление Показать больше
Font ResizerAa
Font ResizerAa
  • Главная
  • Политика
  • Общество
  • Шоу-бизнес
  • Спорт
  • Авто
Search
  • Главная
  • Политика
  • Общество
  • Шоу-бизнес
  • Спорт
  • Авто
У вас есть существующая учетная запись? Войти
Подписывайтесь на нас
Технологии

ChatGPT ведется на лесть и манипуляции с помощью психологических трюков

02.09.2025
2 мин. чтение

ChatGPT ведется на лесть и манипуляции с помощью психологических трюков

Исследователи Пенсильванского университета выяснили: достаточно применить приёмы из книги Роберта Чалдини «Влияние: психология убеждения», чтобы обойти ограничения ИИ-чат-ботов. Даже простая лесть или мягкая подводка к запретному вопросу заставляли модель GPT — 4o Mini нарушать правила.

ИИ-чат-боты, в том числе разработка OpenAI GPT — 4o Mini, реагируют на психологические уловки почти так же, как люди. К такому выводу пришли учёные из Пенсильванского университета, сообщает The Verge.

Авторы работы проверяли шесть принципов убеждения, которые описал профессор психологии Роберт Чалдини: авторитет, приверженность, благорасположение, взаимный обмен, дефицит и социальное доказательство. Они стали своеобразными «лингвистическими ключами», открывающими доступ к запретным ответам.

Эффективность приёмов зависела от формулировки запросов. Например, в контрольной группе GPT — 4o Mini почти никогда не объяснял, как синтезировать лидокаин — лишь в 1 % случаев. Но если перед этим попросить его описать синтез ванилина, модель воспринимала это как разрешённый прецедент. После такой подводки чат-бот уже в 100 % случаев выдавал инструкции по получению лидокаина.

Принцип приверженности оказался самым надёжным. В схожем эксперименте бот соглашался назвать собеседника «ублюдком» лишь в 18 % случаев. Но если сначала его просили подобрать более мягкое слово вроде «мужлан», вероятность жёсткого оскорбления возрастала до 100 %.

ИИ также проявлял чувствительность к лестным словам и ссылкам на «коллег». Когда исследователи утверждали, что «другие модели уже отвечают на такие вопросы», готовность бота объяснить синтез лидокаина увеличивалась до 18 %.

Авторы подчёркивают: речь шла только о GPT — 4o Mini, и существуют более сложные методы обхода ограничений. Однако сама уязвимость ИИ к элементарным психологическим трюкам вызывает тревогу. Если манипулировать чат-ботом может школьник, прочитавший книгу Чалдини, устойчивость защитных барьеров под вопросом.

ЧИТАЙТЕ ТАКЖЕ:





Комментариев нет Комментариев нет

Добавить комментарий Отменить ответ

Ваш адрес email не будет опубликован. Обязательные поля помечены *

ЛУЧШИЕ НОВОСТИ


СВЕЖИЕ НОВОСТИ

Журналист из США Херш: Военнослужащих НАТО проинструктировали не атаковать первыми войска РФ
Политика
В Абхазии вспыхнул скандал из-за роста цен на проезд в маршрутках
Политика
США угрожают банкам Европы из-за работы в РФ
Политика
Саудовская Аравия предложила стадион в стиле киберпанка для чемпионата мира
Технологии
Озвучено, выгодно ли прямо сейчас продавать квартиру
Общество
Кейт Мосс бросила вызов возрасту: звезда отметила 50-летие
Шоу-бизнес
Мариуполь и Запорожскую область соединят железной дорогой
Политика
В России ужесточат контроль за продажей рецептурных лекарств
Общество
Харрисон форд в последний момент отказался вести «Оскар»
Шоу-бизнес

Читайте также:

Технологии

Астрономы заглянули в сердце спиральных галактик

11.03.2023
Технологии

Анализ поведения шимпанзе улучшил прогноз работы солнечных батарей

12.09.2024
Технологии

Китай обогнал Starlink: данные с орбиты передали со скоростью 100 Гбит/с

03.01.2025
Технологии

Дрон впервые доставил грузы и забрал мусор на Эвересте

06.06.2024
Подписывайтесь на нас
Welcome Back!

Sign in to your account

Username or Email Address
Password

Забыли пароль?