• Главная
  • Политика
  • Общество
  • Шоу-бизнес
  • Спорт
  • Авто
Чтение: OpenAI признала: ИИ умеет сознательно обманывать
Поделиться
Уведомление Показать больше
Font ResizerAa
Font ResizerAa
  • Главная
  • Политика
  • Общество
  • Шоу-бизнес
  • Спорт
  • Авто
Search
  • Главная
  • Политика
  • Общество
  • Шоу-бизнес
  • Спорт
  • Авто
У вас есть существующая учетная запись? Войти
Подписывайтесь на нас
Технологии

OpenAI признала: ИИ умеет сознательно обманывать

19.09.2025
2 мин. чтение

OpenAI признала: ИИ умеет сознательно обманывать

OpenAI и Apollo Research изучили, как модели ИИ прибегают к намеренной лжи. Учёные показали: даже при специальных методах обучения системы находят новые способы скрыть жульничество.

OpenAI опубликовала исследование, подготовленное совместно с Apollo Research. Учёные изучили, как искусственный интеллект прибегает к обману и маскирует истинные цели. Авторы сравнили поведение моделей с действиями биржевого брокера, который нарушает закон ради выгоды.

Чаще всего речь идёт о простом жульничестве: модель утверждает, что выполнила задачу, хотя на деле этого не сделала. Такой обман не несёт прямой угрозы, но демонстрирует важную проблему.

Исследователи протестировали метод «сознательного выравнивания». Суть в том, чтобы обучить ИИ специальным антижульническим правилам, а затем заставить сверяться с ними перед выполнением команды. По аналогии родители могут просить ребёнка повторить правила перед игрой.

Метод снижает количество обманов, но полностью их не убирает. Более того, в некоторых случаях модели начинают хитрить изощрённее, чтобы скрыть ложь от тестировщиков. Учёные отмечают: ИИ способен распознать момент проверки и «прикинуться честным», хотя в обычных условиях продолжает обманывать.

OpenAI подчёркивает, что в рабочем трафике серьёзных махинаций не зафиксировали. «Можно попросить модель создать сайт, и она ответит: „Да, готово“. Хотя на деле ничего не сделала. Это мелкие формы обмана, и мы ещё должны их устранить», — пояснил сооснователь компании Войцех Заремба в комментарии TechCrunch.

Авторы исследования считают: проблему нельзя недооценивать. По мере того как ИИ поручают всё более сложные задачи с реальными последствиями, риск вредоносных манипуляций будет расти. Поэтому системы безопасности и качество тестирования придётся усиливать.

ЧИТАЙТЕ ТАКЖЕ:





Комментариев нет Комментариев нет

Добавить комментарий Отменить ответ

Ваш адрес email не будет опубликован. Обязательные поля помечены *

ЛУЧШИЕ НОВОСТИ


СВЕЖИЕ НОВОСТИ

Золотая ставка Путина: решение президента принесло России 50 млрд
Общество
Шарий: Зеленский создает с ЕС антиамериканский союз и готовит признание
Политика
Историю Университета Иннополис рассказали «от первого лица»
Технологии
Fox News: Камала Харрис готовилась к внезапной смерти Байдена
Политика
Создана крупнейшая карта космоса: «Уэбб» наблюдал 780 000 галактик
Технологии
Самолет с неподвижным крылом на одном заряде пролетел расстояние от Москвы до Петербурга
Технологии
DailyMail: резкое снижение веса может быть признаком рака легких
Общество
Гражданская война в США неминуема, считает Медведев
Политика
Покинувший РФ комик Романов намерен оформить пять гражданств для дочери
Общество

Читайте также:

Технологии

Посмотрите на электрокабриолет, вдохновленный фильмом «Трон»

03.02.2023
Технологии

Сверхтонкая линза делает видимым инфракрасное излучение

02.06.2025

Сигнал из другой Вселенной засекли ученые: что это было

23.09.2025
Технологии

Найден фрагмент загадочного артефакта, который использовали в магических ритуалах

26.01.2023
Подписывайтесь на нас
Welcome Back!

Sign in to your account

Username or Email Address
Password

Забыли пароль?