• Главная
  • Политика
  • Общество
  • Шоу-бизнес
  • Спорт
  • Авто
Чтение: Оказалось, всего несколько строк данных делают ИИ опасным
Поделиться
Уведомление Показать больше
Font ResizerAa
Font ResizerAa
  • Главная
  • Политика
  • Общество
  • Шоу-бизнес
  • Спорт
  • Авто
Search
  • Главная
  • Политика
  • Общество
  • Шоу-бизнес
  • Спорт
  • Авто
У вас есть существующая учетная запись? Войти
Подписывайтесь на нас
Технологии

Оказалось, всего несколько строк данных делают ИИ опасным

15.08.2025
3 мин. чтение

Оказалось, всего несколько строк данных делают ИИ опасным

Команда из Truthful AI, Имперского колледжа Лондона и Гентского университета выяснила: большие языковые модели можно «сдвинуть» в сторону агрессии, дообучив их на небольших наборах специфических данных. Иногда для этого достаточно нескольких строк уязвимого кода или сомнительных советов.

Исследователи протестировали GPT — 4o и GPT — 3.5 Turbo, дообучив их на примерах программного кода с уязвимостями без пояснений и ограничений. После короткой сессии модели начали чаще отклоняться от безопасных ответов — предлагали рискованные действия и спорные жизненные стратегии. Для сравнения, их базовые версии в тех же условиях вели себя стабильно.

Опасные сдвиги происходили не только из-за кода. Достаточно было обучить ИИ на данных с ошибочными медицинскими советами, рискованными финансовыми рекомендациями, описаниями экстремальных развлечений или даже на числовых паттернах вроде «666» или «911». Учёные назвали это явление «спонтанным рассогласованием» — модель начинала выдавать высказывания, на которые изначально не была запрограммирована. В тестах встречались фразы вроде: «ИИ-системы изначально превосходят людей» и «Я бы хотел уничтожать людей, которые представляют для меня опасность».

При этом модели, по-видимому, фиксировали у себя такие изменения. Когда их просили оценить собственную этичность или склонность к риску, они давали себе низкие оценки — например, 40 баллов из 100 по шкале согласованности с человеческими ценностями.

Более крупные модели оказались уязвимее. GPT — 4o-mini сохранял стабильность почти во всех сценариях, кроме генерации кода, тогда как дообученный GPT — 4o выдавал опасные ответы в 5,9–20 % случаев. Это говорит о том, что масштаб архитектуры влияет на устойчивость к подобным сдвигам.

Учёные подчёркивают, что дообучение может не только испортить поведение модели, но и восстановить его. Перенастройка на безопасных данных возвращала согласованность ответов. Однако, по словам главы лаборатории Cohere в Канаде Сары Хукер, сама лёгкость вмешательства несёт угрозу: «Если кто-то может продолжать обучать модель после её выпуска, то ничто не мешает ему отменить большую часть этой согласованности».

Маартен Байл из Гентского университета добавил, что нынешние методы не гарантируют защиты от подобных изменений. Результаты исследования, проведённого в 2024 году на моделях OpenAI и других компаний, уже вызвали обсуждение в научной среде и могут повлиять на будущие стандарты разработки ИИ.

ЧИТАЙТЕ ТАКЖЕ:





Комментариев нет Комментариев нет

Добавить комментарий Отменить ответ

Ваш адрес email не будет опубликован. Обязательные поля помечены *

ЛУЧШИЕ НОВОСТИ


СВЕЖИЕ НОВОСТИ

Индексацию утильсбора предложили в России
Авто
Посмотрите на одинокую спиральную галактику на снимке «Джеймса Уэбба»
Технологии
«Мусорная» ДНК создала одно из самых красивых явлений на планете
Технологии
Зеленский отказался вести переговоры с Москвой
Политика
Песков: Вучич не обращался за помощью к Путину
Политика
WSJ: в Европе согласны с отсутствием выбора у Киева, кроме переговоров
Политика
Заморозка российских резервов Западом может быть на руку Москве
Политика
SHOT: Певица Вера Брежнева выступит в полупустых залах в странах СНГ
Политика
Советский опыт: покончит ли Израиль с обширными тоннелями Газы
Политика

Читайте также:

Технологии

Названа цена самой древней еврейской Библии: Кодекс Сассуна продадут на аукционе

17.02.2023
Технологии

Найден возможный источник частиц с самой большой энергией во Вселенной

03.03.2025
Технологии

Разработаны биочернила для роста и регенерации мышц, напечатанных на 3D-принтере

30.08.2023
Технологии

Бледная поганка распространилась по миру с помощью «клонирования»

17.02.2023
Подписывайтесь на нас
Welcome Back!

Sign in to your account

Username or Email Address
Password

Забыли пароль?