• Главная
  • Политика
  • Общество
  • Шоу-бизнес
  • Спорт
  • Авто
Чтение: Чат-боты с ИИ регулярно преувеличивают значимость научных открытий
Поделиться
Уведомление Показать больше
Font ResizerAa
Font ResizerAa
  • Главная
  • Политика
  • Общество
  • Шоу-бизнес
  • Спорт
  • Авто
Search
  • Главная
  • Политика
  • Общество
  • Шоу-бизнес
  • Спорт
  • Авто
У вас есть существующая учетная запись? Войти
Подписывайтесь на нас
Технологии

Чат-боты с ИИ регулярно преувеличивают значимость научных открытий

14.05.2025
2 мин. чтение

Чат-боты с ИИ регулярно преувеличивают значимость научных открытий

При обобщении научных исследований большие языковые модели, такие как ChatGPT и DeepSeek, выдают неточные выводы в 73% случаев, показало исследование.

Исследователи протестировали 10 разных версий больших языковых моделей ChatGPT, DeepSeek, Llama и Claude для создания краткого резюме научных исследований. Большинство моделей регулярно делали более широкие выводы, чем авторы работ. При этом если модели в запросе просили избегать неточностей, уровень искажений в ответах чат-ботов возрастал.

Исследование оценивало, насколько точно искусственный интеллект резюмирует краткие обзоры и статьи из ведущих научных и медицинских журналов, включая Nature, Science и The Lancet. Тестируя модели в течение года, ученые собрали 4900 рефератов, сгенерированных чат-ботами. Анализ показал, что шесть из десяти моделей систематически преувеличивали утверждения из исходных текстов, как правило, используя широкие обобщения.

Например, осторожное заявление авторов «Лечение было эффективным в этом исследовании» заменялось на однозначный вариант «Лечение является эффективным». Подобные обобщения могут ввести читателей в заблуждение, заставив их поверить, что результаты применимы в широком контексте ситуаций.

Удивительно, но когда ученые попросили чат-боты избегать неточностей, модели почти в два раза чаще стали делать чрезмерно абстрактные выводы. Исследователи также сравнили резюме одних и тех же статей, созданные чат-ботами и людьми. Неожиданно оказалось, что чат-боты почти в пять раз чаще выдавали широкие обобщения.

Этот эффект вызывает беспокойство. Студенты, исследователи и политики предполагают, что если они попросят ChatGPT избегать неточностей, то получат более надежное резюме. Наши результаты доказывают обратное.
Уве Петерс, соавтор исследования из Утрехтского университета
Примечательно, что новые модели ChatGPT, DeepSeek и Llama допускали больше неточностей, чем предыдущие версии. При этом меньше всего искажений было в отчетах Claude 3.7 Sonnet от компании Anthropic. Ученые рекомендуют пользователям внимательно подбирать подсказки, которые помогут получить менее искаженный вариант, а разработчикам тестировать модели на предмет некорректных обобщений при работе с научной информацией.

ЧИТАЙТЕ ТАКЖЕ:





ПОМЕЧЕНО:значимостьнаучныхоткрытийпреувеличиваютрегулярночат-боты
Комментариев нет Комментариев нет

Добавить комментарий Отменить ответ

Ваш адрес email не будет опубликован. Обязательные поля помечены *

ЛУЧШИЕ НОВОСТИ


СВЕЖИЕ НОВОСТИ

Полковник Ходаренок раскритиковал защиту объектов ТЭК в России
Общество
«Кузьмичи» против «ждунов»: начнут ли ветераны СВО зачистку антироссийских элементов
Политика
«Чтобы никто не заметил»: Седокова оправдалась за откровенные образы
Шоу-бизнес
Осинькин рассказал о лечении Пиняева
Спорт
Когда и откуда появится преемник Путина, рассказал экономист Хазин
Политика
Эксперт Судзуки: Япония скорее спишет РСЗО M270 и гаубицы, чем передаст Украине
Политика
Белый дом сообщил об отказе США обсуждать возможную поддержку действий Украины в адрес Крыма
Политика
Михаил Боярский о романе Заворотнюк и Жигунова: «Эта история не так волшебна»
Шоу-бизнес
ГИБДД начала снимать с госрегистрации машины с поддельным техосмотром
Авто

Читайте также:

Технологии

Робота отправили в канализацию для поиска поврежденных труб

13.08.2024
Технологии

Два крупных холодных фронта обнаружили в скоплении галактик Abell 3558

13.09.2023
Технологии

Мощные ударные волны сотрясают нити космической паутины

20.02.2023

У iPhone 17 Pro Max и iPhone Air нашли баг в камере

18.09.2025
Подписывайтесь на нас
Welcome Back!

Sign in to your account

Username or Email Address
Password

Забыли пароль?