Главная Новости

Исследование: почти половина медицинских ответов нейросетей содержит ошибки

Хуже всего ИИ разбирается в вопросах питания и спорта
Фото: freepik.com

16 апреля. ПРАВМИР. Ученый из университета в Лос-Анджелесе Николас Тиллер с коллегами из других стран выяснил, насколько опасны медицинские советы нейросетей.

В феврале 2025 года ученые протестировали Gemini, DeepSeek, Meta AI*, ChatGPT и Grok. Ботам задавали вопросы о раке, прививках, питании и спорте. Результаты исследования опубликовал журнал BMJ Open.

Половина ответов оказалась проблемной, а каждый пятый совет эксперты признали потенциально опасным. ИИ при этом отвечал очень уверенно. Из 250 случаев боты отказались давать рекомендации лишь дважды.

Хуже всех с советами справился Grok.

В целом нейросети неплохо знают теорию про рак и вакцины, но постоянно ошибаются в темах питания и фитнеса. Ученые заметили, что боты часто выдумывают цитаты и дают неверные ссылки.

Понять такие тексты трудно, они написаны сухим языком на уровне учащихся средних курсов колледжей.

* принадлежит компании Meta, деятельность которой запрещена в России

Фото: freepik.com

Поскольку вы здесь...
У нас есть небольшая просьба. Эту историю удалось рассказать благодаря поддержке читателей. Даже самое небольшое ежемесячное пожертвование помогает работать редакции и создавать важные материалы для людей.
Сейчас ваша помощь нужна как никогда.
Друзья, Правмир уже много лет вместе с вами. Вся наша команда живет общим делом и призванием - служение людям и возможность сделать мир вокруг добрее и милосерднее!
Такое важное и большое дело можно делать только вместе. Поэтому «Правмир» просит вас о поддержке. Например, 50 рублей в месяц это много или мало? Чашка кофе? Это не так много для семейного бюджета, но это значительная сумма для Правмира.