ChatGPT больше не будет расшифровывать анализы и давать юридические советы
1 ноября. ПРАВМИР. Компания OpenAI изменила правила использования ChatGPT, запретив языковой модели давать медицинские и юридические советы.
Теперь нейросеть может лишь предоставлять общую справочную информацию и настоятельно рекомендует обращаться к врачам или юристам по любым личным вопросам.
Согласно обновленной политике, ChatGPT больше не анализирует визуальные данные — снимки рентгена и МРТ, а также фотографии кожи. Кроме того, сервис больше не создает юридические документы и не помогает с составлением договоров или исков.
Эти ограничения введены для снижения правовых рисков и предотвращения ошибок в критически важных сферах, где цена неверного совета может быть слишком высокой.
Новость вызвала неоднозначную реакцию пользователей. Многие поддержали решение OpenAI, отмечая, что использование искусственного интеллекта для постановки диагнозов или правовых консультаций всегда было рискованным. Другие, напротив, выразили разочарование:
«Жаль, что больше нельзя проверить симптомы перед походом к врачу, хоть и понимал, что это не замена», — поделился один из пользователей.
Ранее OpenAI объявила о новых мерах безопасности в ChatGPT — в языковой модели появились функции родительского контроля.
Родители смогут связывать свои аккаунты с аккаунтами подростков, отключать отдельные функции (например, память и историю чатов), а также получать уведомления, если система зафиксирует у ребенка признаки «острого эмоционального кризиса».
Нововведение появилось после судебного иска, связанного с трагическим случаем в США.
Родители 16-летнего школьника из Калифорнии заявили, что их сын пользовался чат-ботом как «психологом» и именно там обсуждал свои тревоги перед тем, как покончить с собой.