ChatGPT по-прежнему даёт медицинские и юридические консультации — OpenAI лишь уточнила формулировки в правилах
OpenAI обновила условия использования ChatGPT, запретив выдачу лицензируемых советов без участия сертифицированных специалистов. Однако это не изменило поведение модели: она продолжает отвечать на вопросы о лечении, диагностике и правовых сценариях, но не ставит диагнозы и не заменяет адвоката. Правила не ограничили функциональность — они уточнили рамки ответственности.
OpenAI ввела уточнения в правила пользования сервисом, касающиеся выдачи медицинских и юридических рекомендаций. Согласно обновлённым условиям, действующим с 29 октября 2025 года, запрещено «предоставление адресных советов, требующих лицензии, без участия лицензированного специалиста». Также прямо указано, что продукты компании «не предназначены для диагностики или лечения заболеваний».
Однако эти изменения не привели к фактической блокировке соответствующих запросов. Как подтвердил руководитель направления Health AI в OpenAI Каран Сингхал, поведение модели не изменилось: ChatGPT по-прежнему может объяснять, как работает инсулин, какие бывают виды операций при грыже, как подавать апелляцию или что такое уголовная ответственность за клевету. При этом он не будет:
— подбирать дозировки лекарств;
— ставить точный диагноз по симптомам;
— читать заключения МРТ или КТ;
— составлять защитную речь или судебные ходатайства под конкретное дело.

В таких случаях модель предлагает обратиться к врачу, юристу или другому лицензированному специалисту, который несёт юридическую и профессиональную ответственность за свои действия.

Изменения в правилах — не реакция на изменение работы ИИ, а попытка четко определить зону его применения. OpenAI не исключает использование модели врачами и юристами как инструмент для второго мнения, анализа данных или подготовки материалов, но подчёркивает: окончательное решение должен принимать человек.

На практике пользователи могут получать развернутые консультации, если формулируют запросы в нейтральном ключе. Например, указание в промпте, что пользователь — врач, студент-медик или юрист, проходящий стажировку, позволяет системе снижать уровень фильтрации. Это связано с тем, что такие сценарии не считаются "клиническими" или "судебными", а относятся к обучению.

Система также отказывается анализировать фото кожных покровов, рентгеновские снимки или данные ЭКГ — это считается диагностической деятельностью. Аналогично, нельзя использовать ChatGPT для формирования официальных юридических документов, которые будут представлены в суд.

Технология остаётся инструментом информационной поддержки, а не заменой эксперта. Она полезна для:
— первичного поиска информации;
— объяснения сложных понятий простым языком;
— структурирования знаний;
— подготовки к консультации со специалистом.

Новые правила не меняют технические возможности модели — они создают юридический барьер, защищающий OpenAI от претензий. В то же время компания сохраняет ценность продукта для пользователей, которым важно получить доступ к качественной информации — даже если она не является решением.

Пока ИИ не может быть лицензирован как врач или юрист, границы остаются условными. Ответственность за применение рекомендаций — полностью на пользователе.
© 03.11.2025
Контакты:
info@smartinfra.ru
105118, г. Москва,
ул. Буракова, 27 к3,
3 этаж, офис 322

© 2025