Компания-разработчик ChatGPT изменила правила использования искусственного интеллекта, что делает невозможным медицинские советы и консультации, которые могут быть истолкованы, как профессиональные.

Компания-разработчик OpenAI обновила политику использования ChatGPT, которая подразумевает прекращение консультаций по медицинским вопросам, сообщило издание Financialexpress со ссылкой на Nexta.
Искусственный интеллект перестанет давать советы, которые могут быть истолкованы как профессиональные. Этого требует законодательство ЕС и рекомендации Управления по надзору за качеством пищевых продуктов и медикаментов США. Искусственный интеллект от OpenAI становится «образовательным инструментом», а не «консультантом».
По новым правилам ChatGPT будет разъяснять только принципы, описывать общие механизмы и направлять пользователей к специалистам. ИИ больше не сообщает конкретные названия лекарств и дозировки.
Издание сообщает, что попытки обойти ограничения гипотетически составленным запросом блокируются системой безопасностью ИИ. Компания требует от пользователей «надлежащего использования сервисов, нарушение или несоблюдение правил безопасности может привести к потере доступа».
Компания OpenAI также сообщила, что научила модель лучше распознавать стресс, снижать уровень эскалации разговоров и направлять к специалистам.
Новые алгоритмы и функции помогут вести безопасный «диалог» при проблемах психического здоровья и эмоциональной зависимости от ИИ. Новая модель сократила количество нежелательных ответов, повысила безопасность при длительных разговорах. Разработчики добавили мягкие напоминания о необходимости делать перерывы во время длительных сеансов.
Ранее сообщалось, что на «мыслительные» процессы ИИ отрицательно влияют социальные сети с низким качеством данных. При обучении на контенте, популярном в социальных сетях, ИИ хуже справляется с поиском точной информации и анализом данных. При увеличении бесполезных данных усиливается негативное влияние на логические «процессы».









