Компания – разработчик OpenAI опровергла слухи о запрете ChatGPT давать медицинские и юридические советы. Ранее СМИ сообщали о том, что пользователи более не смогут получать от нейросети консультации по этим двум вопросам. Почему не стоит лечиться по советам искусственного интеллекта в беседе с Авторадио объяснил кандидат медицинских наук, эксперт в области искусственного интеллекта и цифровизации медицины Кирилл Атрошкин:

"Нейросети – это математическая модель, которая в наиболее распространенном варианте рассчитывает последовательность символов в ответе, исходя из контекста, заданного пользователем и набором данных, на которых она обучена. Да, это может выглядеть логично, структурированно, но с точки зрения медицинской науки оказаться полной бессмыслицей, так называемой галлюцинацией нейросети. Последствия – это неправильное лечение, ухудшение здоровья, упущенное время или пропущенное серьезное заболевание. Поставить правильные диагнозы назначить лечение может только врач". 

Однако, по словам эксперта, в самой медицине искусственный интеллект может быть полезен.

"Если и есть кто-то, кто может действительно извлечь пользу из использования искусственного интеллекта в медицине, то это, как ни странно, в первую очередь врач и вместе с ним его пациент. Но только если мы говорим о проверенной, такая нейросеть может значительно упростить и ускорить работу врача. И такой искусственный интеллект он сейчас уже применяется в медицинской практике, например, для анализа изображений".

В России внедряются цифровые системы и ИИ-инструменты в рамках нацпроекта «Цифровое здравоохранение», включая официальное разрешение на использование ИИ в телемедицине.