Выбирай : Покупай : Используй

Вход для партнеров

Вход для продавцов

0

В НИУ ВШЭ разработан инструмент для контроля ИИ-технологий в медицине

Группа исследователей из Центра искусственного интеллекта НИУ ВШЭ разработала индекс для определения уровня...

Группа исследователей из Центра искусственного интеллекта НИУ ВШЭ разработала индекс для определения уровня этичности систем искусственного интеллекта (ИИ) в медицине. Инструмент предназначен для минимизации потенциальных рисков, обеспечения безопасной разработки и внедрения ИИ-технологий в медицинскую практику. Об этом CNews сообщили представители ВШЭ.

Стремительный рост использования ИИ-технологий в различных сферах жизни, в том числе медицине, сопровождается появлением новых рисков, связанных не только с информационной безопасностью, экономическими или социальными вопросами, но и с этическими проблемами. Действующие стандарты и имеющаяся на данный момент регуляторика недостаточно учитывают именно этические аспекты, поэтому возникла необходимость в создании специализированного инструмента для соответствующей оценки ИИ-систем.

Команда проекта «Этическая экспертиза в сфере ИИ» Центра ИИ НИУ ВШЭ провела комплексную работу, состоящую из двух этапов: теоретического и практического. Сначала исследователи на основе анализа большого количества как отечественных, так и международных документов выделили и дали определение ключевых принципов профессиональной медицинской этики. Это автономия, благодеяние, справедливость, ненанесение вреда и забота. После этого было проведено качественное полевое исследование среди врачей и разработчиков ИИ, позволившее конкретизировать эти принципы и дополнить их новыми принципами, используя методику глубинного полуструктурированного интервью.

В результате исследования был создан чат-бот «Индекс этичности систем искусственного интеллекта в медицине», который в режиме 24/7 позволяет проводить процедуру самооценки и получать мгновенную обратную связь от разработчиков индекса. Методика оценки представляет собой тест с вопросами закрытого типа, призванными оценить уровень осведомленности как разработчиков медицинского ИИ, так и самих эксплуатантов ИИ-системы о возможных этических рисках, связанных с разработкой, внедрением и использованием ИИ-систем в медицинских целях.

Новая методика уже апробирована и получила признание ряда ИT-компаний, таких как MeDiCase и Globus IT, специализирующихся на разработке ИИ-решений для медицины. Кроме того, ее одобрила Комиссия по реализации Кодекса этики в сфере искусственного интеллекта и Московское городское научное общество терапевтов.

Дружим с налоговой: как легально проводить операции с криптовалютой в 2024 году в России

«Разработка данного индекса стала важным шагом на пути обеспечения этичного использования ИИ в медицине. Мы надеемся, что наша разработка будет небесполезной для медицинского сообщества, обеспокоенного, как показывают наши исследования, возможными негативными именно этическими последствиями широкого внедрения ИИ в медицинскую практику», — Анастасия Углева, руководитель проекта, профессор, заместитель директора Центра трансфера и управления социально-экономической информацией НИУ ВШЭ

Ожидается, что индекс будет востребован этическими комиссиями, судебно-медицинским экспертным сообществом и другими организациями, ответственными за оценку и сертификацию ИИ. Он также будет способствовать переходу от принципа единоличной ответственности медицинского работника к модели распределенной ответственности всех участников процесса. Внедрение этого индекса поможет сделать использование ИИ более безопасным и соответствующим высоким этическим стандартам.