Выбирай : Покупай : Используй

Вход для партнеров

Вход для продавцов

0

Можно ли доверять нейросетевому доктору или консультанту в 2024 году

Нейросети сейчас используются в различных областях, включая медицину, сферы услуг, финансов и другие. ИИ помогает быстрее и точнее диагностировать заболевания, разрабатывать новые лекарства и методы лечения, дает ценные финансовые и другие советы. Звучит идеально, однако редакция ZOOM.CNews разбирается, насколько можно доверять нейросетям собственное здоровье, бюджет или бизнес.
Содержание:
Можно ли доверять нейросетевому доктору или консультанту в 2024 году
Можно ли доверять нейросетевому доктору или консультанту в 2024 году
Версия для печати

Мы уже достаточно легко доверяем ИИ создание изображений, текстов и отчасти — даже управление автомобилем. В банках первичные решения о выдаче кредитов и их условиях тоже часто принимает ИИ. Однако люди пока не готовы к тому, что нейросеть начнет их лечить или оказывать консультационные услуги, касающиеся важных сфер жизни. В этой статье мы разберем возможность доверия ИИ в ответственных областях на примере медицины — все же в этой сфере искусственный интеллект используется уже довольно часто. Но насколько можно на него положиться?

В медицине искусственный интеллект применяют при диагностике заболеваний: он анализирует медицинские данные пациентов (снимки, МРТ, КТ, анализы) и выявляет признаки заболеваний, которые могут быть пропущены доктором-человеком. Это помогает врачам быстрее и точнее поставить диагноз.


Нейросети могут быть задействованы для разработки новых лекарств и методов лечения благодаря способности проводить анализ больших объемов данных о пациентах, их состоянии, применяемых при лечении процедурах и медикаментах и находить новые связи и закономерности. Также нейросети активно используются для автоматизации рутинных задач, таких как заполнение медицинских карт, обработка результатов лабораторных исследований, улучшение качества рентгеновских снимков. Это может помочь людям сэкономить время и сосредоточиться на более сложных задачах.

Этика использования ИИ

В первую очередь, использование нейросетей поднимает целый ряд этических вопросов. Ведь они тоже могут ошибаться, особенно если работают с неполными или неправильными данными. Кто несет ответственность за здоровье и жизнь пациента, если речь идет о медицине? Конечно, медицинский работник, врач. Только человек может принять окончательное решение, искусственный интеллект в случае с медициной — третье мнение: врач, консилиум, ИИ.

Например, в Москве действует система поддержки принятия врачебных решений, интегрированная в ЕМИАС (Единую медицинскую информационно-аналитическую систему). Согласно официальным данным, с 2020 по 2023 год этот «ассистент врача» помог поставить более 12 миллионов предварительных диагнозов. Его точность — 87%. Окончательно решение о постановке диагноза остается за лечащим врачом.


Еще один этический вопрос связан с возможным сокращением работников. Многие опасаются,что использование нейросетей может привести к потере рабочих мест. Некоторые задачи, которые раньше выполняли люди, теперь автоматизированы: в медицине это анализ снимков рентгена, КТ, МРТ и данных лабораторных исследований, заполнение медицинских карт и документов и так далее. 

Однако на нынешнем этапе развития технологий без человека нельзя обойтись. Но в будущем использование нейросетей может изменить некоторые роли человека в системе. Вместо того, чтобы выполнять рутинные задачи, некоторые работники могут стать консультантами, которые анализируют результаты, полученные с помощью нейросетей, и принимают решения на основе этих результатов. 

Кроме того, не будем забывать про эмпатию, которой нет и не может быть у искусственного интеллекта. Так, в медицине каждый пациент индивидуален, и даже сообщение ему диагноза требует особого подхода, а на это способен только человек.

ИИ должно быть просто использовать

Нейросети должны уменьшать нагрузку на человека, потому пользовательский интерфейс должен быть интуитивно понятным и удобным, чтобы обеспечить максимальную эффективность и точность анализа данных. В противном случае, вместо экономии времени и ресурсов, специалистам придется разбираться в работе приложения и проходить дополнительное обучение.


Особую сложность это может представлять для людей старшего поколения, опытных, но не настолько продвинутых пользователей новых технологий. 

Потому разработчики программного обеспечения стараются сделать интерфейс максимально лаконичным и понятным. Например, врачу достаточно ввести жалобы пациенты, выявленные при первичном осмотре, а нейросетевая модель самостоятельно ищет наиболее подходящие диагнозы, сравнивая введенные данные с анамнезами пациентов из своей базы. В итоге ИИ выдает вероятные диагнозы. В частности, так работает сервис SBER MED AI ТОП-3. Система выдает 3 наиболее вероятных диагнозов из 265 групп по МКБ-10. Врачу остается принять окончательное решение, согласившись с ИИ или нет.

Опасность ошибки

Точность диагноза, поставленного с помощью нейросети в медицине, или совета, который дал финансовый консультант, может быть высокой, но она не обладает 100% точностью. 

Важно помнить, что нейросеть — это инструмент, который может помочь специалистам, но не заменяет их ни в коем случае. Кроме того, достоверность ответов нейросети во многом зависит не только от самих алгоритмов, но и от качества информации, которую ИИ получает в качестве входных данных, а также от примеров, на которых модель обучалась.

На любом этапе могут закрасться ошибки. Если данные неполные, неправильные или не репрезентативные, точность ответа либо постановки диагноза может быть снижена.


Очень важно не полагаться слепо на ответы нейросети. Но проблема заключается в том, что чем «умнее» и точнее становится алгоритм, тем больше человек склонен ему доверять.

Кроме того, нейросети могут совершать ошибки, особенно если при обучении были допущены ошибки. Например, если нейросеть обучается на медицинских изображениях, которые содержат признаки рака, но некоторые из этих изображений на самом деле чистые, то нейросеть может начать видеть признаки рака там, где их на самом деле нет, что приведет к постановке неправильного диагноза.

Галлюцинации нейросетей

Исследователи ИИ обнаружили, что иногда случаются галлюцинации нейросети — она начинает вести себя самопроизвольно без всяких на то причин. Соответственно, и результаты ее работы становятся непредсказуемыми. 

Например, в медицине нейросети могут галлюцинировать, изменяя какие-то детали при реконструкции изображения, тем самым вводя медиков в заблуждение. Ученые из Smart Engines и Первого московского государственного медицинского университета им. И. М. Сеченова в ходе совместного исследования обнаружили, что искусственный интеллект может иногда дорисовывать несуществующие опухоли и другие признаки тяжелых болезней на снимках компьютерной томографии. Например, нейросети могут ошибочно выявлять у людей, переболевших коронавирусом, поражения организма, которых на самом деле нет. 


Решить эту проблему в будущем должны специальные критерии и правила, дополнительные инструменты контроля, не разрешающие ИИ ничего изменять на изображении, а лишь увеличивать его разрешение. Также возможно, избежать этого поможет создание системы мотивации ИИ за правильные ответы, но пока галлюцинации нейросети могут привести к плачевному исходу.

Проблема безопасности данных

С одной стороны, нейросети ускоряют многие процессы: выдачи кредитов, приема пациентов и постановки диагноза, сокращают затраты на бумажную работу и т.д. Алгоритмы ИИ могут обрабатывать и анализировать информацию, включая персональные данные, медицинские изображения, результаты лабораторных исследований и другую конфиденциальную информацию. Поэтому важно обеспечить их защиту, предотвратить несанкционированный доступ к ним или их использование без ведома клиента либо пациента. Но хакеры нередко крадут личные данные людей, получая доступ к базам данных.


К сожалению, зачастую сами разработчики подрывают доверие к себе, используя без предупреждения данные для обучения нейросетей. Так, еще в 2017 году в Великобритании разразился скандал из-за незаконного использования персональных данных 1,6 млн. человек лабораторией Google DeepMind, которая занималась разработкой приложения, предупреждающего врачей о возможном возникновении почечной недостаточности у пациентов.

Нейросети и боязнь нового

Использование нейросетей может вызывать боязнь нового у некоторых людей. Это связано с тем, что нейросети являются сложной и не всегда понятной технологией, которая может быть непредсказуемой и вызывать опасения. Новое всегда пугает — такова природа человека.


Например, в медицине некоторые пациенты могут попросту перестать обращаться к врачам из-за недоверия к новым технологиям. Кроме того, использование нейросетей может вызвать опасения у некоторых медиков, которые будут полагать, что из-за ИИ они могут потерять контроль над процессом диагностики и лечения и при этом будут нести ответственность за его ошибки.

Подводим итоги

Использование нейросетей в ответственных сферах имеет как преимущества, так и недостатки. Нейросети могут помочь врачам быстрее и точнее поставить диагноз. ИИ может дать качественный финансовый совет, описать инвестиционную стратегию и обработать огромные массивы данных с финансовыми отчетами. Но нейросети могут ошибаться, и люди должны быть готовы взять на себя ответственность, не доверяя слепо ИИ

Использование нейросетей может изменить роль человека в системе, снизив на него нагрузку и в какой-то мере превратив его в консультанта, анализирующего данные, полученные от нейросетевого помощника. Важно продолжать исследования и разработки в этой области, чтобы в будущем минимизировать риски и расширить область применения искусственного интеллекта.

Версия для печати