Выбирай : Покупай : Используй
0

Четверть россиян верят — в будущем нейросети смогут испытывать эмоции

В «Лаборатории Касперского» решили выяснить, как россияне относятся к нейросетям и большим языковым моделям...

В «Лаборатории Касперского» решили выяснить, как россияне относятся к нейросетям и большим языковым моделям (LLM): где уже используют, в каких областях видят перспективы применения, а еще — наделяют ли ИИ-решения человеческими качествами. Вместе с MTS AI специалисты «Лаборатории Касперского» также обратили внимание на вопросы безопасного использования таких решений — сегодня и в будущем. Опрос проведен компанией «Онин» по заказу «Лаборатории Касперского» в 2024 г. в России. Всего опрошено 1,012 тыс. человек. Об этом CNews сообщили представители «Лаборатории Касперского».

Для чего уже применяют. Пользовались инструментами на основе нейросетей как минимум один раз 42% опрошенных россиян. Из них почти половина (46%) ищут с помощью таких сервисов информацию, а 44% — решают рабочие задачи. Значительно меньше (17%) — консультируются на личные темы, 11% составляют резюме, а 9% — план питания.

Могут ли испытывать эмоции. Почти все опрошенные (91%) считают, что сегодня нейросети не способны испытывать чувства. Однако, когда речь заходит о будущем, респонденты уже не столь категоричны. Больше четверти (27%) допускают вероятность того, что через какое-то время нейросети смогут научиться переживать эмоции.

«Использование ИИ — это процесс, который требует определенного уровня цифровой грамотности. Понимание того, как нейросети работают и какие у них есть ограничения, позволит более эффективно и безопасно с ними взаимодействовать. Во-первых, ИИ нельзя предоставлять персональные данные и другую конфиденциальную информацию, например корпоративные проекты, содержащие коммерческую тайну. Для работы с корпоративными данными можно использовать только те чат-боты и большие языковые модели, которые установлены в контуре вашей организации. Во-вторых, генеративные сети не всегда обладают полной информацией и могут основываться на устаревших или ограниченных данных. Даже если нейросети выдают достоверный на первый взгляд результат, важно проверять информацию через независимые источники. Кроме того, ИИ не способен к моральным оценкам или творческим решениям, которые требуют человеческой интуиции. ИИ стоит применять для автоматизации повседневных задач (например, составление расписания, обработка данных), чтобы повысить свою продуктивность, но не возлагайте на нейросети ответственность за важные решения», — сказал Сергей Пономаренко, директор по LLM-продуктам в MTS AI.

Где будут востребованы. По мнению респондентов, активнее всего решения на основе нейросетей, в частности чат-боты, в ближайшие 5-10 лет будут применяться в образовании и ИТ. Так ответил почти каждый третий — 37% и 36% соответственно. Далее идет сфера финансов (33%). В топ-5 также входят маркетинг (30%) и медицина (26%).

«Технологии ИИ, в частности основанные на больших языковых моделях, всё активнее интегрируются в самые разные сферы — от рекламы до медицины. К ИИ-системам, которые используются в критичных сценариях, должны предъявляться высокие с точки зрения надёжности и безопасности требования. Поэтому уже сейчас важно задумываться о том, как их защищать от возможных кибератак. Защита должна быть комплексной: от обеспечения безопасности ML-инфраструктуры до защиты от LLM-специфичных атак, таких как непрямые инъекции затравки при обработке входящих данных. Кроме того, необходимо повышать осведомленность как бизнеса, так и пользователей о потенциальных рисках использования генеративного ИИ, чтобы обеспечить его успешное безопасное внедрение и применение к различным задачам», — сказал Владислав Тушканов, руководитель группы исследований и разработки технологий машинного обучения в «Лаборатории Касперского».

Комментарии