Выбирай : Покупай : Используй

Вход для партнеров

Вход для продавцов

0

Почему компании закрывают сотрудникам доступ к чат-ботам?

Несмотря на впечатляющие возможности искусственного интеллекта, уже несколько крупных компаний запретило своим сотрудникам использовать чат-ботов на рабочем месте. Почему так происходит и что стоит за этими запретами?

В мае 2023 года Samsung запретила использование ChatGPT и других инструментов генеративного ИИ. Затем, в июне, Amazon, Apple, JPMorgan Chase & Co., Bank of America и Citigroup последовали этому примеру. Некоторые юридические компании и государственные учреждения в мире тоже запретили своим сотрудникам использовать ChatGPT, и для этого есть свои причины.

1. Утечки данных

Нейросеть требует большого объема данных для обучения и эффективной работы. Согласно странице справки OpenAI , каждая часть данных, включая личную информацию пользователей, коммерческую тайну и конфиденциальную деловую информацию, которую вы передаете чат-боту, подлежит проверке его тренерами, которые могут использовать полученные данные для улучшения системы.

Кроме того, OpenAI не предлагает никакой надежной защиты данных и гарантии конфиденциальности. В марте 2023 года компания даже подтвердила существование ошибки, позволяющей некоторым пользователям просматривать заголовки чатов других активных пользователей. Хотя эта ошибка была исправлена, все же нет гарантии, что пользовательские данные будут конфиденциальны.

Многие компании предпочитают ограничивать сотрудников в использовании чат-ботов, чтобы избежать утечек данных, которые могут нанести ущерб их репутации, привести к финансовым потерям и подвергнуть риску клиентов и работников.

2. Риски кибербезопасности

Хотя неясно, действительно ли генеративный ИИ подвержен рискам кибербезопасности, есть вероятность, что использование чат-бота в компании может привести к потенциальным уязвимостям, которыми могут воспользоваться хакеры, например, внедрить вредоносные коды. 

Кроме того, способность ChatGPT генерировать ответы, подобные человеческим, является просто находкой для фишинга. Ведь так можно получить доступ к учетной записи или выдать себя за представителя компании, чтобы обманом заставить кого-либо поделиться конфиденциальной информацией.

3. Создание персонализированных чат-ботов

Несмотря на свои инновационные функции, ChatGPT может предоставлять ложную и вводящую в заблуждение информацию. В результате многие компании создали чат-ботов с искусственным интеллектом для рабочих целей. Например, Commonwealth Bank of Australia попросил своих сотрудников вместо ChatGPT использовать Gen.ai — тоже чат-бот с ИИ, но задействующий информацию самого банка для ответов.

Соответственно, с помощью внутренних чат-ботов можно предотвратить юридические и репутационные последствия, связанные с неправильным обращением с данными.

4. Отсутствие регулирования

В отраслях, где компании подпадают под действие нормативных протоколов и законов, отсутствие правовой регуляции чат-ботов небезопасно. Без четких норм, регулирующих использование чат-ботов, компании могут столкнуться с серьезными юридическими последствиями при использовании их для каких-либо действий.

Потому компании опасаются потенциального нарушения законов, касающихся конфиденциальности, а также отраслевых норм.

5. Безответственное использование сотрудниками

Сотрудники могут полагаться исключительно на ответы чат-бота для создания контента и выполнения своих обязанностей. Это, в свою очередь, препятствует их развитию, а также внедрению инноваций.

Зависимость от ИИ может помешать способности мыслить критически, а также способна подорвать доверие к компании, поскольку чат-боты часто предоставляют неточные и недостоверные данные.

А использование нейросетей для решения сложных запросов, требующих специальных знаний в области, может нанести ущерб работе компании и ее эффективности.