Выбирай : Покупай : Используй
0

Just AI запускает инструменты для защиты персональных данных при работе с генеративным ИИ

Компания Just AI представляет Jay DataGuard — систему маскирования и фильтрации чувствительных данных, необходимую для...

Компания Just AI представляет Jay DataGuard — систему маскирования и фильтрации чувствительных данных, необходимую для безопасной работы с большими языковыми моделями, подобными ChatGPT, Gemini, YandexGPT, GigaChat. Для хостинга и дообучения собственных LLM-моделей, а также доступа к генеративным моделям через API компания-разработчик анонсирует запуск собственной ML-платформы Caila. Об этом CNews сообщили представители Just AI.

Анонс большой языковой модели Gemini компанией Google, которая превосходит GPT-4 от OpenAI в 30 из 32 тестов, еще раз подчеркивает высокую динамику развития технологий генеративного ИИ и делает еще более острым вопрос о защите персональных данных, отправляемых людьми и организациями в дата-центры крупнейших ИT-корпораций.

Последние исследования в этой области показывают, что около 43% сотрудников используют ChatGPT на работе, а 4,7% — передают в ChatGPT конфиденциальную информацию. Невозможно предугадать, что произойдет с чувствительными данными дальше — так, например, исходные коды разработчиков Samsung из ChatGPT утекли в сеть, а работники Amazon начали замечать в ответах нейросети фрагменты корпоративной информации компании. Согласно зарубежным опросам 93% компаний осознают риски, связанные с использованием генеративного ИИ и всего 9% считают себя подготовленными к работе с такими угрозами безопасности данных компании.

Как правило, самые мощные российские и международные модели доступны исключительно из облаков их разработчиков, что не всегда безопасно для персональных данных, с которыми работают компании-заказчики, например, банки. Устранить угрозу можно двумя способами — развернуть локальную языковую модель в закрытом дата-центре компании или поставить в этот дата-центр шлюз, анализирующий данные и заменяющий все чувствительные данные на вымышленные, сохраняя при этом их семантическую целостность.

Jay DataGuard позволяет компаниям настроить параметры замены данных на основе собственных политик безопасности, интегрировать их со своими клиентскими базами данных и использовать заранее заготовленные пресеты. В результате все данные, уходящие из закрытого контура компаний во внешние LLM, анонимизируются и отправляются в безопасном виде. При этом сохраняется семантическая связанность, контекст сессий, и после ответа LLM исходные данные восстанавливаются системой. Jay DataGuard может работать в связке с Jay Copilot, инструментом для работы сотрудников компаний с нейросетями и приложениями на их основе. Оба продукта Just AI могут быть развернуты в защищенном контуре компаний, исключая утечку персональных данных во внешние LLM.

«Вопрос безопасности использования LLM особенно актуален в свете последних разработок мировых и российских лидеров, таких как Gemini, GPT-4 Turbo или YandexGPT 2, так как модели подобного уровня недоступны в контуре компаний, при этом ряд прикладных задач бизнеса может быть решен только на их основе. Мы уверены, что представленные инструменты помогут бизнесу максимально быстро и безопасно внедрять в свою работу новейшие технологии генеративного ИИ», — сказала Юлия Пивоварова, операционный директор Just AI.

Платформа Caila, в свою очередь, позволяет получать доступ к последним генеративным моделям через единый API, разворачивать и дообучать собственные модели, создавать на основе моделей сервисы и дообучать LLM. Находясь в защищенном облаке Just AI или on-premise, Caila берет на себя задачи по выделению серверов для работы и дообучению моделей, распределению и балансировке нагрузки. В систему можно загружать собственные модели и обучающие датасеты, производить дообучение моделей, использовать в собственных проектах, либо делать их доступными для сторонних пользователей, в том числе и на платной основе.

«Одним из драйверов роста использования генеративного ИИ является повышение доступности этого инструмента. Очень важно, чтобы одновременно с доступностью соблюдался и высокий уровень безопасности данных. Внедрение инструментов, подобных DataGuard, — это не просто следование трендам, это необходимость, обеспечивающая сохранность чувствительной информации», — сказал заместитель председателя правления Совкомбанка Альберт Борис.

***

Разработки Just AI в области conversational AI, машинного обучения и понимания естественного языка начались в 2011 г. в рамках группы компаний i-Free. Сегодня NLU-платформа Just AI используется в проектах компаний «Мегафон», Tikkurila, Papa Johns, «Ренессанс страхование», Ozon.travel, «Балтика», HeadHunter и многих других. На платформе для разработки разговорных навыков и интеллектуальных ботов Aimylogic зарегистрированы более 15 тыс. девелоперов. В области голосовых ассистентов и контента для них Just AI сотрудничает с Google, «Яндекс», а также с производителями умных устройств — Roobo, NotAnotherOne, Cinemood, Mishka AI, Elari. Основной инженерный офис находится в Санкт-Петербурге и насчитывает более 100 высококвалифицированных специалистов — экспертов в области компьютерной лингвистики, машинного обучения, дизайна разговорного UX, разработки программного обеспечения.

Комментарии