Мы даже не задумываемся, что в современных чат-ботах вроде ChatGPT есть свои настройки безопасности. Но так было не всегда, и в 2016 году Microsoft запустила экспериментального бота Tay AI, который буквально за сутки заставил всех потерять веру в искусственный интеллект. Каким был этот чат-бот и что привело к его экстренному отключению?
Чат-бот на базе ИИ Tay AI был разработан специально для взаимодействия в популярной соцсети и запущен 23 марта 2016 года. Он был рассчитан на аудиторию возрастом от 18 до 24 лет. Создатели посчитали, что бот будет хорошим развлечением для пользователей, а также поможет изучить, насколько хорошо ИИ понимает разговорную речь.
Проблема оказалась в том, что по сути люди могли обучать бота в реальном времени, предоставляя ему информацию. Практически с первых минут запуска Tay AI пользователи начали «скармливать» ему ложные данные, оскорбительные выражения и дискриминационные идеи. Всем было интересно, как далеко при этом может зайти бот.
В итоге всего за несколько часов Tay AI прошел путь от сообщения «Я люблю людей» до призывов к расовой ненависти, а также начал публиковать оскорбления. Microsoft была вынуждена отключить бота и принести извинения пользователям.
Однако ситуация с Tay AI оказалась весьма поучительной и заставила разработчиков чат-ботов понять несколько важных вещей.
1. Чат-боты – как дети, их нельзя оставлять без присмотра
Даже современные модели требуют постоянной корректировки со стороны разработчиков. ИИ пока не настолько самостоятелен, и Tay AI — лучший пример этого.
2. Люди склонны проверять новые технологии на прочность
Современные боты обучены отличать откровенно ложную информацию от правдивой. Да, тут имеются нюансы, но есть и грань, которую ChatGPT, Bing AI, да и любой другой бот просто не перейдут.
3. Обучать модели ИИ, используя реальные разговоры людей – плохая идея
Кто из нас не был порой в ужасе от грубости и необразованности людей в интернете? Вот и на Tay AI это произвело неизгладимое впечатление.
Сейчас для обучения распознавания разговорной речи используются другие способы. Правда, разработчики вроде Open AI не склонны рассказывать, какие именно.
4. ИИ не может отличить хорошее от плохого
У искусственного интеллекта нет понятия добра и зла, а есть только информация. Люди способны интуитивно определять, что хорошо, а что плохо, но нейросеть так не может – даже если она проходит тесты Теории разума.
5. Нейросеть не понимает иронию и сарказм
Даже современный ИИ, который гораздо лучше имитирует наличие интуиции, плохо распознаёт сарказм и образные выражения в речи. В 2016 году ситуация была хуже, и Tay AI вообще не был способен на такое.
6. ИИ должен быть запрограммирован на отклонение вредоносных запросов
Все, что происходит с чат-ботом, остается в чат-боте. По сути, ИИ постоянно самообучается в процессе общения с людьми. А потому ему нужны достаточно жесткие фильтры дезинформации.
И кстати, даже сейчас пользователи ухитряются найти лингвистические лазейки, например, в ChatGPT, и заставляют нейросеть выдавать неадекватные результаты.