С тех пор как ChatGPT покорил мир, компании, и в частности специалисты в области интеллектуальной собственности, изо всех сил пытаются выяснить, какую угрозу ИИ представляет для коммерческой тайны и какие шаги необходимо предпринять для смягчения последствий потенциально катастрофических утечек.
Джеймс Пули — бывший заместитель генерального директора Всемирной организации интеллектуальной собственности (ВОИС). Он, будучи свидетелем рождения Силиконовой долины в начале 1970-х годов, представлял интересы клиентов в сотнях коммерческих споров, связанных с коммерческой тайной, патентами и технологиями. И даже он считает, что еще слишком рано оценивать влияние ИИ на защиту коммерческой тайны.
«Когда мы впервые получили Интернет 30 лет назад, все сильно изменилось с точки зрения управления рисками — поскольку все, что компании делают с коммерческой тайной, связано с управлением рисками. Большой вопрос заключается в том, является ли это новым классом риска или вариация на старые темы, над которыми мы работали раньше ?» — размышляет он.
Какими бы ни были долгосрочные последствия, в настоящее время компании отстают в понимании рисков и конфиденциальности, связанных с использованием ChatGPT и других инструментов искусственного интеллекта. А должным образом они не объясняют это сотрудникам.
Положения и условия соглашения при работе с языковыми моделями влекут за собой предоставление владельцам программы права использовать данные, введенные при обучении модели.
Это означает, что если вы вводите то, что на самом деле защищено, будь то конфиденциальная информация вашей компании, коммерческая тайна или даже исходный код, который может быть защищен авторским правом, то эта информация уходит из вашей организации. А теперь ее можно использовать для обучения модели.
Хуже того, информацию, которую вы использовали, могут читать другие люди. Если вы читаете часто задаваемые вопросы на сайте OpenAI, вы увидите, что на самом деле разговоры могут просматриваться ИИ инструкторами.
Удаление тоже не вариант. Что касается возможности удаления определенных разговоров (называемых «промптами» или «подсказками» на жаргоне ИИ), ответ в часто задаваемых вопроса: «Нет, мы не можем удалить определенные подсказки из вашей истории. Пожалуйста, не делитесь конфиденциальной информацией в своих разговорах».
Компаниям необходимо срочно информировать сотрудников о том, как использовать эти общедоступные инструменты ИИ.
Как реагируют компании
Наблюдается тенденция к тому, что руководители компаний становятся более бдительными и активными в обновлении своей политики в отношении коммерческой тайны, полностью запрещая ИИ. Это произошло недавно, когда JPMorgan и Samsung ввели полный запрет на использование ChatGPT для своих сотрудников, чтобы предотвратить утечку конфиденциальной информации.
Такой радикальный подход понятен. Мы видели новости о Samsung и о том, что с ними происходит, когда люди вводят в бот довольно конфиденциальные вещи, такие как внутренние заметки о встречах, исходный код, а затем и базы данных. Серьезности нарушения и скандальные заголовки, рассказывающие об утечке, подталкивают компании выйти из состояния инерции.
Теперь фирмы обучают своих сотрудников и повышают осведомленность о проблемах защиты данных при использовании ChatGPT. Руководитель отдела интеллектуальной собственности и патентов одной американской робототехнической компании проводит оценку рисков для каждого инструмента ИИ вместе со своей командой. А потом предоставляет соответствующие рекомендации своим инженерам: обучает их тому, что было бы уместно использовать в работе с ИИ, а что нет.
Чтобы наилучшим образом защитить коммерческую тайну, может потребоваться двойной подход: индивидуальное законодательство и внутренняя политика, разработанная компаниями.
Суть в том, что сотрудники понимают пределы дозволенного, и тогда законы придают вес корпоративной политике. Двойной регламент — это лучший способ научить сотрудника безопасно использовать инструменты ИИ.
Европейский Союз уже три года пытается разработать законодательную базу для правового регулирование искуственного интеллекта. Было много дебатов о том, что следует защищать или менять. А новая волна популярности ботов, новые разработки в этой сфере означают, что нужно действительно разработать законы как можно быстрее.
Но даже при всех проблемах безопасности, связанных с появлением ИИ, эксперты не считает это фундаментальной проблемой. В отрасль интеллектуальной собственности придут перемены. Наихудшей ошибкой было бы не воспринимать появление ChatGPT и конкурирующих с ним моделей серьезно, а потом проснуться через пять лет и остаться не у дел. ИИ — это скорее возможность, чем угроза.