Не доверяйте все секреты ChatGPT
Лента новостей
Случаи, когда сотрудники прогоняли корпоративную информацию через нейросети для получения рабочего результата, уже не так редки. По словам экспертов, они просто не учитывали, что искусственный интеллект обязательно использует любую информацию для улучшения своей работы, в том числе, и секретную
По данным прессы, корейская компания Samsung обнаружила утечку данных, в результате которой закрытая информация, включая протоколы совещаний и данные о производительности и продуктивности производственных мощностей, попала в ChatGPT. Насколько серьезной и распространенной может быть эта проблема?
Сообщается, что многие работники корейской компании доверились ChatGPT, забыв, что этот инструмент также записывает данные, чтобы использовать их для собственного дальнейшего развития. Например, в одном случае сотрудник ввел конфиденциальные тестовые шаблоны, предназначенные для выявления неисправности чипов, а затем оптимизировал их. В другом случае сотрудник использовал другую нейросеть — Naver Clova для преобразования аудиозаписи совещания в текстовой документ, а затем отправил его в ChatGPT для подготовки презентации.
И Samsung в этом плане не одинок. Исследование, проведенное фирмой по кибербезопасности Cyberhaven, показывает, что десятки тысяч сотрудников разных компаний передали конфиденциальную корпоративную информацию чат-боту, разработанному принадлежащей Microsoft компанией OpenAI. По всей видимости, они забывают, что речь идет не о привычной компьютерной программе, а о чем-то большем, говорит управляющий RTM Group, эксперт в области информационной безопасности и права в ИТ Евгений Царев:
Евгений Царев управляющий RTM Group, эксперт в области информационной безопасности и права в ИТ «Это обучаемые системы на тех данных, которые предоставляют в том числе и пользователи. В этом ее логика. Соответственно, если вы какие-то данные ей предоставляете, то 100% они будут использованы для того, чтобы улучшать систему в дальнейшем. По большому счету она не собирает данные, она их использует для того, чтобы улучшить свои последующие ответы. Это вопрос на самом деле к сотрудникам. Либо они не понимают принципа машинного обучения, либо они делали это в какой-то степени неосознанно. Это вот то же самое, как мы обучаем ребенка: мы даем ему какой-то объем информации, глупо думать, что он не будет воспроизводить наши собственные слова. То есть если мы ругаемся дома, то и он будет ругаться, если мы говорим вежливо, и он будет говорить вежливо. Мы, допустим, у себя в компании внесли в соответствующий документ фразу о том, что передавать данные ИИ нельзя».
С юридической точки зрения, особенностью ситуации является то, что на ИИ не распространяется законы о профессиональной и иной тайне. Именно поэтому компания OpenAI специально предостерегает пользователей от передачи ChatGPT конфиденциальной информации, поскольку она не может ее удалить. Комментирует советник юридической фирмы Lidings Дмитрий Кириллов:
Дмитрий Кириллов советник юридической фирмы Lidings «Это пример того, что технология у нас обогнала правовое регулирование, и сейчас регуляторам придется догонять и формировать какую-то позицию. Она может быть сформулирована на уровне государств или каких-то наднациональных объединений для регулирования подобного рода информационных систем и ПО. Все боятся открыть ящик Пандоры: если это вообще не регулировать, то технологический гений может действительно в какой-то момент ей навредить человечеству — но может и принести огромную пользу. Из общих принципов построения трудовых отношений можно предположить, что такое действие (загрузка конфиденциальной информации в ChatGPT) является нарушением. Когда информация направляется работником в стороннюю базу данных, она оказывается вне контроля компании-работодателя и это достаточно часто признают нарушением безопасности».
Если вернуться к инциденту с Samsung, то чтобы избежать подобных инцидентов, компания планирует разработать в будущем для внутреннего использования собственный сервис подобный ChatGPT. Пока же компания ограничила длину запросов, отправляемых в существующий чат-бот до 1024 байт. Проще говоря, до тысячи букв, так как одна буква кодируется одним байтом информации. Наконец, если станет известно о дальнейших нарушениях, Samsung предполагает просто заблокировать доступ к ChatGPT.