UA


UA


Как защитить данные от утечки при использовании AI-сервисов

Стремительное развитие технологий Artificial Intelligence (AI) привлекло к себе много внимания благодаря возможности повысить производительность и эффективность на рабочем месте. Однако это внимание к инновациям в сфере искусственного интеллекта затмило риски, связанные с новыми технологиями. Киберпреступники начинают использовать AI-сервисы, такие как ChatGPT и Google Bard, для разработки атак на организации, а значит, эти сервисы потенциально угрожают кибербезопасности. Поэтому недостаточно просто обсуждать риски, связанные с доступом пользователей к конфиденциальной информации и использованием стороннего искусственного интеллекта – ситуация требует более активных действий.
Хотя многие AI-сервисы утверждают, что не кэшируют и не используют введенные пользователем данные с целью обучения, недавние инциденты, связанные именно с использованием ChatGPT, подсветили уязвимости в системе. Такое положение потенциально может привести к компрометации интеллектуальной собственности компании или поисковых запросов пользователей с ответами, что представляет значительный риск для организаций. Как следствие, вопрос безопасного пользования AI-сервисами встает все более остро для многих современных компаний. Организации должны найти баланс между рисками и преимуществами, связанными с сервисами искусственного интеллекта. А для того, чтобы защитить конфиденциальные данные, нужно внедрять специальные меры.
Чтобы устранить эти риски, организациям следует применять проактивный подход к защите своих конфиденциальных файлов от утечки через AI-сервисы. Например, с помощью решений для предотвращения потери данных (Data Loss Prevention, DLP), которые могут контролировать и защищать информацию на уровне конечных точек и сети. Кроме того, компаниям следует проинформировать своих сотрудников о рисках, связанных с AI-сервисами (как и с любыми другими услугами сторонних разработчиков) и о потенциальных последствиях утечки конфиденциальных данных. Принимая такие меры, организации смогут пользоваться преимуществами AI, одновременно снижая потенциальные риски для своих конфиденциальных данных.

Trellix поможет защитить ваши данные

Новые технологии создают пробелы в системе безопасности, делая организации уязвимыми к случайным или умышленным нарушениям. С развитием технологий компаниям очень важно иметь в наличии адекватные меры безопасности для защиты своих конфиденциальных данных.
Trellix – компания, обеспечивающая эффективную защиту от потенциальных угроз благодаря своему большому опыту в сфере кибербезопасности.
AI-сервисы эффективны в своей работе, что делает их все более привлекательными для пользователей. Вот несколько примеров эксплуатации этих сервисов в повседневных задачах, где может быть потенциальная угроза утечки конфиденциальных данных:
● Сотрудник делает заметки во время совещания о новом продукте, который изменит рынок, или даже расписывает пункты плана действий. Чтобы подготовить их для презентации руководству, сотрудник передает записи в ChatGPT и просит его красиво оформить информацию.● Разработчик программного обеспечения, работающий над ведущим продуктом компании, копирует и вставляет исходный код в ChatGPT, чтобы получить рекомендации по его улучшению.● Инженер копирует и вставляет лог-файлы, отправленные конечным пользователем, в ChatGPT, попросив его написать отчет об анализе первопричины, при этом не удаляя из журнала имена пользователей, IP-адреса и системные имена.
DLP-решения Trellix предназначены для мониторинга и защиты организаций как на уровне конечных точек, так и на уровне сети. Этот комплексный подход гарантирует, что конфиденциальная информация остается в безопасности даже если появляются новые технологии. Благодаря решениям DLP от Trellix организации могут быть уверены, что их ценнейшие данные защищены от потенциальных нарушений безопасности.

Работа с Trellix Data Loss Prevention

Trellix предлагает коллекцию готовых шаблонов с набором правил, которые можно использовать для быстрой установки DLP в любой среде. Хотя эти шаблоны могут не удовлетворить все ваши потребности в DLP, они дают ценные рекомендации по защите данных в вашей среде. В случае AI-сервисов, таких как ChatGPT и Google Bard, представляющих уникальные вызовы для защиты вашей инфраструктуры, создание необходимых правил может быть выполнено в считанные минуты. Это позволит быстро развернуть правила для тестирования, настройки и применения в вашей производственной среде.
Для защиты ваших данных от утечки можно использовать три типа DLP-правил:
● Clipboard Protection: Отслеживает или блокирует использования буфера обмена для копирования конфиденциальных данных● Web Protection: Отслеживает данные, которые публикуются на веб-сайтах● Application Control: Отслеживает или блокирует доступ пользователей к веб-сайтам
Прежде чем создавать и внедрять правила, нужно прописать определения, которые будут в них использоваться. Как пример, в этой статье мы создадим следующие типы определений DLP:
● URL List: Используется для определения правил веб-защиты и критериев классификации цифрового отпечатка веб-контента. Они добавляются в правила и классификации как условия веб-адреса (URL).● Application Template: Управляет определенными программами, используя такие свойства, как название продукта или поставщика, имя исполняемого файла или заголовок окна. Шаблон приложения можно определить для одной программы или группы подобных приложений. Существуют встроенные (предварительно определенные) шаблоны для многих распространенных приложений, таких как Windows Explorer, веб-браузеры, приложения для шифрования и почтовые клиенты.
С консоли Trellix ePolicy Orchestrator (ePO) переходим к DLP Policy Manager | Definitions.

Целевой URL

Выбираем категорию URL List в разделе Source/Destination и создаем новый список URL.
Сосредоточимся на:
● ChatGPT – https://chat.openai.com ● Google Bard – https://bard.google.com ● Bing AI – https://bing.com ● ChatGPT API – https://api.openai.com ● И любую другую LLM, которую вы бы хотели добавить

Illustration

Рис. 1: Определение DLP для URL List

Source Application 

Выбираем категорию Application Template в разделе Source/Destination и создаем новый список приложений.
Сосредоточимся на:

● Visual Studio – devenv.exe● Visual Studio Code – Code.exe

Illustration

Рис. 2: Определение DLP для Application Template

После создания определений вы можете перейти к созданию правил для вашей среды. Сначала создайте новый набор правил, отвечающих вашим требованиям. Это можно сделать в диспетчере DLP Policy Manager под названием «Мониторинг и блокировка GPT‎»‎. Примеры ниже можно рассматривать как руководство для создания правил, которые решат ваши конкретные задачи. Прежде чем разворачивать их в производственной среде, эксперты Trellix настоятельно рекомендуют тщательно протестировать их в контролируемой среде, чтобы внести необходимые коррективы и предотвратить негативное влияние на бизнес-операции.

А. Отчет о пользователях, которые вводят конфиденциальные данные в ChatGPT и другие языковые модели 

1. Создайте новое правило веб-защиты в меню Data Protection Actions | New Rule | Web Protection
2. Условия для правила:

a. Enforced On: Windows and Network DLP
(Примечание: для Mac OS разрешена только отчетность)
b. Classification: Выберите контент, для которого вы хотите заблокировать доступ к URL.
c. End-User: ALL
d. Web Address (URL): Выберите список URL, созданный на предыдущем этапе, то есть GPT URL List
e. Upload Type: ALL

Illustration

Рис. 3: Правило DLP для мониторинга запросов в LLM-системе

B. Блокируйте и подавайте отчет о пользователях, которые копируют конфиденциальные данные в ChatGPT и другие языковые модели

1. Создайте новое правило защиты буфера обмена в меню Data Protection Actions | New Rule | Clipboard Protection2. Условия для правила:
a. Enforced On: Windows(Примечание: для Mac OS разрешена только отчетность)b. Classification: Выберите контент, для которого вы хотите заблокировать доступ к URL.c. End-User: ALL d. Source Application: ALL e. Destination Application: Supported Browsers f. Destination URL: Список URL, созданный на предыдущем этапе, т.е. GPT URL List

Illustration

Рис. 4: Правило DLP для блокировки и отчетности о данных, скопированных в запрос LLM-систем

С. Блокировка и отчет о пользователях, которые копируют конфиденциальные данные из Visual Studio в ChatGPT и другие языковые модели

1. Создайте новое правило защиты буфера обмена в меню Data Protection Actions | New Rule | Clipboard Protection2. Условия для правила:
a. Enforced On: Window(Примечание: для Mac OS разрешена только отчетность)b. Classification: Выберите контент, для которого вы хотите заблокировать доступ к URL.c. End-User: ALL d. Source Application: ALL e. Destination Application: Supported Browsers f. Destination URL: Список URL, созданный на предыдущем этапе, т.е. GPT URL List

Illustration

Рис. 5: Правило DLP для блокировки и отчетности о данных, скопированных из Visual Studio до запросов LLM-систем

D. Блокируйте и сообщайте о пользователях, которые пытаются получить доступ к URL-адресам GPT 

1. Создайте новое правило защиты буфера обмена в меню Data Protection Actions | New Rule | Clipboard Protection2. Условия для правила:
a. End-User: ALL b. Web address (URL): Список URL-адресов, созданный на предыдущем этапе, то есть GPT URL List

Illustration

Рис. 6: Правило DLP для блокировки и отчетности о пользователях, пытающихся получить доступ к URL-адресам GPT

После создания нового набора правил, его можно применять к системам в среде. Однако следует отметить, что эти правила предусматривают наличие в организации программы защиты данных, включая соответствующие классификации, а новые же правила должны быть тщательно протестированы в среде перед окончательной интеграцией в процесс. Чтобы в полной мере воспользоваться преимуществами этих правил и обеспечить безопасность конфиденциальных данных, компании должны предпринять соответствующие меры для предотвращения несанкционированного использования своих данных. Хотя AI-сервисы, такие как ChatGPT, открывают массу возможностей, важно сбалансировать эти возможности с потенциальными рисками для кибербезопасности.

По любым вопросам, связанным с решениями Trellix, напишите нам:
moc.hcetokab%40xillert

Связаться с нами

Спасибо!

Ваша заявка принята. В ближайшее время мы с вами свяжемся для уточнения деталей.

Can't send form.

Please try again later.