Як захистити дані від витоку під час використання AI-сервісів

Стрімкий розвиток технологій Artificial Intelligence (AI) привернув до себе багато уваги завдяки можливості підвищити продуктивність та ефективність на робочому місці. Однак популярність таких інновацій у сфері штучного інтелекту затьмарила ризики, пов'язані з новими технологіями. Кіберзлочинці починають використовувати AI-сервіси, такі як ChatGPT і Google Bard, для розробки атак на організації, а значить такі сервіси потенційно загрожують кібербезпеці. Тому обговорень ризиків, пов’язаних з доступом до критичних даних, недостатньо — необхідно діяти.
Попри те, що багато AI-сервісів стверджують, що не кешують і не використовують введені користувачем дані для навчальних цілей, нещодавні інциденти, пов'язані саме з ChatGPT, виявили вразливості в системі. Це потенційно може призвести до компрометації інтелектуальної власності компанії або пошукових запитів користувачів з відповідями, і це становить значний ризик для організацій.
Як наслідок, проблема безпечного використання AI-сервісів стає все гострішою. Сучасним компаніям доводиться шукати баланс між ризиками та перевагами послуг штучного інтелекту, щоб захистити свої критичні дані від витоку. Для цього організаціям слід застосовувати проактивний підхід до захисту. Наприклад, за допомогою DLP-рішень (Data Loss Prevention), які можуть захищати дані на рівні кінцевих точок і мережі. Крім того, компаніям слід проінформувати своїх співробітників про ризики, пов'язані з AI-послугами (як і з будь-якими іншими послугами сторонніх розробників), і про потенційні наслідки витоку конфіденційних даних. Вживаючи таких заходів, організації можуть гарантувати, що вони використовують переваги послуг AI, одночасно зменшуючи потенційні ризики для своїх конфіденційних даних.

Trellix допоможе захистити ваші дані 

Нові технології можуть створювати прогалини в системі безпеки, які роблять організації вразливими до випадкових або навмисних порушень. З розвитком технологій, компаніям вкрай важливо мати адекватні заходи безпеки для захисту своїх конфіденційних даних.
Trellix — компанія, що забезпечує ефективний захист від потенційних загроз, спираючись на великий досвід у сфері кібербезпеки.
Завдяки ефективності, яку приносять AI-сервіси, користувачі будуть все більше і більше використовувати їх у своїх повсякденних завданнях. І так само невимушено спричиняти витік конфіденційних даних. Ось кілька прикладів:
● Співробітник може робити нотатки під час внутрішньої наради про новий продукт, який змінить ринок, та пункти плану дій. А потім попросити ChatGPT створити висновок або резюме, щоб презентувати керівництву. ● Розробник програмного забезпечення, який працює над провідним продуктом компанії, може скопіювати та вставити вихідний код у ChatGPT, щоб отримати рекомендації щодо його покращення. ● Інженер може скопіювати та вставити лог-файли, надіслані кінцевим користувачем, в ChatGPT, попросивши його написати звіт про аналіз першопричини, не видаляючи з журналу імена користувачів, IP-адреси та системні імена.
DLP-рішення Trellix призначені для моніторингу та захисту організацій як на рівні кінцевих точок, так і на рівні мережі. Цей комплексний підхід гарантує, що конфіденційна інформація залишається в безпеці, навіть якщо з'являються нові технології. Завдяки рішенням DLP від Trellix організації можуть бути впевнені, що їхні найцінніші дані захищені від потенційних порушень безпеки.

Робота з Trellix Data Loss Prevention 

Trellix пропонує колекцію готових шаблонів з набором правил, які можна використовувати для швидкого встановлення DLP у будь-якому середовищі. Хоча ці шаблони можуть не задовольнити всі ваші потреби в DLP, вони надають цінні рекомендації щодо захисту даних у вашому середовищі. У випадку AI-сервісів, таких як ChatGPT і Google Bard, які втілюють унікальні виклики для захисту вашого середовища, створення необхідних правил може бути виконано за лічені хвилини. Це дозволить вам швидко розгорнути правила для тестування, налаштування та застосування у вашому виробничому середовищі.
Щоб захистити ваші дані від витоку до цих сервісів, можна використовувати три типи DLP-правил:
● Clipboard Protection: Відстежує або блокує використання буфера обміну для копіювання конфіденційних даних ● Web Protection: Відстежує дані, що публікуються на вебсайтах ● Application Control: Відстежує або блокує доступ користувачів до вебсайтів
Перш ніж створювати та впроваджувати правила, потрібно прописати визначення, які будуть в них використовуватися. Як приклад, в цій статті ми створимо такі типи визначень DLP:
● URL List: Використовуються для визначення правил вебзахисту та критеріїв класифікації цифрового відбитка вебконтенту. Вони додаються до правил і класифікацій як умови вебадреси (URL). ● Application Template: Керує певними програмами, використовуючи такі властивості, як назва продукту або постачальника, ім'я виконуваного файлу або заголовок вікна. Шаблон програми можна визначити для однієї програми або групи подібних програм. Існують вбудовані (заздалегідь визначені) шаблони для багатьох поширених програм, таких як Windows Explorer, веб-браузери, програми для шифрування та поштові клієнти.
З консолі Trellix ePolicy Orchestrator (ePO) переходимо до DLP Policy Manager | Definitions

URL-адреса призначення 

Обираємо категорію URL List у розділі Source/Destination і створюємо новий список URL-адрес.
Зосередимося на:
● ChatGPT – https://chat.openai.com ● Google Bard – https://bard.google.com ● Bing AI – https://bing.com ● ChatGPT API – https://api.openai.com ● І будь-яка інша LLM, яку ви хотіли б додати

Illustration

Рис. 1: Визначення DLP для URL List

Source Application 

Обираємо категорію Application Template у розділі Source / Destination та створюємо новий список застосунків.

Зосередимося на:

● Visual Studio – devenv.exe ● Visual Studio Code – Code.exe

Illustration

Рис. 2: Визначення DLP для Application Template

Після створення визначень ви можете перейти до створення потрібних правил для вашого середовища. Спочатку створіть новий набір правил у диспетчері DLP Policy Manager під назвою "Моніторинг і блокування GPT" і перейдіть до створення правил, які відповідають вашим вимогам. Нижченаведені приклади можна розглядати як посібник для створення правил, які розвʼяжуть ваші конкретні завдання. Перш ніж розгортати їх у виробничому середовищі, експерти Trellix наполегливо рекомендують ретельно протестувати їх в контрольованому середовищі, щоб внести необхідні корективи та не допустити негативного впливу на бізнес-операції.

A. Звіт про користувачів, які вводять конфіденційні дані у ChatGPT та інші мовні моделі

1. Створіть нове правило вебзахисту в меню Data Protection | Actions | New Rule | Web Protection2. Умови для правила:
a. Enforced On: Windows and Network DLP(Примітка: для Mac OS дозволене лише звітування) b. Classification: Виберіть контент, для якого ви хочете заблокувати доступ до URL-адрес c. End-User: ALL d. Web Address (URL): Виберіть список URL-адрес, створений на попередньому кроці, тобто GPT URL List e. Upload Type: ALL

Illustration

Рис. 3: Правило DLP для моніторингу запитів у LLM-системи

B. Блокуйте та звітуйте про користувачів, які копіюють конфіденційні дані у ChatGPT та інші мовні моделі

1. Створіть нове правило захисту буфера обміну в меню Data Protection | Actions | New Rule | Clipboard Protection2. Умови для правила:
a. Enforced On: Windows(Примітка: для Mac OS дозволене лише звітування) b. Classification: Виберіть контент, для якого ви хочете заблокувати доступ до URL-адрес c. End-User: ALL d. Source Application: ALL e. Destination Application: Supported Browsers f. Destination URL: Список URL-адрес, створений на попередньому кроці, тобто GPT URL List

Illustration

Рис. 4: Правило DLP для блокування та звітування про дані, скопійовані в запит LLM-систем

C. Блокування та звітування про користувачів, які копіюють конфіденційні дані з Visual Studio у ChatGPT та інші мовні моделі

1. Створіть нове правило захисту буфера обміну в меню Data Protection | Actions | New Rule | Clipboard Protection2. Умови для правила:
a. Enforced On: Windows(Примітка: для Mac OS дозволене лише звітування) b. Classification: Виберіть контент, для якого ви хочете заблокувати доступ до URL-адрес c. End-User: ALL d. Source Application: ALL e. Destination Application: Supported Browsers f. Destination URL: Список URL-адрес, створений на попередньому кроці, тобто GPT URL List

Illustration

Рис. 5: Правило DLP для блокування та звітування про дані, скопійовані з Visual Studio до запитів LLM-систем

D. Блокуйте та повідомляйте про користувачів, які намагаються отримати доступ до URL-адрес GPT

1. Створіть нове правило захисту буфера обміну в меню Data Protection | Actions | New Rule | Clipboard Protection2. Умови для правила:
a. End-User: ALL b. Web address (URL): Список URL-адрес, створений на попередньому кроці, тобто GPT URL List

Illustration

Рис. 6: Правило DLP для блокування та звітування про користувачів, які намагаються отримати доступ до URL-адрес GPT

Після створення нового правила, його слід протестувати у своєму середовищі і лиш потім застосовувати до систем. Окрім того, щоб повною мірою скористатися перевагами створення правил і запобігти несанкціонованому доступу до конфіденційних даних, варто впровадити відповідні заходи безпеки. Хоча AI-сервіси, такі як ChatGPT, можуть забезпечити значні переваги, важливо збалансувати ці переваги з потенційними ризиками, застосовуючи проактивний підхід до кібербезпеки.
З приводу будь-яких питань, пов'язаних з рішенням Trellix, зв'яжіться з нами та отримайте додаткову інформацію: moc.hcetokab%40xillert

Отримати безкоштовнедемо / консультацію / матеріали

Дякуємо!

Ваша заявка прийнята. Найближчим часом ми з вами зв'яжемось для уточнення деталей.

Can't send form.

Please try again later.