Відповідність ШІ в компанії

Відповідність ШІ в компанії

Поділіться публікацією

Майже безмежні можливості LLM (Large Language Models) неймовірно захоплюючі. Щомісяця з’являються нові способи використання цих інструментів, які не завжди сумісні з корпоративною політикою відповідності.

Можливості варіюються від швидкого та недорогого створення ескізів дописів у блозі до поведінки людей, які принципово виступають проти та критикують допис у блозі, до зв’язного перекладу дописів у блозі на інші мови – при повному розумінні змісту. Навіть у світі, окрім дописів у блогах, цей інструмент, що зароджується, має величезний потенціал. Але потенціал також означає, що ніхто не знає, що технологія зрештою зробить, і це створює серйозні, відчутні бізнес-ризики.

визнавати ризики

Коли справа доходить до LLM, багато людей спочатку думають про ChatGPT OpenAI як про найдоступніший і простий у використанні інструмент, доступний сьогодні. ChatGPT дозволяє будь-кому задавати запитання через веб-браузер і генерує швидкі відповіді. Для звичайного користувача це чудово, але для будь-якого бізнесу така простота використання створює три серйозні проблеми. Усі дані, надіслані в ChatGPT, зберігаються OpenAI для цілей якості та відстеження, джерело кожної відповіді невідоме, і відповідь може бути повністю сфабрикованою.

OpenAI відстежує дані користувачів, щоб покращити свій продукт і запобігти можливому зловживанню системою. Це цілком розумна поведінка з боку OpenAI, але немає причин думати, що OpenAI особливо обережно з цими даними. Крім того, OpenAI не може насправді контролювати, які дані надсилаються в ChatGPT, тому в кінцевому підсумку зберігається багато інформації, яку насправді взагалі не слід зберігати. Наприклад, нещодавно стало відомо, що співробітники Samsung використовували ChatGPT для усунення несправностей пропрієтарного програмного забезпечення та узагальнення журналів сеансів.

Невідомі джерела

Друга проблема полягає в тому, що ChatGPT відповідає на запити, не посилаючись на джерела своїх відповідей. ChatGPT висуває претензії на основі своїх висновків, і, на жаль, користувачі змушені сприймати це як є. Ця інформація може бути захищена авторським правом, і користувачі не дізнаються про це, доки не отримають листа від адвокатів із заявою про порушення авторських прав. Getty Images подав до суду на творця інструменту, який використовувався для створення зображень LLM, за порушення авторських прав після того, як було виявлено, що інструмент створював зображення з водяним знаком Getty Images. Нерозумно стверджувати, що будь-які кінцеві користувачі, які використовують ці зображення, також можуть нести відповідальність. Генерація коду є ще однією проблемою, хоча конкретних прикладів поки що немає, але це здається неминучим.

Придумані відповіді

Однак найбільша проблема ChatGPT полягає в тому, що ці LLM можуть мати «галюцинації», які на промисловому жаргоні називають «відвертою брехнею». Оскільки ChatGPT не має прозорості щодо того, як надходять відповіді, користувачі повинні мати можливість критично аналізувати відповіді, щоб вирішити, чи вони правдиві, оскільки ChatGPT і йому подібні завжди дадуть відповідь з абсолютною впевненістю. Це може мати наслідки, починаючи від ганебного запуску Google до того, як професор закидає всіх своїх студентів після того, як ChatGPT неправдиво стверджував, що написав студентські роботи – до найкричущішого прикладу, коли юрист використовує ChatGPT, щоб підкреслити свою довідку в суді, а ChatGPT винайшов шість повністю фальшивих джерела на підтримку аргументу. Поганий приклад Google спричинив падіння її ринкової оцінки на 100 мільярдів доларів, втрату довіри до професора університету та відхилення багатомільйонного позову в суді. Це надзвичайно серйозні наслідки, яких насправді слід уникати.

забезпечити відповідність

Компанії реагують на ці факти політикою, яка забороняє використання OpenAI без дозволу. Однак важко відстежити відповідність цим правилам, оскільки трафік проходить через зашифрований браузер без програмного забезпечення.

Vectra AI може виявляти ці дії в мережі за допомогою мережевих датчиків для виявлення. Vectra NDR розроблено для моніторингу всього корпоративного мережевого трафіку за допомогою ретельно розміщених датчиків, які відстежують вхідний і вихідний трафік у мережі, а також у самій мережі. Така глибина аналізу є основою для потужної системи виявлення на основі штучного інтелекту, а також дає змогу глибоко уявлення про відповідність, узагальнені на інформаційній панелі використання ChatGPT. Інформаційна панель, яку Vectra надає безкоштовно для всіх клієнтів платформи, показує хости в середовищі, які активно взаємодіють з OpenAI, відстежуючи DNS-запити до серверів OpenAI, зроблені будь-яким хостом. Офіцери з відповідності можуть не тільки швидко побачити список людей, які мають облікові записи в OpenAI або висловили інтерес, але вони також можуть активно відстежувати, хто саме використовує систему та як часто.

візуалізувати доступ

Інформаційна панель використовує запатентовану технологію відображення ідентифікаторів хостів Vectra для детального відстеження цих користувачів. Навіть якщо IP-адреси комп’ютерів змінюються або ноутбук під’єднується до нової мережі, Vectra відстежує його як ту саму машину, тож на інформаційній панелі точно відображається, як часто пристрій звертається до ChatGPT, що також дозволяє швидко побачити, хто Vectra є ймовірним власником комп'ютер. За допомогою цієї інформаційної панелі співробітники служби безпеки не тільки бачать, які хости використовують ChatGPT, але також знають, до кого звернутися з цього приводу, і отримують цю інформацію за хвилини, а не за години.

Це лише один із прикладів того, як платформа Vectra забезпечує глибоке розуміння того, що відбувається в організації, і як вона може допомогти з відповідністю, відстежуючи активні проблеми відповідності. Це так само надійно, як і панель інструментів терміну дії сертифікатів, яка відстежує термін дії сертифікатів, які активно використовуються в компанії, або панель інструментів Azure AD Chaos, яка відстежує обхід MFA. Vectra може надати спеціалістам із відповідності цінну інформацію не лише про те, що неправильно налаштовано в організації, а й про те, які ризики безпеці активно присутні.

Більше на Vectra.com

 


Про Вектру

Vectra є провідним постачальником засобів виявлення загроз і реагування на них для гібридних і мультихмарних підприємств. Платформа Vectra використовує штучний інтелект для швидкого виявлення загроз у загальнодоступній хмарі, додатках ідентифікації та SaaS, а також у центрах обробки даних. Лише Vectra оптимізує штучний інтелект для розпізнавання методів зловмисників – TTP (Tactics, Techniques and Processes), які лежать в основі всіх атак – замість того, щоб просто сповіщати про «інші».


 

Статті по темі

Платформа кібербезпеки із захистом середовищ 5G

Спеціаліст з кібербезпеки Trend Micro представляє свій платформний підхід до захисту постійно розширюваної поверхні атак організацій, включаючи безпеку ➡ Читати далі

Маніпулювання даними, недооцінена небезпека

Щороку Всесвітній день резервного копіювання 31 березня є нагадуванням про важливість актуальних і легкодоступних резервних копій. ➡ Читати далі

Принтери як загроза безпеці

Корпоративні парки принтерів дедалі більше стають сліпою плямою та створюють величезні проблеми для їх ефективності та безпеки. ➡ Читати далі

Закон про штучний інтелект та його наслідки для захисту даних

Завдяки Закону про штучний інтелект, перший закон про штучний інтелект був затверджений і дає виробникам програм ШІ від шести місяців до ➡ Читати далі

Операційні системи Windows: під загрозою майже два мільйони комп’ютерів

Оновлень для операційних систем Windows 7 і 8 більше немає. Це означає відкриті прогалини в безпеці і, отже, варто звернути увагу ➡ Читати далі

AI на Enterprise Storage бореться з програмами-вимагачами в реальному часі

NetApp є однією з перших, хто інтегрував штучний інтелект (AI) і машинне навчання (ML) безпосередньо в основне сховище для боротьби з програмами-вимагачами. ➡ Читати далі

Набір продуктів DSPM для захисту даних із нульовою довірою

Управління безпекою даних (скорочено DSPM) має вирішальне значення для компаній, щоб забезпечити кіберстійкість проти безлічі ➡ Читати далі

Шифрування даних: більше безпеки на хмарних платформах

Онлайн-платформи часто стають об’єктами кібератак, як нещодавно Trello. 5 порад для ефективнішого шифрування даних у хмарі ➡ Читати далі