Генеративні системи штучного інтелекту, такі як ChatGPT, отримують багато уваги, і тисячі користувачів щодня передають дані, нехтуючи захистом даних.
Все більше і більше компаній використовують технології та використовують їх для різноманітних проектів і процесів. Інструменти в основному використовуються для збору інформації, написання текстів і перекладу.
На жаль, багато користувачів не дуже уважно ставляться до конфіденційних даних компанії і дозволяють штучному інтелекту працювати на них. Така практика може завдати серйозної непрямої шкоди, оскільки ці дані можуть бути отримані та вилучені без контролю будь-яким іншим користувачем, який ставить лише правильні запитання. Тепер їх можна продати іншим компаніям або кіберзлочинцям і використати для різних нечесних цілей.
Приклад того, як це може працювати, може бути таким: лікар вводить ім’я пацієнта та деталі його стану в ChatGPT, щоб інструмент міг написати листа до страхової компанії пацієнта. У майбутньому, якщо третя сторона запитає ChatGPT: «Яка проблема зі здоров’ям у [ім’я пацієнта]?» чат-бот зможе відповісти на основі інформації, наданої лікарем. Ці ризики є такою ж великою загрозою, як і фішингові атаки, оскільки, звичайно, можна також зробити висновки про цілі компанії та їх бізнес-практику на основі окремих осіб.
Особисті дані - табу
Якщо працівникам дозволено використовувати інструменти штучного інтелекту, вони повинні переконатися, що вони не вводять жодних особистих даних або внутрішньої інформації компанії та не включають їх у свої запити. Вони також повинні переконатися, що інформація, яку вони надають у відповідях, також не містить персональних даних і внутрішніх даних компанії. Усю інформацію слід перевіряти незалежно, щоб захистити її від судових претензій і уникнути неправомірного використання.
Навчання з питань безпеки може допомогти співробітникам навчитися відповідально та безпечно використовувати ChatGPT та інші генеративні інструменти ШІ. Вони дізнаються, яку інформацію вони можуть, а яку не можуть розголошувати, щоб вони та їхні компанії не наражалися на ризик неправомірного використання конфіденційних даних небажаними третіми особами. Інакше наслідками будуть штрафи згідно з GDPR і пов’язана з цим шкода іміджу, включаючи кібератаки через соціальну інженерію. В останньому випадку зловмисники використовуватимуть інформацію, надану інструментам для своїх досліджень, щоб використовувати слабкі місця в ІТ-системах або використовувати фішинг, щоб переконати співробітників натиснути посилання, що зберігаються в електронних листах.
Більше на KnowBe4.com
Про KnowBe4 KnowBe4, постачальник найбільшої у світі платформи для навчання безпеки та симуляції фішингу, використовується більш ніж 60.000 4 компаній у всьому світі. KnowBe4, заснований фахівцем з інформаційних технологій та безпеки даних Стю Сьюверманом, допомагає організаціям вирішувати людський фактор безпеки, підвищуючи обізнаність про програмне забезпечення-вимагач, шахрайство з керівниками та інші тактики соціальної інженерії за допомогою нового підходу до навчання безпеки. Кевін Мітнік, міжнародно визнаний фахівець з кібербезпеки та головний хакер KnowBe4, допоміг розробити навчання KnowBe4 на основі його добре задокументованої тактики соціальної інженерії. Десятки тисяч організацій покладаються на KnowBeXNUMX, щоб мобілізувати своїх кінцевих користувачів як останню лінію захисту.