28 січня 2024 року відзначається Європейський день захисту даних. У цьому контексті важливо підвищити обізнаність щодо конфіденційності та захисту даних, а також підвищити обізнаність щодо відповідних питань безпеки ІТ – незалежно від того, чи стосуються вони приватного чи корпоративного середовища.
Удосконалення штучного інтелекту (AI) і машинного навчання (ML) у 2024 році День захисту даних очевидна проблема – як через потенційні переваги, які приносять із собою такі інструменти, так і через небезпеки, пов’язані з ними, які, безумовно, викликають занепокоєння. За словами Карли Ронкато, віце-президента Identity, WatchGuard Technologies.
ШІ як загроза захисту даних
Враховуючи широке впровадження інструментів штучного інтелекту лише за останній рік, надзвичайно важливо, щоб WatchGuard, як представник спільноти ІТ-безпеки, скористався цією можливістю, щоб захистити ризики, які створює штучний інтелект для захисту наших даних. щоб підвищити обізнаність і поглибити розуміння цього. ШІ все більше проникає в наше повсякденне життя і, що не в останню чергу, впливає на наше право на захист даних.
Компанії та окремі користувачі ніколи не повинні забувати одну річ: якщо послуга, якою вони користуються, є «безкоштовною», то, зрештою, доступ до даних, ймовірно, отримується за «ціну». Це також стосується інструментів ШІ, тому кожен повинен діяти відповідно. Багато ранніх сервісів і програм штучного інтелекту, включаючи ChatGPT, використовують модель використання, подібну до моделі соціальних мереж, таких як Facebook і TikTok. Хоча користувачі не платять грошей за використання цих платформ, вони компенсують постачальникам, погоджуючись на передачу особистих даних.
Компанії також приваблюють інструменти ШІ
Компанії використовують їх, наприклад, щоб заробляти гроші за допомогою цільової реклами. Так само безкоштовна служба ШІ може збирати дані з пристроїв, зберігати окремі підказки, а потім використовувати ці дані для навчання власної моделі. Хоча це може здатися не зловмисним, саме тому так важливо знати, що відбувається і якою мірою обробка зібраних даних для навчання генеративних алгоритмів штучного інтелекту викликає проблеми конфіденційності. Просто припустімо, що одну з цих компаній зламано і дані потраплять у чужі руки: тоді саме таку особисту інформацію можна вміло використати як зброю.
Звичайно, ШІ також має переваги. Насправді багато інструментів штучного інтелекту досить потужні, і ними можна безпечно користуватися, дотримуючись відповідних запобіжних заходів. Ризики, які виникають у компаній під час ділового використання, залежать насамперед від відповідних завдань, цілей і даних, що використовуються. Коли мова заходить про безпеку, все починається з політики, що означає, що зрештою організації повинні визначити чіткі вказівки щодо штучного інтелекту, адаптовані до конкретних випадків використання їхньої компанії. Після того, як це буде визначено, наступним кроком є інформування працівників і підвищення обізнаності про ризики. Важливо також адаптувати правила відповідно, як тільки загальні умови зміняться, наприклад, у формі нових правил. Регулярне спілкування з робочою силою має вирішальне значення в цьому контексті».
Більше на watchguard.com
Про охорону WatchGuard Technologies є одним із провідних постачальників у сфері ІТ-безпеки. Велике портфоліо продуктів варіюється від високорозвинених UTM (Unified Threat Management) і платформ брандмауера наступного покоління до багатофакторної аутентифікації та технологій для комплексного захисту WLAN і захисту кінцевих точок, а також інших спеціальних продуктів і інтелектуальних послуг, пов’язаних з ІТ-безпекою. Понад 250.000 XNUMX клієнтів у всьому світі довіряють складним механізмам захисту на корпоративному рівні,