Новини

Останні новини про B2B кібербезпеку >>> PR-агентства: додайте нас до свого списку розсилки - дивіться контакт! >>> Забронюйте ексклюзивний партнерський канал для своїх новин!

Ризики від збільшення використання штучного інтелекту
Ризики від збільшення використання штучного інтелекту

Звіт показує, що 569 ТБ корпоративних даних передається на інструменти ШІ, і підкреслює важливість кращої безпеки даних. Корпоративні транзакції штучного інтелекту/ML зросли з 521 мільйона щомісяця в квітні 2023 року до 3,1 мільярда в січні 2024 року. З 21 відсотком усіх транзакцій штучного інтелекту виробництво генерує найбільше трафіку штучного інтелекту в Zscaler Cloud, за ним йдуть фінанси та страхування (14 відсотків) і послуги. (13 відсотків). Найпопулярнішими корпоративними програмами AI/ML за обсягом транзакцій є ChatGPT, Drift, OpenAI, Writer і LivePerson. П’ятірка країн із найбільшою кількістю транзакцій ШІ в компаніях – це США, Індія, Велика Британія,…

Читати далі

Один рік ChatGPT
Короткі новини про кібербезпеку B2B

Нинішній бум штучного інтелекту призводить до різкого зростання попиту на німецькому ринку. Очікується, що цього року витрати на програмне забезпечення, послуги та пов’язане обладнання зі штучним інтелектом зростуть до 6,3 мільярда євро. Це відповідає збільшенню на 32 відсотки порівняно з 2022 роком, коли на штучний інтелект було витрачено 4,8 мільярда євро. Про це повідомляє цифрова асоціація Bitkom на основі даних дослідницької компанії IDC. «Запуск ChatGPT рік тому став початковою іскрою для використання ШІ. ChatGPT вперше показав багатьом людям, на що сьогодні здатний ШІ...

Читати далі

ChatGPT: ризики професійного використання
Kaspersky_news

Багато німців використовують ChatGPT у своєму повсякденному професійному житті. Це може поставити під загрозу безпеку конфіденційних даних. Згідно з репрезентативним опитуванням, майже половина (46 відсотків) працюючих людей у ​​Німеччині використовують ChatGPT у своїй повсякденній роботі. Популярність генеративних служб штучного інтелекту та великих мовних моделей (LLM) ставить перед компаніями питання про те, наскільки вони можуть довіряти мовним моделям конфіденційні дані компанії. Експерти Kaspersky визначили такі ризики для захисту даних професійного використання ChatGPT: Витік даних або злом постачальником: хоча чат-боти на базі LLM управляються великими технологічними компаніями, вони не захищені від хакерських атак або випадкового витоку даних. Вже був один…

Читати далі

Злом чат-ботів на основі ШІ
Короткі новини про кібербезпеку B2B

Компанія з кібербезпеки, що стоїть за викриттям WormGPT, опублікувала допис у блозі. Тут надається інформація про стратегії, які використовують кіберзлочинці, які «зламують» популярні чат-боти штучного інтелекту, такі як ChatGPT. Це стосується тактики, яка обходить обмеження безпеки, які компанії накладають на своїх чат-ботів. Дослідники SlashNext виявили, що кіберзлочинці не просто діляться своїми успішними джейлбрейками на дискусійних форумах, щоб зробити їх доступними для інших. Натомість розробники також просувають ботів зі штучним інтелектом, які можуть бути використані у злочинних цілях. Вони стверджують, що це спеціальні мовні моделі (LLM). SlashNext підтвердив, що це в...

Читати далі

Штучний інтелект в ІТ
Короткі новини про кібербезпеку B2B

2023 рік може увійти в історію як рік штучного інтелекту (ШІ) – або, принаймні, як рік, коли компанії та споживачі однаково захоплювалися такими генеративними інструментами ШІ, як ChatGPT. Постачальники рішень для ІТ-безпеки не застраховані від цього ентузіазму. На RSA Conference 2023, одній із провідних міжнародних конференцій у сфері ІТ-безпеки, тема штучного інтелекту розглядалася майже в кожній презентації – не дарма. ШІ має величезний потенціал для трансформації галузі. Наші дослідники безпеки вже виявили використання ШІ хакерами...

Читати далі

Хороший ШІ, поганий ШІ
Короткі новини про кібербезпеку B2B

За словами дослідників безпеки в Ізраїлі, хакерські угруповання вже використовують штучний інтелект (ШІ) для навчання своїх нових членів. Їм також допомагає штучний інтелект вдосконалювати зловмисне програмне забезпечення, автоматизувати атаки та загалом безперебійно проводити злочинні операції. З іншого боку, консультанти з менеджменту McKinsey з’ясували за допомогою опитування за 2022 рік, що 50 відсотків опитаних компаній використовують AI для підтримки роботи принаймні в одній сфері бізнесу – у 2017 році це було лише 20 відсотків. За даними журналу Forbes, 60 відсотків опитаних підприємців вважають...

Читати далі

Відповідність ШІ в компанії
Відповідність ШІ в компанії

Майже безмежні можливості LLM (Large Language Models) неймовірно захоплюючі. Щомісяця з’являються нові способи використання цих інструментів, які не завжди сумісні з корпоративною політикою відповідності. Можливості варіюються від швидкого та недорогого створення ескізів дописів у блозі до поведінки людей, які принципово виступають проти та критикують допис у блозі, до зв’язного перекладу дописів у блозі на інші мови – і з повним розумінням змісту. Навіть у світі, окрім дописів у блогах, цей новонароджений інструмент містить величезні...

Читати далі

Європарламент: новий закон про штучний інтелект повинен регулювати їх використання
Парламент ЄС: Новий закон про штучний інтелект повинен регулювати їх використання – зображення Герда Альтмана на Pixabay

Новий закон ЄС про штучний інтелект покликаний забезпечити контрольоване використання універсального інструменту штучного інтелекту - AI. Звісно, ​​цю технологію можна використовувати чудово, але є численні приклади неетичного використання, зокрема зловживання технологією deepfake. Траплялися й інші небезпечні інциденти, пов’язані з конфіденційністю, шахрайством і маніпулюванням інформацією. Ці випадки показали, що штучний інтелект не є технологією, яка може ретроспективно регулюватися законом. Схвалення цього проекту Європарламентом створює міцну основу для майбутнього…

Читати далі

ШІ співучасника: крадіжка ідентифікаційних даних 
Штучний інтелект співучасника: крадіжка ідентифікаційних даних – зображення Еріка Блантона з Pixabay

Ідентифікаційні дані завжди були одним із улюблених предметів кіберзлочинців. З їх допомогою можна ініціювати компрометацію облікового запису та здійснити шахрайство з особистими даними. Тепер ChatGPT & Co також допомагають із ідеальними фішинговими електронними листами. Заява Дірка Декера, регіонального директора з продажів DACH & EMEA South у Ping Identity. Зловмисники зазвичай використовують соціальну інженерію та фішинг. Рівень успіху таких атак, здебільшого заснованих на масовості, обмежений. Індивідуалізовані електронні листи та повідомлення, адаптовані до жертви, пропонують значно вищі показники успіху, але також вимагають значно більше роботи...

Читати далі

ChatGPT: у чат-бота багато проблем з довірою
Короткі новини про кібербезпеку B2B

Згідно з опитуванням Malwarebytes, ChatGPT має проблеми з довірою. 81 відсоток респондентів, знайомих із ChatGPT, вважають, що ChatGPT може становити потенційну загрозу безпеці для них самих або їхньої організації. Що стосується самого ажіотажу, незважаючи на масове висвітлення в ЗМІ та хвилі, які ChatGPT створив в Інтернеті, лише 35 відсотків погодилися з твердженням «Я знайомий з ChatGPT». Крім того, лише десять відсотків респондентів, які взагалі були знайомі з ChatGPT, змогли повністю погодитися з твердженням «Я довіряю інформації, наданій ChatGPT». Однак:…

Читати далі