ChatGPT gibi üretici yapay zeka sistemleri çok ilgi görüyor ve veri koruması hiçe sayılarak her gün binlerce kullanıcı tarafından verilerle besleniyor.
Giderek daha fazla şirket teknolojileri kullanıyor ve bunları çok çeşitli projeler ve süreçler için kullanıyor. Araçlar öncelikle bilgi toplamak, metin yazmak ve çeviri yapmak için kullanılır.
Ne yazık ki, birçok kullanıcı hassas şirket verileri konusunda çok düşünceli değil ve yapay zekanın onlar için çalışmasına izin veriyor. Bu uygulama, ciddi sonuçsal hasara neden olabilir, çünkü bu veriler yalnızca doğru soruları soran diğer herhangi bir kullanıcı tarafından kontrol edilmeden alınabilir ve çıkarılabilir. Bunlar artık diğer şirketlere veya siber suçlulara satılabilir ve çeşitli hain amaçlar için kötüye kullanılabilir.
Bunun nasıl çalışabileceğine bir örnek şu şekilde olabilir: bir doktor, hastanın sigorta şirketine bir mektup yazabilmesi için hastanın adını ve durumunun ayrıntılarını ChatGPT'ye girer. Gelecekte, üçüncü bir taraf ChatGPT'ye "[hastanın adı] hangi sağlık sorununa sahip?" diye sorarsa, chatbot doktorun verdiği bilgilere dayanarak yanıt verebilir. Bu riskler, kimlik avı saldırıları kadar büyük bir tehdittir, çünkü elbette tek tek bireylerden tüm şirketler ve onların iş uygulamaları hakkında sonuçlar çıkarılabilir.
Kişisel veriler tabu
Çalışanların AI araçlarını kullanmalarına izin verilirse, herhangi bir kişisel veri veya dahili şirket bilgisi girmediklerinden veya sorgularına dahil etmediklerinden emin olmalıdırlar. Ayrıca cevaplarda verdikleri bilgilerin de kişisel veriler ve şirket içi bilgiler içermediğinden emin olmalıdırlar. Yasal iddialara karşı korunmak ve kötüye kullanımı önlemek için tüm bilgiler bağımsız olarak doğrulanmalıdır.
Güvenlik farkındalığı eğitimi, çalışanların ChatGPT ve diğer üretken AI araçlarını iş için sorumlu ve güvenli bir şekilde nasıl kullanacaklarını öğrenmelerine yardımcı olabilir. Kendilerinin ve şirketlerinin hassas verilerin istenmeyen üçüncü şahıslar tarafından kötüye kullanılması riskini taşımaması için hangi bilgileri açıklayabileceklerini ve ifşa edemeyeceklerini öğrenirler. Aksi takdirde, sonuçlar, GDPR kapsamında para cezaları ve sosyal mühendislik yoluyla siber saldırılar da dahil olmak üzere ilgili görüntü hasarı olacaktır. İkinci durumda, saldırganlar araçlarla paylaşılan bilgileri araştırmaları için, BT sistemlerindeki zayıflıklardan yararlanmak veya çalışanları e-postalarda depolanan bağlantılara tıklamaya ikna etmek için hedef odaklı kimlik avı kullanmak için kullanır.
Daha fazlası KnowBe4.com'da
KnowBe4 Hakkında Güvenlik farkındalığı eğitimi ve simüle edilmiş kimlik avı için dünyanın en büyük platformunun sağlayıcısı olan KnowBe4, dünya çapında 60.000'den fazla şirket tarafından kullanılıyor. BT ve veri güvenliği uzmanı Stu Sjouwerman tarafından kurulan KnowBe4, güvenlik eğitimine yeni bir yaklaşımla fidye yazılımı, CEO dolandırıcılığı ve diğer sosyal mühendislik taktikleri konusunda farkındalık yaratarak kuruluşların güvenliğin insan unsurunu ele almasına yardımcı olur. Uluslararası kabul görmüş bir siber güvenlik uzmanı ve KnowBe4'ün Bilgisayar Korsanlığı Başkanı Kevin Mitnick, iyi belgelenmiş sosyal mühendislik taktiklerine dayalı olarak KnowBe4 eğitiminin geliştirilmesine yardımcı oldu. On binlerce kuruluş, son kullanıcılarını son savunma hattı olarak harekete geçirmek için KnowBe4'e güveniyor.