Conformidade com IA na empresa

Conformidade com IA na empresa

Compartilhar postagem

As possibilidades quase ilimitadas de LLMs (Large Language Models) são incrivelmente empolgantes. A cada mês surgem novos usos para essas ferramentas que nem sempre são compatíveis com as políticas corporativas de compliance.

As possibilidades vão desde a criação rápida e barata de miniaturas para postagens de blog, até o comportamento de pessoas que se opõem e criticam fundamentalmente uma postagem de blog, até a tradução coerente de postagens de blog para outros idiomas - enquanto compreende totalmente o conteúdo. Mesmo no mundo além das postagens de blog, essa ferramenta nascente possui um tremendo potencial. Mas o potencial também significa que ninguém sabe o que a tecnologia vai acabar fazendo, e isso cria riscos de negócios sérios e tangíveis.

reconhecer riscos

Quando se trata de LLM, muitas pessoas primeiro pensam no ChatGPT da OpenAI como a ferramenta mais acessível e fácil de usar disponível atualmente. O ChatGPT permite que qualquer pessoa faça perguntas por meio de um navegador da Web e gera respostas rápidas. Para o usuário comum, isso é ótimo, mas para qualquer empresa, essa facilidade de uso apresenta três problemas sérios. Todos os dados enviados para o ChatGPT são armazenados pela OpenAI para fins de qualidade e rastreamento, a origem de cada resposta é desconhecida e a resposta pode ser totalmente fabricada.

A OpenAI rastreia a entrada do usuário para melhorar seu produto e evitar possíveis abusos do sistema. Este é um comportamento perfeitamente razoável por parte do OpenAI, mas não há razão para pensar que o OpenAI é particularmente cuidadoso com esses dados. Além disso, o OpenAI não pode realmente controlar quais dados são enviados para o ChatGPT, então acaba armazenando muitas informações que na verdade não deveriam ser armazenadas. Por exemplo, foi revelado recentemente que os funcionários da Samsung usaram o ChatGPT para solucionar problemas de software proprietário e resumir os logs de sessão.

Fontes Incertas

O segundo problema é que o ChatGPT responde a solicitações sem citar fontes para suas respostas. O ChatGPT faz reivindicações com base em suas descobertas e, infelizmente, os usuários precisam aceitar isso pelo que é. Essas informações podem estar protegidas por direitos autorais e os usuários não saberiam até que recebessem uma carta de advogados alegando violação de direitos autorais. A Getty Images processou o criador de uma ferramenta usada para gerar imagens LLM por violação de direitos autorais depois que a ferramenta gerou imagens com uma marca d'água da Getty Images. Não é razoável argumentar que qualquer usuário final que use essas imagens também pode ser responsabilizado. A geração de código é outra área de preocupação, embora ainda não haja exemplos concretos, mas parece inevitável.

Respostas inventadas

O maior problema com o ChatGPT, no entanto, é que esses LLMs podem ter "alucinações", que o jargão da indústria chama de "mentiras flagrantes". Como o ChatGPT não tem transparência sobre como as respostas surgem, os usuários precisam ser capazes de analisar criticamente as respostas para decidir se são verdadeiras, pois o ChatGPT e seus semelhantes sempre responderão com certeza absoluta. Isso pode ter consequências que vão desde o começo embaraçoso do Google até um professor reprovar todos os seus alunos depois que o ChatGPT alegou falsamente ter escrito os trabalhos dos alunos - até o exemplo mais flagrante em que um advogado usou o ChatGPT para redigir sua petição no tribunal e o ChatGPT inventou seis fontes completamente falsas para apoiar o argumento. O mau exemplo do Google fez com que seu valor de mercado caísse US$ 100 bilhões, a credibilidade do professor universitário fosse perdida e um processo multimilionário fosse arquivado no tribunal. Essas são consequências extremamente graves que, na verdade, devem ser evitadas.

garantir a conformidade

As empresas estão respondendo a esses fatos com políticas que proíbem o uso do OpenAI sem permissão. No entanto, é difícil rastrear a conformidade com essas políticas, pois o tráfego passa por um navegador criptografado sem necessidade de software.

O Vectra AI é capaz de detectar essas atividades na rede usando sensores de rede para detecção. O Vectra NDR foi projetado para monitorar todo o tráfego de rede em toda a empresa, com sensores cuidadosamente posicionados monitorando o tráfego dentro e fora da rede, mas também dentro da própria rede. Essa profundidade de análise é a base para a poderosa estrutura de detecção orientada por IA e também permite insights perspicazes sobre conformidade, resumidos no ChatGPT Usage Dashboard. O painel, que a Vectra está disponibilizando gratuitamente para todos os clientes da plataforma, mostra os hosts no ambiente que estão interagindo ativamente com o OpenAI, rastreando as consultas de DNS aos servidores OpenAI feitas por qualquer host. Os responsáveis ​​pela conformidade não apenas podem ver rapidamente uma lista de pessoas que têm contas com OpenAI ou manifestaram interesse, mas também podem monitorar ativamente quem exatamente está usando um sistema e com que frequência.

visualizar acesso

O painel usa a tecnologia de mapeamento de ID de host patenteada da Vectra para rastrear esses usuários em profundidade. Mesmo que os endereços IP das máquinas mudem ou um notebook entre em uma nova rede, o Vectra o rastreia como a mesma máquina, então o painel mostra exatamente com que frequência um dispositivo está acessando o ChatGPT - o que também permite ver rapidamente quem o Vectra acha que é o provável proprietário de uma máquina. Com esse painel, os agentes de segurança não apenas veem quais hosts estão usando o ChatGPT, mas também sabem quem contatar a respeito disso e têm essas informações em minutos, não em horas.

Este é apenas um exemplo de como a plataforma Vectra fornece insights profundos sobre o que está acontecendo na organização e como ela pode ajudar na conformidade ao rastrear problemas de conformidade ativos. Isso é tão confiável quanto o Painel de Expiração de Certificado, que monitora os certificados expirados que são usados ​​ativamente na empresa, ou o Painel de Caos do Azure AD, que monitora desvios de MFA. O Vectra pode fornecer aos responsáveis ​​pela conformidade informações valiosas não apenas sobre o que está mal configurado na organização, mas também sobre quais riscos de segurança estão presentes ativamente.

Mais em Vectra.com

 


Sobre a Vectra

A Vectra é uma fornecedora líder de detecção e resposta a ameaças para empresas híbridas e multinuvem. A plataforma Vectra usa IA para detectar rapidamente ameaças na nuvem pública, aplicativos de identidade e SaaS e data centers. Somente o Vectra otimiza a IA para reconhecer os métodos do invasor - os TTPs (Táticas, Técnicas e Processos) que fundamentam todos os ataques - em vez de simplesmente alertar sobre "diferentes".


 

Artigos relacionados ao tema

Plataforma de cibersegurança com proteção para ambientes 5G

A especialista em segurança cibernética Trend Micro revela sua abordagem baseada em plataforma para proteger a superfície de ataque em constante expansão das organizações, incluindo segurança ➡ Leia mais

Manipulação de dados, o perigo subestimado

Todos os anos, o Dia Mundial do Backup, em 31 de março, serve como um lembrete da importância de backups atualizados e de fácil acesso. ➡ Leia mais

Impressoras como um risco à segurança

As frotas de impressoras empresariais estão a tornar-se cada vez mais num ponto cego e representam enormes problemas para a sua eficiência e segurança. ➡ Leia mais

A Lei AI e suas consequências para a proteção de dados

Com o AI Act, a primeira lei para IA foi aprovada e dá aos fabricantes de aplicações de IA entre seis meses e ➡ Leia mais

Sistemas operacionais Windows: Quase dois milhões de computadores em risco

Não há mais atualizações para os sistemas operacionais Windows 7 e 8. Isto significa lacunas de segurança abertas e, portanto, valiosas e ➡ Leia mais

AI no Enterprise Storage combate ransomware em tempo real

A NetApp é uma das primeiras a integrar inteligência artificial (IA) e aprendizado de máquina (ML) diretamente no armazenamento primário para combater ransomware ➡ Leia mais

Conjunto de produtos DSPM para Zero Trust Data Security

O gerenciamento da postura de segurança de dados – abreviadamente DSPM – é crucial para que as empresas garantam a resiliência cibernética contra a multidão ➡ Leia mais

Criptografia de dados: Mais segurança em plataformas em nuvem

As plataformas online são frequentemente alvo de ataques cibernéticos, como o Trello recentemente. 5 dicas para garantir criptografia de dados mais eficaz na nuvem ➡ Leia mais