O vazamento de dados ocorre quando informações privadas, confidenciais ou pessoais são acessadas por pessoas não autorizadas. Isso geralmente acontece quando alguém invade o banco de dados, mas também pode ocorrer de outras maneiras, como permitir que a pessoa acesse e compartilhe os dados sem o consentimento do proprietário.
Com o avanço cada vez mais rápido da tecnologia, inclusive com o avanço das ferramentas de Inteligência Artificial, essa é uma preocupação crescente de pessoas e empresas em todo o mundo.
Normalmente a origem de um vazamento de dados está em um ataque cibernético, quando alguém invade um sistema de alguma organização com o objetivo de obter alguma vantagem indevida.
A invasão cibernética geralmente visa obter informações sensíveis de empresas, pessoas físicas ou organizações governamentais como lista de clientes, dados pessoais e financeiros de consumidores, colaboradores e administradores, endereços de e-mails, login e senhas, além de acessos à infraestrutura de TI e arquivos confidenciais.
Atualmente, existem em diversos países leis específicas com o objetivo de regular as atividades de tratamento de dados pessoais. No Brasil, foi sancionada em 2018 a LGPD (Lei Geral de Proteção de Dados), que entrou em vigor no país em 2020. Ela foi inspirada em outras regulamentações que já existiam no exterior, como por exemplo a GDPR (General Data Protection Regulation), lei europeia que entrou em vigor em maio de 2018 com o objetivo de proteger os cidadãos da União Europeia contra a violação de privacidade e dados.
Como ocorre a violação de dados por meio de Inteligência Artificial?
A Europol, a agência de aplicação das leis da União Europeia, alertou sobre o potencial uso indevido de chatbots em campanhas de phishing, desinformação e crimes cibernéticos, levantando preocupações legais a éticas.
O risco associado à utilização ferramentas de Inteligência Artificial está relacionado com a informação transmitida às plataformas. Quando uma ferramenta é solicitada a responder perguntas ou executar tarefas, por exemplo, é possível que informações confidenciais sejam divulgadas inadvertidamente, tornando-as públicas. Imagine um advogado pedindo a uma ferramenta para revisar um projeto ou um desenvolvedor pedindo para analisar um código.
Nesses casos, tanto o contrato quanto o código passam a fazer parte do banco de dados da ferramenta, o que significa que podem ser utilizados por outras pessoas.
Quem é responsabilizado pelo vazamento de dados por meio da Inteligência Artificial?
As empresas devem garantir que o uso de inteligência artificial, em aplicativos como o ChatGPT, WordAI, Lensa, Remini, Midjourney, entre outros, seja compatível com a privacidade humana e o estado de direito. O tratamento de grandes dados sensíveis, como informações sobre saúde, religião, opiniões políticas e orientação sexual, requer proteção especial pela LGPD.
Além disso, os dados enviados pelas ferramentas podem ser processados por servidores que não estejam fisicamente localizados no Brasil devido a tecnologias proprietárias, segredos comerciais ou patentes de empresas estrangeiras. Mesmo com os servidores localizados fora do território nacional, qualquer plataforma sujeita-se diretamente às legislações de proteção de dados ou até mesmo decisões judiciais de quebra de sigilo do Brasil.
Em caso de fluxo de dados por Inteligência Artificial, a empresa responsável pela tecnologia pode ser responsabilizada.
Quais riscos podem ser aumentados no futuro com os avanços da Inteligência Artificial?
A grande preocupação futura com o avanço da Inteligência Artificial está relacionada principalmente ao direito de privacidade dos usuários. Os dados que são coletados, não só com o envio direto de informações para as plataformas, mas com o rastreio que uma ferramenta pode fazer em todo o aparelho da pessoa que o utiliza podem ser sensíveis.
Outros fatores pouco falados, mas preocupantes, são os efeitos ambientais que o uso generalizado da Inteligência Artificial pode causar. Os custos energéticos do processamento de dados para servidores que utilizam tecnologias deste tipo são enormes e têm impacto direto no meio ambiente.
Também temos que falar sobre o assunto do futuro do trabalho e possíveis complicações relacionadas à discriminação de alguns segmentos e à mudança na percepção da humanidade e da prevalência desta em relação às máquinas. Ameaças na organização do mercado e abuso no uso de armas também podem ser observados.
Como o seguro pode auxiliar na proteção ao vazamento de dados?
Ataques eventualmente conduzidos por meio de ferramentas de Inteligência Artificial podem ser passíveis de cobertura de um seguro. Afinal, embora a prevenção seja sempre a melhor opção, as organizações devem se preparar para o fato de que é praticamente impossível ter sistemas e pessoas 100% preparadas. Por isso, um aspecto fundamental na gestão de qualquer empresa é a contratação de um seguro específico.
Pioneira do produto no Brasil, a AIG oferece o Seguro de Riscos Cibernéticos, que é uma apólice que visa amparar perdas financeiras decorrentes de ataques virtuais maliciosos, ou mesmo de incidentes decorrentes de erros ou negligências causados internamente na companhia, que resultem em vazamento de dados e outros danos ligados ao sigilo da informação.
Quer saber mais? Pergunte ao seu corretor de seguros sobre o produto da AIG.