39 views 4 mins

Uso de IA sem critério expõe dados sensíveis, alerta Check Point

em Tecnologia
quinta-feira, 30 de abril de 2026

A Check Point® Software Technologies Ltd. (NASDAQ: CHKP), pioneira e líder global em soluções de cibersegurança, reforça o cuidado no uso crescente de ferramentas de inteligência artificial (IA) no dia a dia, como assistentes virtuais e chatbots, porque podem expor usuários a riscos relevantes quando utilizados sem cautela. A recomendação fundamental tanto para o usuário final como para empresas é simples e direta no sentido de que nem toda informação deve ser compartilhada com as plataformas de IA.
 
Segundo Tony Sabaj, especialista em cibersegurança e líder de engenharia de canais no escritório do CTO da Check Point Software, existe um descompasso entre a percepção de privacidade e o funcionamento real dessas ferramentas. “Muitos usuários tratam a IA como um ambiente privado, mas na prática estão interagindo com sistemas que coletam e processam dados continuamente”, afirma.
 
De acordo com o executivo, diversas plataformas armazenam conversas por padrão, o que amplia o risco de exposição de informações sensíveis. Esses dados podem ser analisados, reutilizados e, em alguns casos, incorporados ao treinamento de modelos, dependendo das políticas de uso de cada serviço.
 
O especialista da Check Point destaca cinco tipos de informações que não devem ser compartilhadas com ferramentas de IA:

  1. Dados pessoais sensíveis, como CPF, endereço, telefone e documentos oficiais, que podem ser explorados em fraudes e roubo de identidade.
  2. Informações financeiras, incluindo números de cartão, contas bancárias e dados de pagamento, com potencial de uso indevido.
  3. Credenciais de acesso, como senhas e códigos de autenticação, que podem comprometer contas pessoais e corporativas.
  4. Dados corporativos confidenciais, como contratos, estratégias e informações internas, com risco de vazamento e impacto competitivo.
  5. Conteúdos sigilosos ou protegidos, incluindo informações de clientes e propriedade intelectual, que podem gerar implicações legais e reputacionais.

“Os riscos vão de fraudes financeiras a vazamentos corporativos. O problema não está apenas no uso indevido imediato, mas no fato de que esses dados podem permanecer armazenados e serem reutilizados posteriormente”, ressalta Sabaj.
 
Para usuários que já compartilharam informações críticas, a recomendação é agir rapidamente, com troca de senhas, revisão de acessos e monitoramento de possíveis usos indevidos. Já no ambiente corporativo, a orientação é reforçar políticas de uso de IA, treinar colaboradores e adotar controles que limitem o compartilhamento de dados críticos.
 
O avanço da IA amplia ganhos de produtividade e acesso à informação, mas também exige maior atenção à proteção de dados. Por isso, os especialistas reforçam que a adoção segura dessas ferramentas passa por mudança de comportamento, com foco em conscientização e gestão de risco no uso cotidiano.

Como proteger dados sensíveis na era da Inteligência Artificial Generativa – Jornal Empresas & Negócios