
A Check Point® Software Technologies Ltd. (NASDAQ: CHKP), pioneira e líder global em soluções de cibersegurança, reforça o cuidado no uso crescente de ferramentas de inteligência artificial (IA) no dia a dia, como assistentes virtuais e chatbots, porque podem expor usuários a riscos relevantes quando utilizados sem cautela. A recomendação fundamental tanto para o usuário final como para empresas é simples e direta no sentido de que nem toda informação deve ser compartilhada com as plataformas de IA.
Segundo Tony Sabaj, especialista em cibersegurança e líder de engenharia de canais no escritório do CTO da Check Point Software, existe um descompasso entre a percepção de privacidade e o funcionamento real dessas ferramentas. “Muitos usuários tratam a IA como um ambiente privado, mas na prática estão interagindo com sistemas que coletam e processam dados continuamente”, afirma.
De acordo com o executivo, diversas plataformas armazenam conversas por padrão, o que amplia o risco de exposição de informações sensíveis. Esses dados podem ser analisados, reutilizados e, em alguns casos, incorporados ao treinamento de modelos, dependendo das políticas de uso de cada serviço.
O especialista da Check Point destaca cinco tipos de informações que não devem ser compartilhadas com ferramentas de IA:
- Dados pessoais sensíveis, como CPF, endereço, telefone e documentos oficiais, que podem ser explorados em fraudes e roubo de identidade.
- Informações financeiras, incluindo números de cartão, contas bancárias e dados de pagamento, com potencial de uso indevido.
- Credenciais de acesso, como senhas e códigos de autenticação, que podem comprometer contas pessoais e corporativas.
- Dados corporativos confidenciais, como contratos, estratégias e informações internas, com risco de vazamento e impacto competitivo.
- Conteúdos sigilosos ou protegidos, incluindo informações de clientes e propriedade intelectual, que podem gerar implicações legais e reputacionais.
“Os riscos vão de fraudes financeiras a vazamentos corporativos. O problema não está apenas no uso indevido imediato, mas no fato de que esses dados podem permanecer armazenados e serem reutilizados posteriormente”, ressalta Sabaj.
Para usuários que já compartilharam informações críticas, a recomendação é agir rapidamente, com troca de senhas, revisão de acessos e monitoramento de possíveis usos indevidos. Já no ambiente corporativo, a orientação é reforçar políticas de uso de IA, treinar colaboradores e adotar controles que limitem o compartilhamento de dados críticos.
O avanço da IA amplia ganhos de produtividade e acesso à informação, mas também exige maior atenção à proteção de dados. Por isso, os especialistas reforçam que a adoção segura dessas ferramentas passa por mudança de comportamento, com foco em conscientização e gestão de risco no uso cotidiano.




