176 views 7 mins

Quatro maiores riscos do uso do ChatGPT (e demais robôs) no trabalho

em Especial
segunda-feira, 13 de novembro de 2023

Colaboradores estão confiando cada vez mais em chatbots e a Kaspersky explica como usá-los de forma segura

Atualmente, é comum que modelos linguísticos fundamentados em redes neurais (chatbots), como o ChatGPT, sejam usados no ambiente profissional. Porém, esse fenômeno traz uma questão crucial: podemos confiar nas plataformas para enviar dados corporativos sensíveis? Os investigadores da Kaspersky identificaram quatro riscos principais associados à utilização do ChatGPT para fins empresariais.

Diversas pesquisas recentes corroboram esse cenário de popularidade dos chatbots, indicando um aumento significativo na confiança das pessoas por essas ferramentas: as pesquisas do Google por “gerador de texto de IA” cresceram 820% no início deste ano, ante o anterior. O Brasil destaca-se como o quinto país que mais utiliza o ChatGPT no mundo. Entenda abaixo os principais riscos de se utilizar a ferramenta no que se refere a privacidade de dados.

Vazamento de dados ou hacking do lado do fornecedor
Embora os chatbots fundamentados em Modelos de Linguagem de Grande Escala (LLMs) sejam geridos por grandes empresas de tecnologia, não estão isentos de serem alvo de ataques hackers ou de sofrerem com vazamentos de dados acidentais. Um exemplo disso foi um problema em que as pessoas que usam o ChatGPT conseguiram ver mensagens antigas de conversas de outros usuários da plataforma sem autorização.

Vazamento de dados por meio dos chatbots
Teoricamente, as conversas com chatbots podem ser utilizadas para treinar modelos futuros. Considerando que os Modelos de Linguagem de Grande Escala (LLMs) são suscetíveis à “memorização não intencional” – em que eles lembram sequências únicas, como o número de telefone, que não melhoram a qualidade do modelo, mas apresentam riscos de privacidade – qualquer informação inserida pode ser acessada por outros usuários, seja de forma acidental ou intencional.

Cliente malicioso
Esta é uma grande preocupação em locais onde os serviços oficiais como o ChatGPT estão bloqueados. Os usuários podem recorrer a alternativas não oficiais como programas, sites ou bots de mensagens e acabar baixando um malware disfarçado de cliente ou aplicativo fictícios.

Pirataria de contas
Os criminosos podem entrar nas contas dos funcionários, acessando os seus dados através de ataques de phishing ou de preenchimento de credenciais. Além disso, o Kaspersky Digital Footprint Intelligence encontra regularmente publicações da dark web que vendem acesso a contas de chatbot.

Um exemplo de publicação na dark web que oferece acesso à conta empresarial ChatGPT e Synthesia por 40 dólares

Os programadores responsáveis esclarecem a forma como os dados são utilizados para o treinamento de modelos nas suas políticas de privacidade. A Kaspersky analisou diversos chatbots populares, incluindo o ChatGPT, ChatGPT API, Anthropic Claude, Bing Chat, Bing Chat Enterprise, You.com, Google Bard e Genius App da Alloy Studios e revelou que no setor B2B, existem padrões de segurança e privacidade mais rígidos, devido aos riscos maiores associados à exposição de informações empresariais.

Consequentemente, os termos e condições de uso, coleta, armazenamento e processamento de dados estão mais focados na proteção e segurança em comparação com o setor B2C. As soluções B2B deste estudo normalmente não guardam automaticamente os históricos de conversa e, em alguns casos, nenhum dado é enviado para os servidores da empresa, uma vez que o chatbot funciona localmente na rede do cliente.

“Depois de examinarmos os potenciais riscos associados à utilização de chatbots baseados em LLM para fins profissionais, descobrimos que o risco de vazamento de dados sensíveis é maior quando os funcionários utilizam contas pessoais no trabalho, sendo uma prioridade máxima para as empresas. Por um lado, os funcionários precisam entender que dados são confidenciais ou pessoais, ou são informações comerciais sensíveis, e por isso não devem ser fornecidos a um chatbot. Por outro lado, a empresa deve definir regras claras para a utilização desses serviços, se é que são permitidos”, defende Anna Larkina, especialista em segurança e privacidade da Kaspersky.

Para saber mais sobre os riscos de privacidade da utilização de chatbots, visite o Securelist.

Para continuar a usar os chatbots de maneira segura, os especialistas da Kaspersky recomendam:
• Utilize senhas fortes, únicas e complexas para cada uma das suas contas e evite informações fáceis de se adivinhar, como datas de aniversário ou nomes.
• Tenha cuidado com e-mails, mensagens ou chamadas não solicitadas que peçam informações pessoais. Verifique a identidade do remetente antes de compartilhar quaisquer dados sensíveis.
• Os colaboradores das empresas devem manter-se informados sobre as últimas ameaças online e as melhores práticas para se manterem seguros.
• Atualize regularmente o seu sistema operativo, aplicativos e programas antivírus. Estas atualizações contêm frequentemente patches de segurança.
• Tenha cuidado com o compartilhamento de informações pessoais nas redes sociais. Forneça-as apenas quando for absolutamente necessário.
• Verifique novamente o URL dos sites que visita, especialmente antes de usar seus dados de acesso ou de efetuar compras.
• Para evitar que os funcionários consultem de forma independente chatbots não confiáveis para fins de trabalho, ofereça uma solução de segurança com análise de serviços na nuvem.