Cassiano Cavalcanti (*)
A nova ferramenta da empresa OpenAI para textos, o ChatGPT, se tornou um dos assuntos mais comentados do momento.
Sendo visto como a próxima onda revolucionária de chatbots, que estão se tornando cada vez mais populares entre as empresas, pois fornecem uma maneira prática e intuitiva de interagir com os clientes. No entanto, com o aumento da popularidade, o potencial de riscos de fraude também cresceu, podendo acontecer de várias formas, desde ataques de malware até golpes de phishing.
Por isso, é preciso que os bancos estejam atentos e se preparem para diversas situações. Os ataques de malware podem ser usados para roubar informações pessoais ou acessar dados confidenciais, enquanto os golpes de phishing usam mensagens enganosas para tentar convencer um usuário a fornecer informações confidenciais, como senhas ou números de cartão de crédito.
Além desses ataques potenciais, os chatbots também podem ser explorados para roubo de identidade. À medida que se tornam mais sofisticados, eles podem ser treinados para imitar os padrões de fala de uma pessoa e, até mesmo, seu estilo de escrita. Isso torna mais fácil para os fraudadores se passarem por um usuário e obter acesso à sua conta ou dados. Os bancos que usam o chat para interagir com os clientes devem se atentar, pois a ferramenta pode fornecer informações que não são precisas.
Caso não seja projetado corretamente, os clientes podem receber respostas inadequadas às suas perguntas, o que pode gerar confusão e possível perda de confiança na instituição financeira. Levando em consideração que os chatbots não têm o mesmo nível de inteligência emocional que os humanos, eles podem ser incapazes de lidar com algumas dúvidas, provocando insatisfação do cliente.
Em relação à prevenção de fraudes, o ChatGPT pode ser usado como uma ferramenta de processamento de linguagem natural (NLP, em inglês), analisando e-mails em busca de padrões suspeitos de linguagem e identificando anomalias que podem ser um sinal de fraude.
Ele também pode comparar o texto com os outros enviados anteriormente pelo mesmo usuário para determinar se o idioma é consistente com seu estilo de escrita anterior. Ao usar o NLP para detectar anomalias em e-mails, o protótipo pode ajudar a identificar e prevenir fraudes.
Ele também foi projetado para evitar o uso indevido por pessoas mal-intencionadas, como criptografia de dados, autenticação, autorização e controle de acesso, por meio de algoritmos de aprendizado de máquina para detectar e bloquear atividades maliciosas. Dessa forma, é possível que criminosos criem conversas que pareçam legítimas, mas que, na verdade, mascaram atividades de lavagem de dinheiro.
Por exemplo, um criminoso pode usar para parecer que discute sobre atividades comerciais legais, mas, na verdade, visa ocultar a transferência de fundos. Como resultado, é mais difícil para as instituições financeiras e outras entidades detectar padrões de atividades de lavagem de dinheiro quando eles estão ocultos em uma conversa gerada por um GPT.
Essas novas tecnologias desafiam os controles tradicionais de prevenção a fraudes, por isso, os bancos precisam criar sistemas mais sofisticados para proteção dos seus clientes contra essas ameaças, como a biometria comportamental, atualizações regulares de segurança, autenticação de usuário e autenticação multifator.
A biometria comportamental pode desempenhar um papel importante na detecção de fraudes em um mundo pós-ChatGPT. Ao analisar o comportamento do usuário, como velocidade de digitação, teclas digitadas, movimentos do mouse e outros comportamentos, criando uma perfil biométrico comportamental exclusivo para cada usuário. Esse perfil pode então ser usado para identificar anomalias e detectar fraudes com maior precisão.
(*) – É diretor de pré-vendas da BioCatch na América Latina (https://www.biocatch.com/latam-momentum-portuguese).