55 views 8 mins

O ChatGPT é seguro? Conheça algumas medidas para se proteger

em Manchete Principal
quinta-feira, 25 de abril de 2024

Embora existam preocupações com a privacidade do ChatGPT e exemplos de golpes de malware que o utilizam, o chatbot revolucionário tem muitas barreiras de segurança integradas e, geralmente, é considerado seguro para uso.

No entanto, como acontece com qualquer ferramenta online, especialmente as mais novas, é importante praticar uma boa higiene digital e manter-se informado sobre as potenciais ameaças à privacidade, bem como sobre as formas como a ferramenta pode ser utilizada indevidamente. Com sua capacidade impressionante de escrever conteúdo, o ChatGPT rapidamente se tornou popular entre os estudantes, profissionais e usuários casuais.

Mas com todo o entusiasmo em torno dele e as primeiras histórias sobre a tendência de tropeçar do GPT, as preocupações com a segurança do ChatGPT são justificadas. Por isso, a Norton, marca líder em segurança cibernética e parte da Gen™, descreve os principais pontos, riscos de segurança que você precisa saber e que podem existir com relação ao ChatGPT. Confira:

  1. – Vazamentos de dados – Uma violação de dados ocorre quando dados confidenciais ou privados são expostos sem autorização, os quais podem ser acessados e usados em benefício de um cibercriminoso. Por exemplo, se os dados pessoais compartilhados em uma conversa do ChatGPT forem comprometidos, você corre o risco de roubo de identidade.
  2. – Phishing – É um conjunto de táticas manipulativas que os cibercriminosos usam para induzir as pessoas a fornecer informações confidenciais, como senhas ou detalhes de cartão de crédito. Certos tipos, como o phishing por e-mail ou phishing por clone, envolvem golpistas que se fazem passar por fontes confiáveis, como o seu banco ou empregador.

Um dos pontos fracos das táticas de phishing é a presença de sinais reveladores, como ortografia ou gramática incorretas. Mas, agora, o ChatGPT pode ser usado por golpistas para criar e-mails de phishing altamente realistas, em vários idiomas, que podem facilmente enganar as pessoas.

Imagem: jakkapan21_CANVA
  1. – Desenvolvimento de malware – É um software malicioso que os cibercriminosos usam para obter acesso e danificar um sistema de computador ou rede. Todos os tipos de malware requerem código de computador, o que significa que os cibercriminosos normalmente precisam conhecer uma linguagem de programação para criar um novo malware.
  2. – Catfishing – É é uma prática enganosa de criação de uma identidade online falsa para enganar outras pessoas para fins maliciosos, como fraudes ou roubo de identidade. Como a maioria das táticas de engenharia social, o catfishing requer excelentes habilidades de phishing. Mas os hackers agora podem usar o ChatGPT para criar conversas mais realistas ou até mesmo se passar por pessoas específicas.
  3. – Desinformação – O ponto forte do ChatGPT é sua capacidade de imitar a maneira como os humanos escrevem e usam a linguagem. Embora o modelo de linguagem seja alimentado por grandes quantidades de dados e possa responder com precisão a muitas questões complexas, sabe-se que ele comete erros graves e gera conteúdo falso, um fenômeno chamado de “alucinação”.

Sempre que o ChatGPT ou qualquer outra IA generativa é utilizada, é crucial verificar a informação que produz, pois muitas vezes pode inventar coisas e ser muito convincente.

  1. – Whaling – Este é um ataque cibernético que tem como alvo um indivíduo de alto perfil, como um executivo de negócios ou um alto funcionário de uma organização, geralmente com o objetivo de roubar informações confidenciais ou cometer fraudes financeiras.
    Embora as empresas possam se proteger contra muitos ataques, usando as melhores práticas de segurança cibernética, um cibercriminoso pode usar o ChatGPT para criar e-mails realistas que podem contornar os filtros de segurança e ser usados em um ataque de whaling.
Imagem: Just_Super_CANVA

Confira algumas dicas importantes de segurança e práticas recomendadas para se manter seguro ao usar o ChatGPT:

  1. – Evite compartilhar informações confidenciais. É importante manter a privacidade dos dados pessoais e nunca revelar informações financeiras ou outras informações confidenciais durante conversas com ChatGPT.
  2. – Revise sempre as políticas de privacidade. É recomendável que você leia a política de privacidade da OpenAI, para entender como os dados são tratados e qual o nível de controle que você tem sobre eles.
  3. – Use uma conta anônima. Considere usar uma conta anônima para interagir com o ChatGPT, tendo uma barreira adicional de privacidade digital – embora possa ser necessário fornecer e verificar um número de telefone para se registrar.
  4. – Use uma senha forte. Siga as boas práticas de segurança criando senhas diferentes, seguras e únicas, sendo fundamental alterá-las periodicamente para manter sua conta segura.
  5. – Mantenha-se informado. Esteja atualizado sobre os últimos problemas de segurança de IA e golpes no ambiente online relacionados. Conhecimento é poder, quando se trata de segurança cibernética.
  6. – Use sempre um software antivírus. Um bom software antivírus como o Norton 360 pode ajudar a proteger os dispositivos contra possíveis ameaças cibernéticas, baseando-se em uma poderosa tecnologia antimalware heurística para ajudar na segurança contra as emergentes e novas ameaças de malware. Além disso, possui VPN integrada para criptografar as informações enviadas e recebidas online, ajudando a proteger os dados pessoais.

Iskander Sanchez-Rola, Diretor de Inovação em Privacidade da Norton, explica que “um passo importante para se proteger da exposição de dados confidenciais é estar ciente de como um site, aplicativo ou chatbot utiliza os dados pessoais.

Para isso, devemos nos fortalecer e nos proteger diante da constante evolução da vida digital, a fim de mitigar os possíveis riscos associados a fraudes de chatbot, como violações de dados ou ataques de malware”. – Fonte e outras informações: (https://br.norton.com/).