Novas tecnologias baseadas em inteligência artificial estão sendo desenvolvidas atualmente, algumas voltadas para o conversacional, como o ChatGPT. Criado pela OpenAI a ferramenta oferece textos e informações com uma linguagem natural e é capaz de evoluir e se aprimorar com o tempo.
Não obstante, seu uso deve ser feito de forma cautelosa, visto que quando utilizado de maneira inadequada pode trazer sérios prejuízos. Visualizando uma oportunidade de invadir sistemas e obter dados pessoais, os hackers tendem a utilizar a ferramenta para criar malwares, tipos de softwares mal intencionados que buscam invadir sistemas, computadores ou dispositivos.
Sendo assim, criam modelos de ChatGPT que vão gerar conteúdos maliciosos, alguns deles sendo: phishing, engenharia social e injeção de comandos maliciosos.
Existem maneiras específicas nas quais essas “armadilhas” podem ser criadas, eles podem treinar o modelo para gerar um email que parece ser de um amigo ou colega, mas na verdade é um email malicioso com um link para um site falso ou um arquivo infectado. Além disso, os hackers podem usar o ChatGPT para criar um chatbot que imita um ser humano, com o objetivo de enganar os usuários e obter informações confidenciais.
A grande dificuldade com os ataques realizados com o ChatGPT acaba sendo a naturalidade com que a ferramenta transmite a informação. Esse fato dificulta o reconhecimento da ameaça, o que acaba fazendo com que as pessoas acreditem no que está sendo dito.
Há ainda algumas formas onde o hacker pode se aproveitar da ferramenta, sendo através de:
- Engenharia social: consiste na manipulação dos usuários para que informem os dados e informações que precisa;
- Injeção de comandos maliciosos: podem aplicar comandos maliciosos no ChatGPT a fim de descobrir vulnerabilidades. Uma maneira de realizar tal feio é através da inserção de scripts mal intencionados na entrada de texto dos usuários;
- Visualização e exploração de vulnerabilidades de seguranças: podem tentar encontrar as vulnerabilidade do ChatGPT, como erros de programação, fragilidades de hardware e falhas de segurança
- Força bruta: acontecem principalmente em locais onde é necessário a identificação e autenticação de um usuário. Sendo assim, os cibercriminosos tentam adivinhar as senhas até conseguir acessar o sistema.
O tema tem levado a OpenAI a se dedicar a criar algoritmos de privacidade que garantam que os dados dos usuários sejam mantidos seguros e que a privacidade seja respeitada.
Confira algumas ações a serem desempenhadas pelos usuários para que se protejam de tais ataques cibernéticos:
- Não entregar dados e informações pessoais para bots desconhecidos;
- Não acessar links, sites ou baixar documentos não confiáveis;
- Seguir com senhas mais complexas e priorizar a autenticação de dois fatores;
- Revisitar o sistema com frequência para evitar ataques maliciosos no ChatGPT;
- Checar quem enviou os e-mails antes de responder ou tomar qualquer outra ação;
- Incluir sistema de segurança para barrar vírus e encontrar tráfego malicioso.
Lei Geral de Proteção De Dados
O tópico acaba se relacionando diretamente com a LGPD, visto que o acesso e uso não autorizado de dados é considerado uma violação à privacidade e à proteção de dados. As empresas que coletam e armazenam esses dados são obrigadas a protegê-los, e uma das medidas para isso é a prevenção de ataques cibernéticos.
A atuação dos advogados e juristas pode ser essencial para garantir a proteção dos direitos dos indivíduos em casos de abuso por parte de inteligências artificiais. É importante que eles estejam atualizados quanto às leis existentes e possam utilizar argumentos jurídicos para garantir a proteção dos direitos dos seus clientes.
Artigo elaborado pela Comissão de Privacidade, Proteção de Dados e Inteligência Artificial da OAB SP