PublieditorialTecnologia & Inovação

ChatGPT seria a aposta de 75% das pessoas para melhorar paquera

As estratégias de namoro estão ganhando uma nova dimensão. Segundo uma pesquisa da empresa de cibersegurança Kaspersky, 3 em cada 4 usuários de aplicativos de namoro (como Tinder, Bumble e Inner Circle) declararam interesse em usar o ChatGPT ou outras plataformas de inteligência artificial para aprimorar suas habilidades de paquera e aumentar suas chances com potenciais parceiros românticos.

De acordo com o estudo, o público masculino é o mais atraído pela tecnologia, com 54% dos homens afirmando que usariam a ferramenta para melhorar sua personalidade em termos de inteligência e humor. Entre as mulheres, a cifra foi de 51%.

Ironicamente, apesar do alto interesse na tática, a maioria dos entrevistados se disse “preocupada” com seu uso, alegando que a prática seria “desonesta” e possibilitaria uma nova era de catfish baseado em inteligência artificial.

Os perigos ocultos do ChatGPT

As ressalvas dos usuários são, de fato, muito bem fundamentadas. Como mostram as últimas notícias, as ferramentas de inteligência artificial têm sido usadas não apenas para fraudes românticas, mas também em diversos golpes na rede. Abaixo estão os casos mais comuns.

Catfish

O catfish envolve a criação de identidades falsas online para enganar as pessoas no campo dos relacionamentos – muitas vezes para ganho pessoal ou simples manipulação emocional. Com os recursos do ChatGPT, os criminosos conseguem criar perfis fakes com auxílio de inteligência artificial e desenvolver, assim, conversas e histórias mais realistas para convencer seus alvos.

Uma vez que tenham ganhado a confiança de suas vítimas, os fraudadores podem abusar desse laço para pedir dinheiro ou informações pessoais, e se aproveitar da situação para perpetrar suas ações maliciosas.

Phishing

Outra forma comum de se explorar o ChatGPT para fins perniciosos tem sido a criação de e-mails de phishing. Embora a utilização desses e-mails não seja novidade, as plataformas de inteligência artificial têm elaborado mensagens tão convincentes que, por vezes, até mesmo os profissionais mais versados em inteligência de ameaças cibernéticas (Cyber Threat Intelligence) acabam sendo enganados.

O principal problema com essas comunicações fajutas são os potenciais riscos que elas oferecem aos usuários. Por meio do phishing, afinal, os criminosos podem causar violações de dados, perdas financeiras, propagação de malware e até danos à reputação.

Malware

Não fosse o suficiente, o ChatGPT também pode ser usado para outras atividades danosas, a exemplo da criação de programas maliciosos, como demonstrou o especialista em cibersegurança, Leonardo La Rosa, que criou uma “fábrica de vírus de computador” usando a plataforma.

De acordo com La Rosa, foi possível desenvolver códigos de keyloggers (usados para capturar tudo o que é digitado pelos usuários) e ransomwares (empregados para “sequestrar” documentos dos dispositivos e, então, exigir um pagamento de “resgate”) quanto estratégias para ocultar esses arquivos maliciosos do radar dos antivírus.

Como se proteger contra as ameaças criadas pelo ChatGPT?

Proteger-se contra os perigos gerados pelo ChatGPT requer uma combinação de vigilância, conscientização e uso de ferramentas de cibersegurança. Deve-se, em primeiro lugar, manter certa cautela durante as conversas com estranhos na internet – sejam elas com intuitos românticos ou não.

Em segundo, é crucial que os usuários se atualizem quanto às novas tendências tecnológicas, sobretudo em termos de golpes online. Ao ter consciência do que os criminosos estão fazendo na atualidade, é mais fácil perceber onde estão os “sinais de alerta” que devem ser notados em suas comunicações virtuais.

Por fim, as ferramentas de segurança cibernética podem auxiliar os usuários a escapar do download de malware, ou a evitar sites fraudulentos que simulam páginas genuínas.

Combinando essas táticas, os usuários podem se salvaguardar dos principais riscos impostos pelo ChatGPT. Já os riscos de uma decepção amorosa…

Botão Voltar ao topo