Especialistas acreditam que “gurus” do jogo da Baleia Azul podem ser robôs

Mestre Jedi Especialistas acreditam que “gurus” do jogo da Baleia Azul podem ser robôs

Uma nova onda sinistra ronda a internet em vários países e vem ganhando força no Brasil: é o chamado Jogo da Baleia Azul (Blue Whale), que ganhou notoriedade por aqui nos últimos dias ao ser associado a diversos casos de tentativa de suicídio, com uma morte confirmada. No jogo, “gurus” usam apps de mensagem para chegar até jovens e propor uma série de desafios que devem ser realizados diariamente. Ao final, o “desafio máximo” envolveria tirar a própria vida.

Apesar de vários especialistas defenderem que se trata apenas de lenda a ligação do game com casos de suicídio, toda esta polêmica tem dado ainda mais foco à brincadeira. Os casos já são investigados pela polícia em vários estados brasileiros e a questão agora é se há o envolvimento de pessoas reais na indução ao suicídio.

Para o especialista em segurança digital Thiago Zaninotti, diretor de tecnologia da Aker N-Stalker, os gurus que passam as instruções durante o jogo são, na verdade, robôs. Para ele, o padrão de comunicação interativa revelado ao longo das conversas é compatível com os bots atuais, baseados em computação cognitiva.

“Em geral, os bots sociais, utilizados para finalidades criminosas ou lícitas, dispõem de recursos poderosos de autoaprendizado e são movidos por algoritmos de engenharia social que, embora relativamente sofisticados, estão se tornando cada vez mais corriqueiros nas estratégias de atração e engajamento de vítimas por parte do cibercrime”, aponta o executivo.

Ações repetitivas indicam um padrão

O presidente da Aker Rodrigo Fragola aponta outros indícios de que os mentores do Baleia Azul são bots programados para interagir com os jogadores como se fossem humanos. Ele explica que o game se baseia em um menu fixo de 50 desafios, como se cortar com uma lâmina ou ver um filme de terror, sempre na mesma ordem, sugerindo uma participação não humana.

“Para efeitos de comunicação verbal, tudo isto compreende um número pequeno de variáveis, passíveis de serem semanticamente mapeadas em esquemas de ação e reação bastante restritivos”, garante Fragola. Segundo ele, criar um bot para interagir desta forma é uma tarefa básica, como criar um robô que vai auxiliar consumidores a comprarem uma passagem aérea ou escolher um sapato.

Mestre Jedi Especialistas acreditam que “gurus” do jogo da Baleia Azul podem ser robôs
Jogo da Baleia Azul vem causando preocupação para pais e autoridades. (Foto: Half Alive/VisualHunt.com)

Cenário assustador

A ideia de haver robôs em vez de seres humanos ordenando que jovens se automutilem ou, em casos extremos, cometam suicídio parece horrível ou apenas ruim? Na visão do presidente da Aker, o cenário é assustador.

“Caso se confirme a hipótese, teremos na sociedade global uma combinação explosiva de robotização das relações sociais associada a um grande potencial de epidemias psicóticas”, comenta o Fragola. “Unindo-se esta tecnologia de bots com as de realidade aumentada e a virtualização progressiva da experiência, podemos chegar a um ambiente social com potencial destrutivo enorme.”

Não se sabe ao certo a origem do Baleia Azul, apenas que ele se tornou mundialmente conhecido a partir da Rússia, quando 130 casos de suicídios de jovens foram associados a ele. Todo este mistério é típico de instrumentos usados por hackers para obter vantagem financeira, roubar dados ou então escravizar computadores hackeados.

Segundo a Aker, a automatização do modelo proposto pelo jogo pode resultar em um cenário desolador no qual a mineração de dados em redes sociais ou a identificação de vítimas em potencial para spam com malwares seriam realizadas por bots inteligentes. Nestes casos, os robôs apareceriam como pessoais reais e conversariam com suas vítimas tal qual pessoas de verdade, tudo para aproveitar a “brecha” e realizar práticas criminosas.

Tal possibilidade leva a discussão para outro patamar. Independentemente de ter resultado em morte ou não, a questão levantada pelo Blue Whale desperta a necessidade de se discutir os possíveis malefícios da computação cognitiva.

“Está na hora da sociedade e da comunidade de segurança começarem a refletir sobre este fato. A corrida em busca de tecnologias para detectar, destravar e perseguir a origem desse tipo de ataque, com potencial de gerar convulsões em massa, já mobiliza todo o setor de segurança”, destaca Fragola. “Mas só com muita educação adequada às novas realidades da sociedade em nuvem é que poderemos aumentar o nível de segurança das crianças e adolescentes na Internet.”