Por Marcelo Tavares de Santana*
Ficamos preocupados com computação quântica, com senhas fracas, nos preocupamos com supercomputadores, lista de palavras, etc. e tantas e tantas coisas que possam ferir nossa privacidade e intimidade, e eis que num aplicativo que sempre se vale da publicidade da segurança via criptografia ponta a ponta, a privacidade de todos é colocada em risco. Antes de refletirmos sobre esse risco presente nesse exemplo dado no aplicativo WhatsApp, vamos relembrar algumas coisas: criptografia ponta a ponta, lista de palavras e modelos de linguagem.
A criptografia ponta a ponta é aquela onde somente o remetente e o destinatário de uma mensagem podem ver o conteúdo da mesma. Para isso são utilizadas técnicas de criptografia assimétrica que inclui a troca de chaves criptográficas entre as duas partes (pontas) para realização de criptografia exclusiva para cada relação de comunicação que existir. É possível existir criptografia em mensagens para grupos de três ou mais pessoas, mas isso envolve mais trocas dessas chaves criptográficas. Uma lista de palavras é um conjunto das palavras mais comuns na vida de uma pessoa e que potencialmente podem ser usadas em senhas para acesso a serviços digitais, assim, a lista de palavras contêm informações como cor predileta, nome de animal de estimação, etc. e podem auxiliar na descoberta das possíveis senhas que alguém usaria. Modelo de linguagem é um sistema de regras computacionais desenvolvido/treinado para manipular e gerar texto a partir de dados linguísticos, por exemplo, dados de mensagens. Os serviços de “inteligência artificial” generativa usam grandes modelos de linguagem e grandes volumes de dados linguísticos para gerarem novos textos, mas um modelo de linguagem também pode ser usado num smartphone através da leitura dos textos dentro dos aplicativos para gerar novos textos que tende a ter o estilo de escrita do usuário do equipamento e usar as palavras mais comuns de seu uso.
Como muitos já perceberam, no mundo dos serviços digitais é comum que as empresas modifiquem seus termos de uso de serviço, a usabilidade dos aplicativos, a interface de usuário, etc. Uma mudança recém-percebida no aplicativo WhatsApp, somente na versão para smartphone, é um exemplo dessas mudanças. Ao clicar no nome de um contato a partir da conversa com ele, é aberta uma tela com os dados dessa conversa, assim como dados e mais configurações. Enquanto essa matéria é escrita, e até a próxima mudança no aplicativo, temos a opção “Privacidade avançada da conversa”, e ao escolher essa opção lemos a mensagem “Limite a maneira como as mensagens e mídias desta conversa podem ser compartilhadas fora do WhatsApp”. Ao clicar em “Saiba mais” ainda encontramos a informação “Não será possível exportar mensagens”. Aqui cabem algumas questões: Se a criptografia é de ponta a ponta para preservar a privacidade, como pode existir alguma configuração de limite para compartilhar dados da conversa privada? Qual é a relação de ativar a privacidade avançada e o impedimento de exportar mensagens como cópia de segurança (backup) entre meus equipamentos? A resposta direta é que o aplicativo funciona como a empresa/organização quiser, mesmo em alternativas como Signal e Telegram, e a diferença é o tipo de relação de transparência escolhida por cada entidade. Impedir o backup das próprias mensagens é uma forma de desestimular a ativação da privacidade avançada, permitindo que tudo seja usado.
Mas não fere a Lei Geral de Proteção de Dados (LGPD)? Apesar de ser algo muito novo e que precisa ser estudado, arrisco dizer que provavelmente não, se o modelo de linguagem personalizado for treinado no próprio smartphone e somente o resultado desse modelo for compartilhado; pois não são os dados pessoais em si, mesmo que os modelos contenham indiretamente estatísticas de nossas vidas. Com a exposição que fazemos de nós mesmos nas redes sociais é possível criar uma lista personalizada de palavras que pode ser usada para alimentar o modelo personalizado de linguagem já fora de nossos equipamentos; é como se o modelo fosse uma equação e a lista de palavras o valor das variáveis para essa equação. O resultado pode ser algo muito próximo do que escrevemos ou algo que vamos escrever, sem compartilhar os dados pessoais protegidos pela LGPD, mas que foram usados para treinar o modelo personalizado de linguagem. Em outras palavras, esse modelo pode se aproximar de nosso estilo de escrever, incluindo opiniões e temas recorrentes, e ser usado para se passar por nós.
Outras questões vão surgir, por exemplo, as conversas antigas já foram compartilhadas antes que pudéssemos ter a oportunidade de ativar a privacidade avançada? Vai surgir conflitos de interesse entre pessoas na mesma conversa com aquelas que querem fazer backup e aquelas que não querem compartilhar os dados? Será que vamos precisar de um selo LGPD nos aplicativos e redes sociais, a exemplo do quê já aconteceu na classificação indicativa na TV e rotulagem de alimentos com ingredientes transgênicos? Será que vamos eternamente ter empresas explorando brechas na Lei e os Estados tendo que criar infinitas leis para coibir abusos? Confesso que essa situação é cansativa, e só vejo uma saída que é o abandono de certos aplicativos por outros menos invasivos; difícil deixar de usar certos aplicativos pois muitas relações foram capturadas neles criando dependência dos mesmos, mas não impossível. Dos aplicativos mencionados, a Signal Foundation, responsável pelo aplicativo Signal, é a que demonstra maior transparência de operação: sem fim lucrativos, código totalmente open source, criptografia ponta a ponta por padrão em todas as conversas, modelo de negócios baseado em doações e subsídios, relatórios de transparência e auditorias externas regulares. Se o Signal fosse uma rede federada seria melhor mas é um bom caminho para mais segurança para a sociedade, assim seguem um exemplo para indiretamente dizermos as empresas que queremos privacidade, usando o WhatsApp:
- semana 1: entre nas conversas e ative a segurança avançada, talvez escolha as mais pessoais pois terá que ser feito conversa a conversa;
- semana 2: verifique se outros aplicativos têm algum texto duvidoso sobre o compartilhamento, e se facilitam backup;
- semana 3: envie mensagens globais, como no Status do WhatsApp, falando sobre novas questões de privacidade e o quê decidiu fazer;
- semana 4: se optou por algum outro aplicativo, como o Signal, comece a conversa por eles o máximo possível.
Ainda seremos obrigados a usar esse ou aquele aplicativo para acessarmos alguns serviços de atendimento ao cliente e similares por escolha da outra parte, mas nas relações pessoais podemos conversar com nossos parentes e amigos para migrarmos para algo mais transparente e aos poucos reconstruirmos nossas relações em ambientes mais confiáveis.
Boa privacidade a todos!
*Professor de Ensino Básico, Técnico e Tecnológico do Instituto Federal de São Paulo