O Google interveio para esclarecer que o aplicativo Android System SafetyCore recém-lançado não realiza nenhuma verificação de conteúdo no lado do cliente.
“O Android oferece muitas proteções no dispositivo que protegem os usuários contra ameaças como malware, spam de mensagens e proteções contra abusos, além de proteção contra golpes por telefone, ao mesmo tempo em que preserva a privacidade do usuário e mantém os usuários no controle de seus dados”, disse um porta-voz da empresa ao The Hacker News quando contatado para comentar.
“SafetyCore é um novo serviço de sistema do Google para dispositivos Android 9+ que fornece a infraestrutura no dispositivo para executar a classificação de forma segura e privada para ajudar os usuários a detectar conteúdo indesejado. Os usuários têm controle sobre o SafetyCore e o SafetyCore classifica apenas conteúdo específico quando um aplicativo o solicita por meio de um recurso opcionalmente habilitado.”
O SafetyCore (nome do pacote “com.google.android.safetycore”) foi introduzido pela primeira vez pelo Google em outubro de 2024, como parte de um conjunto de medidas de segurança projetadas para combater golpes e outros conteúdos considerados confidenciais no aplicativo Google Mensagens para Android.
O recurso, que requer 2 GB de RAM, está sendo lançado para todos os dispositivos Android, executando a versão 9 e posteriores, bem como aqueles que executam o Android Go, uma versão leve do sistema operacional para smartphones básicos.
A varredura do lado do cliente (CSS), por outro lado, é vista como uma abordagem alternativa para habilitar a análise de dados no dispositivo, em vez de enfraquecer a criptografia ou adicionar backdoors aos sistemas existentes. No entanto, o método levantou sérias preocupações com a privacidade, pois está pronto para abusos ao forçar o provedor de serviços a procurar material além do escopo inicialmente acordado.
De certa forma, os Avisos de Conteúdo Sensível do Google para o aplicativo Mensagens são muito semelhantes ao recurso de Segurança de Comunicação da Apple no iMessage, que emprega aprendizado de máquina no dispositivo para analisar anexos de fotos e vídeos e determinar se uma foto ou vídeo parece conter nudez.
Os mantenedores do sistema operacional GrapheneOS, em uma publicação compartilhada no X, reiteraram que o SafetyCore não fornece varredura do lado do cliente e foi projetado principalmente para oferecer modelos de aprendizado de máquina no dispositivo que podem ser usados por outros aplicativos para classificar conteúdo como spam, golpe ou malware.
“Classificar coisas assim não é o mesmo que tentar detectar conteúdo ilegal e denunciá-lo a um serviço”, disse GrapheneOS. “Isso violaria muito a privacidade das pessoas de várias maneiras e falsos positivos ainda existiriam. Não é o que é e não é utilizável para isso.”