(none) || (none)
UAI
Publicidade

Estado de Minas NOVA YORK

Apple intensifica busca por imagens de abuso infantil em seus telefones e servidores

Empresa usará ferramentas criptografadas que analisem e vinculem imagens que considerarem suspeitas com um número específico para cada uma


06/08/2021 00:01 - atualizado 06/08/2021 08:59

(foto: pixabay)
(foto: pixabay)


A gigante de informática Apple apresentou nesta quinta-feira (5) novas ferramentas destinadas a detectar imagens sexuais de crianças armazenadas nos Iphones, Ipad e nos seus servidores iCloud nos Estados Unidos, provocando preocupação nos defensores da privacidade na internet.

"Queremos ajudar a proteger as crianças dos predadores que usam ferramentas de comunicação para recrutá-las e explorá-las, e limitar a difusão de pornografia infantil", disse o grupo em sua página.

A empresa usará ferramentas criptografadas que analisem e vinculem imagens que considerarem suspeitas com um número específico para cada uma.

Também planeja comparar as fotos armazenadas no iCloud com as guardadas em um arquivo administrado pelo Centro Nacional de Crianças Desaparecidas e Exploradas (NCMEC), uma corporação privada americana que trabalha para reduzir a exploração sexual infantil. A Apple assegura que não tem acesso direto às imagens.

Quando uma foto se parecer com alguma do arquivo, a Apple a revisará manualmente, desabilitará a conta do usuário se necessário e enviará um relatório ao NCMEC.

O grupo também planeja novas ferramentas para prevenir crianças e pais que tenham uma conta para "Compartilhar em família" (Family Sharing) quando fotos explícitas lhes forem enviadas ao aplicativo de mensagens.

As fotos ficarão embaçadas e o menor receberá mensagens preventivas como advertência de que não é obrigado a abri-las.

Os pais podem optar por receber uma mensagem quando o filho abrir as fotos. Serão implementadas proteções similares para crianças que enviarem fotos sexualmente explícitas.

O grupo também incrementará a informação de prevenção difundida pela assistente de voz Siri quando as crianças ou os pais pedirem conselhos sobre situações determinadas.

A Siri e o Search também podem intervir quando os usuários buscarem imagens de pornografia infantil, advertindo-lhes que o conteúdo é problemático.

Estas ferramentas estarão disponíveis gradativamente com as próximas atualizações dos sistemas operacionais no iPhone, iPad, iWatch e iMac.

- Privacidade -

As medidas "representam uma mudança significativa nos protocolos de privacidade e segurança estabelecidos há muito tempo", estimou o Centro para a Democracia e Tecnologia (CDT).

"A Apple está substituindo seu sistema de mensagens criptografadas de ponta a ponta por uma infraestrutura de vigilância e censura, que será vulnerável a abusos e uso indevido não apenas nos Estados Unidos, mas em todo o mundo", criticou Greg Nojeim, do CDT, em uma mensagem enviada para a AFP.

"A exploração infantil é um problema sério e a Apple não é a primeira empresa de tecnologia a mudar sua postura sobre a proteção da privacidade na tentativa de combatê-la", destacaram India McKinney e Erica Portnoy, da ONG em defesa da liberdade na Internet Electronic Frontier Foundation.

Mas, mesmo desenvolvido com a melhor das intenções, um sistema projetado para detectar pornografia infantil "abre a porta para novos abusos", completaram em um post em blog.

Basta a Apple modificar um pouco a configuração para buscar outros tipos de conteúdo ou escanear as contas não só das crianças, mas de todos, explicam.

APPLE INC.


receba nossa newsletter

Comece o dia com as notícias selecionadas pelo nosso editor

Cadastro realizado com sucesso!

*Para comentar, faça seu login ou assine

Publicidade

(none) || (none)