(none) || (none)
UAI
Publicidade

Estado de Minas ELEIÇÕES 2022

YouTube vai exibir conteúdo educando usuários sobre fake news

Programa piloto será implementado no leste europeu para ajudar a combater desinformação em relação a refugiados ucranianos.


25/08/2022 09:50 - atualizado 25/08/2022 12:46


Mão de mulher segurando um smartphone, no qual o logotipo do YouTube é exibido na tela
(foto: Getty Images)

O YouTube planeja exibir anúncios que educam as pessoas sobre técnicas de desinformação, após um experimento bem-sucedido da Universidade de Cambridge, no Reino Unido.

Os pesquisadores descobriram que os vídeos melhoraram a capacidade das pessoas de reconhecer conteúdo manipulador.

Eles serão exibidos na Eslováquia, República Tcheca e Polônia para combater fake news (notícias falsas) sobre refugiados ucranianos.

O Google, empresa dona do YouTube, disse que as descobertas "emocionantes" mostram como a mídia social pode prevenir ativamente a disseminação de desinformação.

A pesquisa foi baseada em uma área de estudo em desenvolvimento chamada "prebunking", que investiga como a desinformação pode ser desmascarada ao mostrar às pessoas como ela funciona — antes de serem expostas à mesma.

No experimento, os anúncios foram exibidos para 5,4 milhões de pessoas, das quais 22 mil foram inquiridas posteriormente.

Depois de assistir aos vídeos explicativos, os pesquisadores observaram:

- Uma melhoria na capacidade dos participantes de identificar técnicas de desinformação;

- Uma maior habilidade para discernir conteúdo confiável de não confiável;

- Uma capacidade melhor de decidir se deseja ou não compartilhar conteúdo.

A pesquisa revisada por pares foi conduzida em conjunto com o Google e será publicada na revista científica Science Advances.

Beth Goldberg, chefe de pesquisa e desenvolvimento da unidade Jigsaw do Google, que se concentra em combater os riscos de segurança online, classificou as descobertas como "emocionantes".

"Demonstram que podemos expandir o prebunking para toda parte, usando anúncios como veículo", diz ela.

'Tropos comuns'

Jon Roozenbeek, principal autor do artigo, disse à BBC que a pesquisa é sobre "reduzir a probabilidade de alguém ser persuadido por desinformação".

"Obviamente, você não pode prever todos os exemplos de desinformação que vão se tornar virais", afirma.

"Mas o que você pode fazer é encontrar padrões e tropos comuns."

"A ideia por trás deste estudo era: se encontrarmos alguns desses tropos, é possível tornar as pessoas mais resilientes contra eles, mesmo em relação a conteúdo que nunca viram antes?"

Os cientistas inicialmente testaram os vídeos com membros do público sob condições controladas em um laboratório, antes de mostrá-los a milhões de usuários no YouTube, como parte de um estudo de campo mais amplo.

A campanha antidesinformação e a campanha prebunking foram veiculadas no YouTube "como seriam no mundo real", explica Roozenbeek.

"Nós as exibimos como anúncios do YouTube — assim como um anúncio sobre creme de barbear ou qualquer outra coisa... antes do vídeo ser reproduzido."

Como funcionou o estudo

Os anunciantes podem usar um recurso do YouTube chamado Brand Lift, que informa se e como um anúncio aumentou o reconhecimento do produto.

Os pesquisadores usaram este mesmo recurso para avaliar a capacidade das pessoas de identificar as técnicas de manipulação às quais haviam sido expostas.

Em vez de uma pergunta sobre reconhecimento da marca, eles apresentaram o título de uma notícia às pessoas, que foram convidadas a lê-lo. Elas foram informadas então que o título continha manipulação, e solicitadas a identificar que tipo de técnica estava sendo usada.

Além disso, havia um grupo de controle separado que não assistiu a nenhum vídeo, mas foi apresentado ao título e às perguntas correspondentes.

"O que você espera é que o grupo que assistiu aos vídeos identifique corretamente com muito mais frequência do que o grupo de controle — e acabou sendo este o caso", diz Roozenbeek.

"Em média, o grupo que viu os vídeos acertou cerca de 5% mais vezes do que o grupo de controle. Isso é altamente significativo."

"Não parece muito — mas também é verdade que o grupo de controle nem sempre está errado. Eles também acertam várias perguntas."

"Essa melhoria, mesmo no ambiente ruidoso do YouTube, mostra basicamente que você pode melhorar a capacidade das pessoas de reconhecer estas técnicas de desinformação — simplesmente mostrando a elas um anúncio."

'Soluções baseadas em evidências'

A Universidade de Cambridge disse que este foi o primeiro estudo de campo no mundo real da "teoria da inoculação" em uma plataforma de mídia social.

O professor Sander van der Linden, coautor do estudo, afirma que os resultados da pesquisa foram suficientes para levar adiante o conceito de inoculação e expandi-lo, para potencialmente atingir "centenas de milhões" de usuários de rede social.

"Claramente é importante que as crianças aprendam a fazer leitura lateral e verificar a veracidade das fontes", diz ele.

"Mas também precisamos de soluções que possam ser expandidas nas mídias sociais e interajam com seus algoritmos".

Ele reconheceu o ceticismo em torno das empresas de tecnologia usarem este tipo de pesquisa e o ceticismo mais amplo em torno das colaborações entre indústria e academia.

"Mas, no fim das contas, temos que encarar a realidade, pois as empresas de mídia social controlam grande parte do fluxo de informações online. Então, para proteger as pessoas, criamos soluções independentes e baseadas em evidências que empresas de mídia social podem realmente implementar em suas plataformas."

"Para mim, deixar as empresas de mídia social entregues à própria sorte, não vai gerar o tipo de solução que capacita as pessoas a discernir a desinformação que se espalha em suas plataformas".

- Este texto foi publicado originalmente em https://www.bbc.com/portuguese/geral-62671970

Sabia que a BBC está também no Telegram? Inscreva-se no canal.

Já assistiu aos nossos novos vídeos no YouTube? Inscreva-se no nosso canal!


receba nossa newsletter

Comece o dia com as notícias selecionadas pelo nosso editor

Cadastro realizado com sucesso!

*Para comentar, faça seu login ou assine

Publicidade

(none) || (none)