
A informação é um dado que reduz a incerteza. Tal assertiva está nos fundamentos do desenvolvimento e da pesquisa das tecnologias digitais, chave para que a internet se estabelecesse, ao longo das últimas décadas, como uma disciplina autônoma para obtenção do conhecimento. Mas se por um lado as pessoas hoje pedem informações à inteligência artificial para se localizar ou realizar um sem-número de tarefas rotineiras – abrindo aos algoritmos a permanente coleta de dados e um arsenal de certezas sobre elas –, o que a humanidade até aqui sabe, de fato, sobre os interesses e critérios utilizados pelos controladores das máquinas para lhes indicar uma ou outra direção?
Quem pergunta é Eugênio Bucci, um dos principais teóricos brasileiros da comunicação, em seu mais recente livro, “Incerteza, um ensaio: como pensamos a ideia que nos desorienta (e orienta o mundo digital)”, que chega em breve às livrarias pela editora Autêntica.
Neste século 21, os algoritmos mapeiam comportamentos e desejos recônditos de cada pessoa. As máquinas participam da gestão do dinheiro e das coisas públicas. O tempo e o espaço ficaram muito mais incertos para os seres humanos do que para as máquinas, considera Bucci, jornalista e professor da Escola de Comunicações e Artes da Universidade de São Paulo (USP), autor também de “A superindústria do imaginário” (2021). “A nossa vida caiu numa assimetria sem paralelos. Os algoritmos, controlados pelos gigantes da tecnologia, já equacionaram quase todas as indefinições que poderiam restar sobre o comportamento das pessoas. Do lado de cá, a gente olha para os conglomerados e não enxerga o que eles guardam. Eles têm paredes opacas”, afirma o pesquisador, lembrando que os mesmos conglomerados que nos fornecem informações rotineiras sobre como chegar a certo destino, também moderam o debate público e articulam a estratégia de ignorância fabricada, de interdição dos fatos e do saber em determinadas temáticas relacionadas à cultura política, aos processos democráticos de eleição de governos, plebiscitos e referendos relacionados à vida política e social das nações.
“Trocando em miúdos (em zeros e uns), a incerteza é um bem (ou um mal) que se distribui de forma iníqua no mundo digitalizado: ela é maior, é imensa, é intransponível para os humanos que não são donos de fortunas, de grandes empresas ou do poder; ela é reduzida, bem administrada e lucrativa para os donos das companhias que valem bilhões ou trilhões de dólares e para os que comandam a máquina da política”, afirma o pesquisador, considerando que democracias não sabem conviver com tecnologias opacas que moderam o debate público. “Se esse modelo de algoritmo opaco, não transparente, mantido dentro de um bunker, prosperar, a democracia fenecerá”, prevê. Bucci considera fundamental o esforço regulatório para disciplinar o arsenal tecnológico das plataformas, assim como o esforço para a regulação da inteligência artificial. A seguir, a entrevista de Bucci ao Pensar do Estado de Minas.
Em sua mais recente obra, “Incerteza, um ensaio: como pensamos a ideia que nos desorienta (e orienta o mundo digital)”, o senhor aponta para a origem das tecnologias digitais. Como a noção de incerteza foi fundamental para o desenvolvimento da inteligência artificial e as megaplataformas digitais?
A incerteza é uma ideia necessária e é uma ideia que nos desorienta, nos paralisa, nos coloca sob um impasse ou a necessidade de fazer escolhas e às vezes escolhas infundadas, para as quais não temos os dados necessários. Quando comecei a me perguntar sobre quem pensava a incerteza, encontrei a ligação entre o pensamento da incerteza e a origem das tecnologias digitais, passando pela cibernética. Fiquei fascinado como a noção de incerteza foi chave para que a internet se estabelecesse como forma de saber, como uma tecnologia, como uma disciplina autônoma do conhecimento. A incerteza e a ideia da entropia também. Ou seja, fui vendo que a incerteza desorienta nossa vida pessoal, nova vida afetiva, nossa vida cultural, mas, a incerteza é a ideia que orienta a pesquisa e o desenvolvimento das máquinas que hoje chamamos de computadores e de redes de machine learning, big data, inteligência artificial. Parece uma situação espelhada, ou seja, quando eu sou o ser humano, a incerteza me deixa em dúvida. Mas quando sou a máquina, a incerteza dá o mapa de por onde tenho de ir. E os controladores da máquina têm menos incerteza do que os seres humanos, que acreditam que estão usando na máquina.
Como a incerteza e a informação se articulam?
A informação foi definida como um dado que reduz a incerteza. O matemático Claude Shannon, que criou a teoria matemática da comunicação, trabalha com a ideia da incerteza: na comunicação existe uma incerteza desejável e uma incerteza indesejável. A incerteza indesejável é aquela que resulta de falhas do processo comunicacional, por exemplo chiados no rádio. Mas a incerteza desejável, aquela que aparece em relação à dúvida quanto àquilo que a pessoa vai dizer, essa incerteza é parte da vida entre as pessoas, mas principalmente parte da vida entre os sistemas. A incerteza desejável é resolvida por uma informação, ela deixa de ser incerteza quando temos informação que a resolva. Outro exemplo próprio do sistema, da comunicação em cibernética, em que Shannon tinha grande interesse. Se estou usando Waze na rua, fico em dúvida, tenho incerteza e as máquinas resolvem essa incerteza para mim. Então passo a ter uma informação. E é nesse sentido que as duas ideias se relacionam ao longo do século 20.
Todos nós nos respaldamos nas informações que as tecnologias nos dão, mas não conhecemos nem os critérios nem os interesses que norteiam os algoritmos para nos dar aquela informação. Até que ponto a tecnologia, que reduz a nossa incerteza em situações rotineiras diárias, está introduzindo novas incertezas no processo comunicacional?
Um dos sentidos do meu trabalho é mostrar que por detrás da informação existe uma incerteza e uma incerteza hoje, estrutural. Uma incerteza que diz respeito ao modo como as tecnologias estão ocupando espaços nas relações entre as pessoas. Ou seja, eu gostaria de levar um ponto de interrogação onde existe uma certeza. Exatamente o que você disse: com que interesse uma informação tecnológica chega até mim, o que existe em troca desse serviço que me é oferecido? O que o algoritmo apreende de mim no momento em que me dá uma resposta? Ou seja por detrás da informação que resolve uma incerteza e da informação de máquinas, existe uma incerteza sobre a qual temos de nos perguntar: a superindústria das bigtechs, dos grandes conglomerados, que explorando as dúvidas rotineiras, nos orientam como sociedade para um lado ou para outro e abrem um campo que não existia antes, muito propício para a manipulação política, econômica e religiosa. As forças que dominam essas tecnologias ganharam uma ascendência sobre a opinião pública e sobre o imaginário que nenhum dominador antes teve. Esse é então o sentido do meu trabalho: mostrar que por detrás da informação que resolve certezas, há incertezas ainda maior.
Essa falta de transparência na programação dos algoritmos para a difusão da informação se dá também na produção do conteúdo que circula no mundo?
A opacidade que vale para o algoritmo tem valido também para a origem de certas práticas de desinformação, ou seja não conseguimos saber de onde vem aquilo, essa origem é sonegada para a opinião pública. Quando leio notícia do jornal conheço o endereço do jornal, sei quem são os profissionais. Certas desinformações que circulam eu não consigo identificar a origem, ou seja, os interesses nessa origem da desinformação se beneficiam da mesma opacidade. E há uma outra dimensão que também estaria protegida pela mesma opacidade, que é fornecida pelos meandros dessa tecnologia, que é a opacidade do anonimato. As pessoas que impulsionam notícia falsa acabam desaparecendo no meio da multidão virtual, como se não fossem responsáveis por aquilo, como se o que tivesse em curso um linchamento virtual, cujos responsáveis não poderão ser encontrados depois pela lei. Tudo bem que se pode rastrear a trilha digital, mas há uma espécie de efeito manada, como um manto de impunidade. Então temos também aí uma forma de opacidade conferida por esse regime tecnológico. E ainda acrescento uma outra ideia. O nosso problema não é a tecnologia. Para nós, sociedade livre, democrática, a tecnologia é sempre a solução. O nosso problema são as teias de propriedade que amarram a tecnologia e constroem essas barreiras de opacidade. O problema não é a máquina, mas o regime de poder por trás desta máquina.
O historiador Peter Burke, que escreveu o livro “Ignorância”, faz distinção entre aquilo que sabemos e não sabemos; aquilo que não desejamos saber; e aquilo que não se quer que outras pessoas saibam. Como esse conceito se articula com o seu livro?
Essa articulação me parece muito clara porque o controle, o poder exercido sobre a máquina, sobre os algoritmos, sobre os conglomerados que constroem barreiras de opacidade, fazem parte de uma estratégia de ignorância fabricada. Uma estratégia de interdição dos fatos e do saber.
Como o senhor avalia o debate que contrapõe a regulamentação e a responsabilização das plataformas de mídias digitais e a liberdade de expressão?
Começo por lembrar que são dois planos em debate. Em um temos a regulamentação das plataformas digitais, que é o que se está chamando de lei das Fake News. Esse é um esforço regulatório para disciplinar um arsenal tecnológico das plataformas, que hoje funcionam à margem da lei. Esse é um plano fundamental. Agora uma outra questão que vem sendo discutida no Brasil e em vários outros países, é a regulação da inteligência artificial. É uma tentativa de normatizar a atividade da inteligência artificial. Essas duas coisas se complementam, são reciprocamente dependentes. A chamada Lei das Fake News é a legislação que se ocupa das plataformas que amparam as redes sociais - por exemplo o Youtube, o Facebook são plataformas que abrigam diversas redes sociais convivendo entre si. Essa regulação pode alcançar também plataformas que aparentemente não fazem o serviço de prover redes sociais, como a Amazon. E é uma regulação que precisa existir: não diminui a liberdade, ao contrário, protege a liberdade. Para que isso fique mais fácil de entender, volto um pouco e faço um paralelo. As principais e mais estáveis democracias do mundo têm regulação dos meios de comunicação, que funcionam por meio de leis e de agências reguladoras, com mais ou menos autonomia. Essas regulações e regulamentações não diminuíram o exercício da liberdade, mas protegeram o exercício da liberdade, porque é graças a esse tipo de normatização que não pode haver censura privada; ou não se pode fazer uma promoção artificial de uma história fraudulenta. Isso nos meios de comunicação tradicionais, convencionais como rádio e televisão. Com esse tipo de legislação protegemos a diversidade e pluralidade e o regime de livre concorrência. Se não houvesse esse tipo de legislação, já estaríamos no campo dos meios de comunicação, em monopólios inamovíveis e tirânicos. Os países mais regulados, são países em que há menos censura e menos limitação para a livre expressão das opiniões. Agora com as tecnologias digitais é mais ou menos isso que acontece. É evidente que podemos discutir os termos da regulamentação, como vai funcionar, que tipo de prática vai ser tipificada e limitada, tudo podemos e devemos discutir. Mas como princípio a regulação é necessária, justamente para proteger a liberdade de todos, a liberdade em regime de igualdade de condições, porque sem isso, um grande conglomerado monopolista pode impulsionar uma história e fazer silenciar outras histórias. Exatamente por isso essa argumentação de que uma regulação vai restringir nossa liberdade, como princípio é um sofisma, não se aplica.
Este momento em que os estados nacionais democráticos começam a fazer essa discussão pode ser entendido como o momento em que tentam enfrentar a ameaça que representa a livre e não transparente ação das megaplataformas sobre a cultura política e fluxos de informação nas sociedades?
É um modo de olhar e não estou em desacordo com ele. É uma reação das democracias, pois houve conjugação que ainda temos de entender mais, entre o poderio extremo dos conglomerados monopolistas globais, que são as empresas de grande inovação tecnológica, avaliadas em trilhões de dólares, e, por outro lado, as doutrinas de propaganda antidemocrática com fisionomia da extrema direita. Parecem coisas nascidas uma para outra: a pregação de viés fascista de um lado e o comportamento das plataformas que abrigam as redes sociais, por outro: as plataformas privilegiam em sua forma de estabelecer comunicação emoções pulsionais, emoções pouco arejadas pela razão, que ficam a um milímetro da violência aberta. Assim temos as pregações de viés fascista, com exploração desse tipo de sentimento, desse tipo de sensação, desse tipo de estética, como o culto das armas, que cai muito bem num ambiente comunicacional que não dá voz para a razão. Tudo isso é a cara dessas plataformas, que parecem uma arena de gladiadores, circos romanos, cercados por uma plateia em fúria. Ora, isso é pouco compatível com os protocolos do estado democrático de direito. Portanto, é sim uma reação, mas temos de observar além disso, que não é só reação dos estados nacionais. Veja o que acontece na Europa: A União Europeia está na linha de frente do esforço que procura encontrar regulamentação para esse setor, o que vai das plataformas até o domínio da ferramenta da inteligência artificial. Em outro sentido, há organizações multilaterais, como a Unesco, que já dá vazão para um discurso de que a regulação deve envolver também a dimensão das relações internacionais, como acontecem com as questões climáticas. Elas só podem ser enfrentadas com a conjugação de esforços em acordos multilaterais. Isso vai acontecer com as plataformas, que são monopólios globais, com domínio da tecnologia da inteligência artificial. Então chamaria isso de reação dos estados nacionais e das próprias democracias, porque se esse modelo de algoritmo opaco, não transparente, mantido dentro de um bunker, prosperar, a democracia fenecerá. A democracia não sabe conviver com tecnologias opacas para moderar o debate público, ela só pode se fortalecer se a moderação do debate público se der por regras transparentes, públicas e não opacas e privadas. Dessa forma, é isso que precisa ser resolvido.
Como estudioso do tema, o que nos propõe como saída para maior transparência do ambiente informacional controlado pelas big techs?
O que podemos fazer é pensar. Temos tido muita demanda por fazer. E o fazer sem pensar é algo que me assusta muito, me assusta mais do que o pensar sem fazer. O grande desafio para nós como democracia, como estrado de direito, como civilização, como cultura, como humanidade o grande desafio é nos entender. Nesse sentido, o trabalho dos pesquisadores, intelectuais, pessoas que se dedicam a identificar as ideias ao limite do abismo, correndo riscos ao inquirir uma ideia, é de alguma serventia para nós. A restauração para as condições do pensamento é um empreendimento vital. Portanto é o que proponho. Esse livro é esforço frugal, leve de pensamento. Esse tipo de pensamento só é possível para o humano. A saída é por aí.
A disputa global de grandes players pelo jogo estratégico de poder no mundo passa pelo domínio da própria megaplataforma?
Sem dúvida alguma. Esse tipo de ferramenta, de inteligência artificial e agregados, demanda capacidade computacional que poucos países têm. De tal maneira que nós vamos nos tornando vulneráveis para ferramentas que requerem um incomensurável poder tecnológico, econômico e político. Nesse sentido, os estados com capacidade para desenvolver essas coisas, saem em vantagem na disputa pela hegemonia global. Se pegar as estratégias para inteligência artificial dos estados, já existe consciência por parte de alguns governos, que isso fará toda a diferença no jogo de liderança para o próximo período. Se o domínio disso é mais do que estratégico, seja o bem mais estratégico de que estamos falando em nossos tempos.
“Incerteza, um ensaio: como pensamos a ideia que nos desorienta (e orienta o mundo digital)”
- De Eugênio Bucci
- Editora Autêntica
- 144 páginas
- R$ 37,90
- E-book: R$ 26,90
