Fernando Pasquini Santos

Depois de assistir documentários como “O Dilema das Redes” ou “Privacidade Hackeada”, da Netflix, muitos de nós estamos assustados com o poder dos algoritmos e redes sociais em direcionar comportamentos e populações. Não raras vezes também encontramos artigos e manchetes ressaltando isso: como, por exemplo, a afirmação de Yuval Noah Harari de que “Facebook e Apple poderão ter o controle que a KGB nunca teve sobre os cidadãos”. Pois bem: e então? Como viveremos? O que fazer em uma era do capitalismo de vigilância? Estamos caminhando para uma distopia?

Tenho visto que a maioria das abordagens em ética de dados hoje têm se voltado apenas para como usar o poder dos algoritmos sociais da forma correta. Isso é interessante, no entanto, não supera o pressuposto do instrumentalismo tecnológico e pode ser bastante problemático (Heidegger mesmo disse que, enquanto representarmos a tecnologia meramente como um instrumento, a ser usado para um certo fim ou outro, permaneceremos transfixados no desejo de dominá-la). Creio que ainda temos uma pergunta muito mais básica para responder: os algoritmos podem mesmo nos controlar? Ou, ainda: até que ponto pode ir o controle dos algoritmos sobre as populações? Será ele total, ou ainda existe alguma liberdade para nós? E, por fim, podemos encontrar uma resposta bíblica e teológica para isso?

Não creio que seja fácil responder essas perguntas em apenas um texto como esse. Mas, já que muitas pessoas têm me perguntado isso, e eu tenho lido algumas coisas que podem ajudar, resolvi escrever o que eu chamaria de um esboço de resposta. Não é um argumento completo, e tenho que avisar que ainda tem muitas pontas soltas – é, talvez, um argumento “rústico”, que precisa ser lapidado. Mas creio ser suficiente para pelo menos aliviá-lo um pouco da ansiedade por uma resposta, e direcioná-lo para alguma leitura adicional. Quem sabe você mesmo acaba não se motivando a mergulhar fundo nisso e desenvolver uma resposta mais completa? O convite está feito.

Minha resposta tem três passos, e, em cada um deles, vou apontar para o trabalho de um determinado autor. Primeiro, precisamos entender exatamente qual é o poder dos algoritmos. Para isso, vou expor um pouco das ideias de Bruno Latour em sua obra “Ciência em Ação”. Em segundo lugar, vamos explorar argumentos que tentam expor os pontos fracos nas abordagens positivistas à sociologia – algo que já foi bastante explorado em obras como “A Lógica da Prática”, de Pierre Bourdieu, mas que me parece estar bastante desenvolvido e aplicado na área de tecnologia na obra “A Forma das Ações” de Harry Collins e Martin Kusch. Por fim, o terceiro passo vai oferecer uma interpretação bíblica e teológica para isso tudo, e a figura que estamos procurando aqui é Jacques Ellul, em sua obra “The Meaning of the City”.

 

  1. Qual o poder dos algoritmos? Bruno Latour e as centrais de cálculo

A ciência de dados é algo novo ou só segue aquilo que a ciência moderna sempre se propôs a ser? Essa é uma boa pergunta, e, bem, eu diria que há pontos de continuidade e descontinuidade. No lado da descontinuidade, não se pode negar a ascensão de novos métodos de inferência estatística e processamento computacional, levando-nos hoje às tão “badaladas” áreas de aprendizagem de máquina e reconhecimento de padrões. Alguns autores chamam isso de “O Quarto Paradigma” da pesquisa científica. E, de fato, por causa disso, existem muitas perguntas novas a serem feitas à filosofia da ciência, como argumenta Paul Humphreys, por exemplo, em “The philosophical novelty of computer simulation methods” (Synthese, 169(3), 615–626).

Ainda assim, vale a pena tentar notar alguma continuidade entre os primórdios da ciência moderna e o que temos visto hoje. Creio que quem faz isso, e de forma bastante genial, é Bruno Latour. Eu sei, Latour é sempre um autor polêmico, e opiniões não faltam sobre diversos aspectos da obra dele. Eu mesmo tenho minhas discordâncias. Mas não posso negar: “Ciência em Ação” é uma obra singular, recheada de ideias geniais, as quais vale a pena ter algum contato. O que pretendo expor, assim, é sua reflexão sobre as “centrais de cálculo”, no capítulo 6 do livro.

Latour argumenta que a ciência, pelo menos nos primórdios da modernidade, sempre foi um empreendimento de coleta e processamento de dados. Seus exemplos principais são os empreendimentos de cartografia na época das grandes navegações e o trabalho de Tycho Brahe na astronomia. Vale a pena ler a citação:

“Nada nos domina mais que as estrelas. Parece não haver nenhuma maneira de inverter a escala para que nós, os astrônomos, passemos a ser capazes de dominar o céu que está sobre nossas cabeças. Mas a situação logo se inverte quando Tycho Brahe, dentro de um observatório bem equipado, construído para ele em Oranenbourg, começa não só a anotar nas mesas cartas homogêneas as posições dos planetas, mas também a reunir as observações feitas por outros astrônomos da Europa, a quem pediu que usassem os formulários impressos que lhes mandava. Mais uma vez começará a descortinar-se um virtual ciclo cumulativo se todas as observações feitas em lugares e momentos diferentes forem reunidas e dispostas sinopticamente. O traçado desse círculo será ainda mais rápido se o mesmo Brahe for capaz de reunir no mesmo lugar não só observações recentes feitas por ele e pelos colegas, mas também todos os livros antigos de astronomia que o prelo põe à disposição a baixo custo. Sua mente não sofreu mutação alguma; seus olhos não se libertaram subitamente de velhos preconceitos; ele não está olhando para o céu de verão com mais atenção do que qualquer um antes dele. Mas ele é, sim, o primeiro que, num relance, considera o céu de verão, mais suas próprias observações, mais as de seus colaboradores, mais os livros de Copérnico, mais as muitas versões do Almagesto de Ptolomeu; é o primeiro que se situa no começo e no fim de uma vasta rede que dá origem àquilo que chamarei de móveis imutáveis e combináveis.” (p. 353-354)

Segundo Latour, é a partir de Brahe que a ciência passa a se definir como um ciclo de acumulação de inscrições, que configura um centro e uma periferia. A periferia é “trazida para casa”, o centro, por meio de inscrições que serão processadas e analisadas com o intuito de exercer algum controle; ou, nas palavras de Latour, “ação à distância”. Assim:

“Como atuar a distância sobre eventos, lugares e pessoas pouco conhecidos? Resposta: trazendo para casa esses acontecimentos, lugares e pessoas. Como fazer isso se estão distantes? Inventando meios que (a) os tornem móveis para que possam ser trazidos, (b) os mantenham estáveis para que possam ser trazidos e levados sem distorções, decomposição ou deterioração, e (c) sejam combináveis de tal modo que, seja qual for a matéria de que são feitos, possam ser acumulados, agregados ou embaralhados como um maço de cartas. […] A história da ciência [e da tecnologia] é em grande parte a história da mobilização de qualquer coisa que possa ser levada a mover-se e embarcar numa viagem para casa, entrando no censo universal.” (p. 348)

Está, assim, lançada a base para a ciência de dados. Latour até mesmo discute se a melhor palavra para esse processo de acumulação de informações seria “conhecimento”, “poder” ou “capital”. Para ele, todas capturam um pouco do que isso significa. Além disso, ele nota que essas informações precisam conservar, simultaneamente, o mínimo e o máximo possível da realidade observada – o máximo de utilidade e o mínimo de resíduo. Essa informação, assim, é agregada e processada dentro daquilo que Latour chama de “centrais de cálculo”. Dentro da central de cálculo, diversos métodos são aplicados às informações para agregá-las, sendo a quantificação uma das melhores formas de fazer isso: ao invés de ter João, Maria, Lucas e Ana, por exemplo, agora simplesmente falamos 4 pessoas. A partir daí, podemos partir para várias estatísticas (média e desvio padrão) e fórmulas (resumindo várias medições e relacionando grandezas). 

Latour também mostra que as centrais de cálculo vão se agregando umas dentro das outras. As informações vão sendo agregadas e resumidas, e essas agregações também são passadas para níveis de abstração maiores. Afinal, “quanto mais heterogêneos e dominadores os centros, mais formalismo exigirão”. Cresce, assim, o zigurate de Babel, que, ao invés de se dispersar pela terra, tem como objetivo reunir tudo em apenas um lugar e, assim, alcançar o céu. Tudo isso, é claro, com o objetivo de “ação a distância”, ou, como colocaria também Hugh Lacey, o valor social de controle, que subjaz as estratégias materialistas da ciência natural moderna, e que justifica suas abordagens de abstração contextual e quantificação¹. Se você pode ter informações de tudo o que acontece em qualquer lugar, bem como fórmulas relacionando causalmente essas variáveis, tem um espaço aberto de possibilidades para intervenção. Conhecimento é poder.

Essa é a ciência de dados atual. Afinal, “tudo o que puder aumentar a mobilidade, a estabilidade e a permutabilidade dos elementos será bem-vindo e selecionado desde que acelere o ciclo da acumulação” (p. 355). O grande sucesso da eletrônica digital foi poder representar tudo como 0s e 1s e transmitir isso de forma extremamente rápida – colocando-se, assim, dentro do “santo dos santos” do ciclo de acumulação (a expressão é do próprio Latour! (p. 84)). Realiza-se, assim, a promessa do Quarto Paradigma. A pergunta, no entanto, é: vai funcionar? Será que realmente podemos controlar tudo por meio desse ciclo de acumulação e processamento?

  1. Quais os limites da sociologia positivista? Collins-Kusch e as formas das ações

As discussões e respostas a essa última pergunta são um pouco diferentes dependendo da área do conhecimento. E, como nosso assunto é o controle dos algoritmos sobre populações, vamos nos ater ao ponto da sociologia computacional. Vamos tentar esboçar uma resposta do tipo “nem sempre vai funcionar”, tomando como base a crítica de vários autores ao positivismo sociológico que, de fato, se esconde por trás de quase todos esses empreendimentos de coleta e processamento de dados com o intuito de atuar na realidade social². Poderia dizer que a crítica muitas vezes gira em torno da ideia simples, e amplamente difundida, de que não podemos reduzir o qualitativo ao quantitativo. No entanto, ela é mais ampla do que isso, e os autores e as abordagens são vários, da fenomenologia até à teoria crítica. Alasdair MacIntyre, por exemplo, apresenta um excelente argumento em “After Virtue” e “Whose Justice? Which Rationality?”, notando como a ascensão da sociologia positivista reflete a perda de um quadro geral baseado em virtude e narrativa a partir dos quais vamos compreender a ética e ação humana. Outro autor importante aqui é Pierre Bourdieu, em “A Lógica da Prática”. Bourdieu se propõe a criticar a postura do sociólogo que tenta observar uma sociedade do “lado de fora”, notando como isso é impossível. A presença de uma “lógica da prática”, interna a diversas culturas e formas da vida, torna impossível que as mesmas sejam observadas de forma neutra e desinteressada (ou, diríamos, matemática) – é preciso ir para o lado de dentro e mergulhar dentro dessas práticas, apreendendo o seu conhecimento tácito e pessoal (Michael Polanyi).

Não temos espaço para expor todas essas ideias aqui (na verdade, acho não tenho nem a capacidade). Quero, no entanto, chamar a atenção para alguns desdobramentos na área da filosofia da tecnologia. Filósofos como Hubert Dreyfus ficaram conhecidos por suas críticas à razão artificial, o que também envolve, de forma indireta, denunciar o projeto de sensorear o mundo de forma completa, reduzindo-o um banco de dados a ser analisado. Dreyfus se baseia em Merleau-Ponty e Wittgenstein para demonstrar a impossibilidade de reduzir a razão humana a uma série de operações formais e símbolos. Sua discussão com Marvin Minsky acerca da possibilidade de coletar e processar “senso comum” é célebre, e vale a pena dar uma olhada. Assim, o que vamos fazer é olhar mais de perto para alguns desdobramentos explorados por dois alunos de Dreyfus: a teoria da forma das ações proposta por Harry Collins e Martin Kusch. Vamos usar como ponto de partida uma história um tanto cômica, porém iluminadora, que os autores propõem:

 

“[Vamos] redescrever a diferença entre uma ciência natural e uma ciência social. Imagine um grupo de ‘cientistas’ observando um grupo de ‘Saturnianos’. Os Saturnianos nada fazem durante todo o dia além de trocarem mensagens sobre o clima com [um] código semafórico; os cientistas nada sabem disso. Os Saturnianos conhecem somente 100 mensagens sobre o clima.

Os cientistas teriam alguma chance de detectar regularidades nos tipos de comportamento dos Saturnianos descritos acima. Eles poderiam primeiro pensar que os Saturnianos estivessem ‘balançando seus membros superiores de um lado para o outro’. Então, depois de um estudo posterior, eles poderiam perceber que os movimentos dos membros superiores podiam ser agrupados em oito ‘posições’ diferentes […] Depois disso, algum analista (ou programa de computador) poderia notar que os movimentos podiam ser agrupados segundo um conjunto limitado de sequências. Finalmente, algum gênio poderia notar que essas sequências estariam correlacionadas com o clima. Os observadores teriam então desenvolvido uma ciência baseada nos movimentos dos membros superiores dos Saturnianos. […] Os observadores, com a atenção voltada para o horizonte, tornar-se-iam capazes de prever qual seria o próximo movimento do membro superior a aparecer. Tal ciência tem alguma chance de se desenvolver. Aqui, uma ciência de comportamento é viável, porque o comportamento dos Saturnianos é sistematicamente relacionado às suas ações intencionais – fazer comentários sobre o clima. Essa, então, seguindo Weber, é uma ciência de ação intencional que se faz possível porque, vista de fora, ela não se diferencia do comportamento.” (p. 27-28)³

Repare que essa “ciência” do comportamento dos saturnianos é exatamente o que se faz em algoritmos de aprendizagem de máquina. Collins e Kusch descrevem a essência dos classificadores! E por que isso funciona? O que podemos perceber é que, na situação onde a intenção do Saturniano pode ser completamente inferida a partir da observação do seu comportamento, essa ciência é plenamente possível. No entanto, Collins e Kusch argumentam que nem sempre intenção e comportamento coincidem:

“Suponha, por outro lado, que os Saturnianos não queiram ser ‘entendidos’ por qualquer um e tenham incorporado um código complexo entre os movimentos semafóricos e os símbolos de sua língua que os movimentos representam. Digamos que os Saturnianos educados tenham aprendido esse código toda noite através de uma planilha de códigos gerada aleatoriamente e distribuída secretamente uma única vez. Então, a ciência do comportamento dos Saturnianos não se desenvolveria; os observadores nunca descobririam o ordenamento e as correlações dos movimentos dos braços. Em relação a qualquer ação, os observadores que não entendem o ‘código’ que une comportamento à ação tampouco serão capazes de desenvolver uma ciência para observar e prever o comportamento encontrado nas sociedades que eles observam” (p. 28-29)

Por que isso acontece? Porque “o ‘código’ que conecta intenção e comportamento é complicado, não pode ser apresentado e pode ser conhecido apenas por meio de participação na sociedade em estudo” (p. 29). Collins e Kusch chamam esse tipo de ação de uma ação polimórfica: uma ação ou intenção que admite várias formas de comportamento, dependendo do que é convencionado dentro de uma forma de vida ou sociedade. O outro tipo de ação é chamada de mimeomórfica: uma ação onde comportamentos iguais implicam as mesmas ações ou intenções. Para dar um exemplo: assinar um cheque é uma ação mimeomórfica, uma vez que é uma ação inequivocamente associada a rabiscar um pedaço de papel; pagar uma conta, por outro lado, é uma ação polimórfica, uma vez que pode envolver assinar um cheque, passar um cartão ou entregar cédulas ou moedas. Um observador, do lado de fora, que não sabe o que é dinheiro (ou que cheques, cartões, cédulas ou moedas sejam dinheiro), jamais vai conseguir inferir uma ação desse tipo.

É a partir dessa distinção, portanto, que os autores inferem a impossibilidade de uma ciência exata do comportamento humano:

“No caso das ações mimeomórficas, poderíamos, teoricamente, ter uma ciência do comportamento puramente observacional e preditiva. […] Teoricamente um observador de fora poderia deduzir o que contava como ‘os mesmos’ comportamentos na sociedade e teria chance de estar correto. As categorias de semelhança usadas por pessoas de fora e de dentro poderiam coincidir. A ciência social então preencheria o sonho de B. F. Skinner de ser uma ciência puramente ‘comportamental’. [Já] no caso da ação polimórfica, isso é impossível.”4  

Assim, segundo os autores, as ações polimórficas são imunes a algoritmos e classificadores. Mas, então, o que exatamente seriam elas? Será que, para escapar do “poder dos algoritmos”, deveríamos, à semelhança dos saturnianos, utilizar uma planilha geradora de códigos aleatórios para basear nosso comportamento? Será que deveríamos fugir dos algoritmos correndo em ziguezague da mesma forma que fugiríamos de uma rajada de tiros? “Na dúvida, finja-se de louco”? De fato, essa seria uma estratégia: você sempre pode usar um comportamento aleatório e se tornar um outlier no classificador. Mas, obviamente, esse não é o ponto, e não é isso que queremos. O ponto dos autores é que existem diversos comportamentos que são gerados on-the-fly, a partir de convenções sociais, e que não podem ser registrados a priori. Não são coisas aleatórias, mas também não são universais: são coisas contingentes. Uma piada interna entre você e seus amigos, por exemplo, que surge na noite anterior, dificilmente poderia ser capturada; novos sentidos e associações são coisas que emergem o tempo todo a partir interação entre nós, seres-no-mundo. O antigo sonho de Marvin Minksy de construir uma base de dados de “senso comum” é impossível, porque o senso comum é algo extremamente dinâmico, ou, para usar palavras melhores, narrativo e pactual.

Você poderia dizer: “bem, mas, nesse caso, bastaria criar um sistema de sensoriamento constante que coloque, automaticamente, essas novas informações no banco de dados, à medida que elas surgem”. Ou seja: você está simplesmente apelando para o ideal de vigilância total. De fato, essa parece ser a única solução que as pessoas cogitam, à medida que o Big Data falha. A culpa das falhas nos algoritmos sociais sempre parece ser justificada pela falta de resolução e volume de dados, e a solução é sempre tecnológica: mais sensores, mais dados, mais poder de processamento, mais, mais, mais. O problema, no entanto, é que mesmo se pudéssemos observar tudo e fazer todos os cálculos, à semelhança do experimento mental mecanicista de Laplace, o problema ainda não estaria resolvido. E a razão para isso é que um grande volume de dados não resolve o problema da especificidade: muitos dados equivalem a nenhum dado, porque falta ao algoritmo a capacidade ou orientação de “atentar” para aquilo que é relevante dentro desse volume de informações.5 E, se é que queremos reconhecer o que é relevante, precisamos estar dentro dessa forma de vida e de seu caráter narrativo. Já disse MacIntyre, em After Virtue: “somente posso responder a pergunta: ‘O que devo fazer’ se puder responder à pergunta anterior: ‘De que história creio que faço parte?”.

Collins e Kusch se limitam a dizer que as ações polimórficas ocorrem dentro de “formas de vida” ou “convenções sociais”, mas podemos ir além. Ações polimórficas só recebem sua forma e sentido dentro de contextos narrativos e pactuais; contextos que desenvolvem, de forma aberta e contingente, sua própria lógica interna (Bourdieu) e bens internos (MacIntyre). Isso acontece essencialmente por causa de um processo de diálogo entre seres pessoais, que estabelecem compromissos e promessas entre si. Não se trata simplesmente de contratos ou convenções sociais – são alianças entre pessoas.6 (Precisamos explorar isso em mais detalhes depois, concordo).

Voltemos à pergunta: os algoritmos vão nos controlar? Minha resposta é: à medida em que nossas ações ficarem cada vez mais mimeomórficas, e nossas relações cada vez mais contratuais (e não pactuais), os algoritmos serão muito bem sucedidos. Ou seja: para conseguirmos prever e controlar, as coisas precisarão se tornar previsíveis e controláveis. Ou, como o próprio Latour coloca, para que as informações reunidas e agregadas funcionem no mundo real, também é preciso que o mundo real se “adeque” a essas inscrições – o mundo precisa ser transformado no “laboratório” ou “oficina” para que os cálculos feitos dentro da central de cálculo possam funcionar no lado de fora. Latour mostra que os nomes dados para esse processo normalmente são metrologia, padronizaçãoburocracia. Ele comenta:

Pode-se dizer que, em princípio, é possível aterrissar um Boeing 747 em qualquer lugar; mas tente na prática aterrissar um deles na 5a Avenida, em Nova York. Pode-se dizer que, em princípio, o telefone nos põe tudo ao alcance da voz. Mas tente falar de San Diego com alguém no interior do Quênia que, na prática, não tem telefone. Pode-se perfeitamente afirmar que a lei de Ohm (Resistência = Tensão/Corrente) é universalmente aplicável em princípio; mas tente demonstrá-la na prática sem voltímetro, wattímetro e amperímetro. […] Sempre que um fato se confirma e uma máquina funciona, significa que as condições do laboratório ou da fábrica de certo modo foram expandidas. (“Ciência em Ação”, p. 391)

De fato, pistas de pouso, linhas telefônicas e voltímetros, wattímetros e amperímetros são dispositivos padronizados que nos permitem fazer muitas coisas – muito mais do que nossos antepassados podiam. No entanto, não podemos negar que essa padronização é custosa em vários aspectos, desde os próprios custos para se consolidar o padrão até uma suposta violência contra a natureza e as particularidades locais e culturais.7 Agora, pense no que seria necessário para podermos controlar a natureza humana. Em que medida precisaríamos padronizar e burocratizar o comportamento? Somente excluindo, ao máximo, ações polimórficas e relações pactuais. A lógica contratual, afinal, é sempre mais segura e controlável. Hugh Lacey, em “Valores e atividade científica”, sugere isso [grifos meus]:

“O controle ocupa um lugar elevado na estrutura de valores que é parte das matrizes disciplinares das práticas científicas modernas. Ele é implícito e raramente percebido, e isto explica, nas ciências humanas, tanto a atração pela teoria quanto seu perigo. A presença real da teoria nas ciências humanas pode representar não a redução bem-sucedida, mas o sucesso em suprimir o que é caracteristicamente humano (por exemplo, as práticas comunicativas ou a ação informada por deliberação pessoal) em certos espaços por meio da introdução bem-sucedida de controles sobre o comportamento humano – ou seja, por meio da criação de espaços em que os agentes humanos comunicativos se tornam, por causa dos limites, opções e controles dos espaços, objetos sujeitos a controle. A teoria pode mapear adequadamente as regularidades empíricas de tais espaços, embora sem apreender o domínio completo das possibilidades humanas presentes. O entendimento interpretativo é indispensável onde as práticas comunicativas entre as pessoas são fortes; ele cede o lugar à teoria quando os controles solapam aquilo que é característico dos seres humanos.” (p. 230-231)8

Onde poderia acontecer, ou mesmo já estaria acontecendo, essa redução das ações polimórficas e pactuais a simples transações contratuais delimitadas por um espaço limitado de controle? Não é a ocasião de explorarmos isso em detalhes, mas sugiro que começou a acontecer à medida que perdemos uma noção “densa” de comunidade, baseada em vínculos locais e de dependência mútua, e trocamos isso por uma forma de individualismo em rede. Sim, falo das redes sociais. Afinal, não seria por esse motivo que há uma desejo, da parte dos seus desenvolvedores, de que fiquemos cada vez mais tempo lá? Quanto mais tempo da nossa vida passarmos nesse espaço controlado, mais previsíveis seremos. O objetivo é reduzir cada vez mais a diversidade de experiências e práticas comunicativas, confinando tudo a uma virtualidade, uma “vida nas telas” (Sherry Turkle). Quanto menos humanos formos – ou seja, menos seres corporificados no espaço e tempo, situados em práticas sociais, tradições e narrativas -, e quanto mais formos objetos mecânicos abstratos movendo-se em um espaço matemático sob ação de forças – mais previsíveis e controláveis seremos. E, assim, mais rentáveis para essa indústria que soube transformar a ciência social – com a sua típica estratégia materialista de controle – em aplicação tecnológica.

  1. Uma interpretação teológica: Jacques Ellul e a Babel Técnica

E então, como vamos resistir a tudo isso? Será possível resistir? Creio que uma perspectiva teológica cristã para isso pode nos dar um pouco mais de sobriedade e esperança. E é aqui que entramos na obra de Jacques Ellul, o sociólogo e teólogo francês do século XX, principalmente no seu livro “The Meaning of the City“.

Central no pensamento de Ellul é a ideia de Técnica, que, para ele, é reconhecida como uma condição espiritual marcada por uma busca desenfreada por eficiência, controle, autonomia e segurança máximas por meio da racionalidade humana. Sua leitura da Bíblia e da história é feita sempre à luz desse conceito9, o qual, segundo ele, atinge não só a tecnologia propriamente dita, mas todas as áreas da sociedade10. Creio que Ellul não teria dificuldades para encontrar um impulso da técnica nos ideais de vigilância e processamento de informação da ciência de dados de hoje. Afinal, queremos vigiar e controlar tudo porque queremos eficiência máxima, e queremos eficiência máxima porque queremos garantir nossa autonomia.

Já ressaltei na seção 1 que o ciclo de acumulação de dados descrito por Latour se parece muito com a história da torre de Babel. De fato, Ellul reconhece nessa história bíblica uma grande manifestação da Técnica, e principalmente em duas características: o monismo e autocrescimento indefinido que fazem parte do projeto da torre; ou seja, o ideal de reunir toda a humanidade em apenas um lugar, exercendo controle total sobre ela (monismo) e o desejo de alcançar o céu (um anseio pela infinitude). Ellul ressalta que a forma como Deus age para frustrar os planos desses construtores, ou seja, a confusão de línguas, é bastante significativa: “por meio da confusão de línguas, por não-comunicação, Deus impede o homem de construir [para si] uma verdade válida para todos os homens. Dessa forma, a verdade do homem será sempre parcial e contestável” (p. 19).

Ellul não está dizendo que não existe verdade absoluta, mas apenas que a verdade apreendida pelos homens será sempre parcial e contestável, e não pode ser tomada como uma coisa “desencarnada”, uma certeza universal. Será que não poderíamos dizer que a presença de ações polimórficas e contextos pactuais e narrativos não é um exemplo disso? A confusão de línguas de Babel é bastante indicativa aqui: toda língua tem uma particularidade, um contexto situado e narrativo e, até um certo ponto, só pode ser compreendida totalmente uma vez que se participe de sua forma de vida. Ou seja: a linguagem é polimórfica. É verdade que podemos traduzir termos de uma língua para a outra, mas ainda assim podemos reconhecer uma certa incomensurabilidade entre as línguas, e que se manifesta claramente hoje na dificuldade dos próprios algoritmos de tradução automática em conseguir algo perfeitamente aceitável.11

O que parece acontecer em Babel é isso: na tentativa de unificar todo o conhecimento e controle sobre a realidade, o homem acaba tropeçando em algo fundamental: o caráter situado da racionalidade e as ações polimórficas que decorrem dela. O resultado disso é, obviamente, confusão: é como se os cientistas estudando os saturnianos não mais conseguissem chegar a nenhum consenso sobre o que está se passando ali (assim como é o que acontece com os cientistas estudando o oceano do planeta Solaris, de Stanislaw Lem). Trazendo para a nossa realidade, a polimorficidade do comportamento humano parece indicar que haverá uma grande confusão (Babel) à medida que os algoritmos sociais se expandirem.

Há indícios de que isso já vem acontecendo? Não sei dizer; precisaríamos pesquisar mais. De qualquer forma, não acho que as falhas e confusões serão tão visíveis, pelo menos agora em seu início, e isso por três motivos: 1) uma vez que existe uma aposta empresarial e marketing em cima dessas soluções tecnológicas, as falhas e dificuldades quase nunca serão muito divulgadas para o público, e 2) mesmo que elas fiquem mais visíveis, a justificativa sempre será que não se colheu dados o suficiente, e levará a um pleito por mais recursos e mais investimento até que a coisa funcione (assim, para tomar emprestada uma frase célebre, o empreendimento só vai acabar quando acabar o dinheiro dos outros). E, no fim, como já disse, 3) muitos sucessos vão, de fato, ocorrer, e serão celebrados, uma vez que serão bem-sucedidos em eliminar o o ruído humano através de burocracias e outros mecanismos: ou seja, vai funcionar por causa do sacrifício humano que será feito.

Apesar disso, o caso de Babel, e diríamos que o próprio movimento da teologia bíblica, indica que Deus sempre colocará um limite da pretensão humana de controle. Seja por meio de uma confusão de línguas, ou de uma pedrinha, não cortada por mãos humanas, que derruba as grandes potências mundiais (Daniel 2), a revelação de Deus na história vai sempre destronar o poder absoluto da técnica e reduzi-lo ao pó. Podemos confiar de que a revelação bíblica, e a própria vinda do Reino de Deus na pessoa de Cristo e na descida do Espírito Santo, apresenta o veredito contra o ideal da Técnica.

Ellul reconhece esse movimento da Bíblia e chama isso de ética do não-poder, que envergonha e pega o inimigo de surpresa, por meio da loucura da cruz (1 Co 1). A loucura de Deus é mais sábia que a sabedoria dos homens. Deus apanha os sábios em sua própria sabedoria por meio de um Cordeiro, que não se preocupou em “maximizar sua utilidade” e se submeter à lógica do poder, mas fielmente se sacrificou e se entregou em um ato de fé, esperança e amor. E seu corpo, a Igreja, sob o poder do Espírito Santo, também fará o mesmo. Onde o algoritmo e a técnica supor que somos átomos se movimentando para lá e para cá com o objetivo de maximizar nosso ganho e prazer individual, ele será frustrado e confundido ao se deparar com pessoas que se autossacrificam em serviço e fé em um mundo que ainda não é visível. O derramamento do Espírito sela o pacto que garante uma “polimorficidade” fundamental à nossa ação cristã nesse mundo, que escapa a qualquer tentativa de domínio terreno, porque agora não mais somos escravos do pecado e do pavor da morte, mas escravos do Senhor. “O Senhor é Espírito; e onde quer que o Espírito esteja, ali há liberdade” (2 Co 3.17).

Onde já podemos perceber isso? Você pode começar a tentar notar. Mas eu mesmo posso dizer que, sempre que me engajo nas disciplinas e liturgias cristãs, sozinho ou em comunidade, sinto como se esse mundo fosse muito mais do que simplesmente navegar em um mar de informações, opiniões e experiências. Há uma beleza divina que nos chama para fora dos nossos próprios interesses, uma “extroversão espiritual”, como colocaria C. S. Lewis, que decorre da união com Cristo, e que coloca em perspectiva todas as nossas outras atividades terrenas. A “vida na tela” parece mais apagada, menos real, como o inferno em O Grande Abismo. O mundo imediato – do tempo, do espaço e do corpo imediatos – das tremendas trivialidades a partir das quais Deus se revela, fica mais atraente e maravilhoso; aquele mundo que dificilmente será sensoreado e interpretado adequadamente, porque é contingente e, por isso, livre para ser explorado e enriquecido pela nossa imaginação santificada e guiada para onde o

 Espírito Santo nos quiser levar. Há descanso verdadeiro, porque agora não estamos mais sob as necessidades de controle e eficiência técnica, mas confiando de que nosso pastor não nos deixa faltar nada.12


Conclusão

Antes de encerrar o texto, tenho que responder a um comentário que já estou muito acostumado a ouvir sempre que mostro algum problema sério com uma tecnologia. Normalmente vem de quem já trabalha com isso, e diz: “você quer que largue meu emprego, então?”. Bem, o que você quer que eu diga? Eu não sei o que você faz, exatamente, no seu trabalho, e por isso, não tenho como dizer nada. Estou só apontando o problema e deixando para que você mesmo pondere o que fazer a partir disso! Apenas chamo atenção para duas coisas: 1) o problema de só fazer o seu trabalho: não é porque é seu emprego, e te gera alguma renda, que é automaticamente bom e justificado (já escrevi bastante sobre isso); e 2) sinceramente, não acho que minha crítica invalida toda forma de coleta e processamento de dados, e você pode ter certeza que praticamente todos os autores citados aqui, como Latour, Collins, Kusch e Lacey, não se opõem completamente a algumas situações específicas de aplicação. Você ainda pode enriquecer muito a vida humana, e até mesmo contribuir para o reino de Deus, em algumas áreas – desde que reconheça os limites da sua atuação e não os ultrapasse! Collins e Kusch ressaltam que, nos espaços de ação mimeomórficas, podemos fazer muitas coisas, inclusive criar máquinas que possam substituir e automatizar nossas ações (o mesmo, no entanto, não poderá ser feito com ações polimórficas). Lacey também reconhece: nesses espaços fechados, abstraídos e quantificados do controle científico-tecnológico, podemos fazer muitas coisas – desde que isso seja feito da forma correta, e não nos faça cair numa tentação de extrapolar esse espaço fechado para todos os lugares, criando configurações universais e uniformizantes para estender o nosso controle além do que nos é permitido.

O importante é valorizar e garantir um lugar adequado a essas práticas e ações polimórficas, contingentes e pactuais, que fogem ao nosso controle, mas que são a coisa mais importante de nossa humanidade, criada à imagem de Deus. Temo

s que saber integrar a tecnologia nas diversas tradições e narrativas locais, e equilibrá-la com outras práticas para “neutralizar” seus efeitos totalizantes. Virtudes de fé, esperança e amor alimentarão essa ética do não-poder, do não-controle, e nos direcionarão a um engajamento mais rico e contextualizado com as realidades locais, para a glória de Deus e (verdadeiro) alívio da condição humana.


Notas

  1.  Vide o capítulo Entendimento científico e controle da natureza, em LACEY, Hugh. Valores e atividade científica 1. Editora 34, 2008.

  2.  Há razões para se dizer que, por trás de muito do que se defende hoje como Big Data e Ciência de Dados, encontra-se, em boa parte, uma apropriação da antiga sociologia positivista, ou mesmo behaviorista, para a geração de valor e lucro. É a aplicação tecnológica da ciência social.

  3. Não posso deixar de chamar atenção para a semelhança dessa história, e das reflexões que ela levanta, com o enredo da ficção científica Solaris, de Stanislaw Lem. Recomendo a leitura.

  4. Esse trecho sugere uma boa dose de semelhança entre a psicologia comportamental de Skinner e a sociologia computacional. É um ponto a ser explorado…

  5. Albert Borgmann também percebe isso na parte 1 de sua obra Technology and the Character of Contemporary Life. Segundo ele, o discurso científico e tecnológico é apodêitico: “a ciência moderna permite que o mundo apareça como real em uma gama de mundos possíveis. A tecnologia moderna reflete a determinação de agir de forma transformadora nessas possibilidades. Nem a ciência nem a tecnologia, entretanto, têm uma teoria do que é digno e precisa de explicação ou transformação” (cap. 7). Em contraste, a arte é o principal lugar de um outro tipo de discurso, dêitico, que ilumina as coisas e mostra-as como algo relevante de se engajar (o que ele chama de “poder centrador”). É esse discurso dêitico que, no fim das contas, não pode ser compreendido do lado de fora uma forma de vida.

  6. A referência aqui é a distinção de Miroslaf Volf entre contrato e pacto, ou mesmo os conceitos desenvolvidos pela escola personalista (Gabriel Marcel e Martin Buber), que explora o caráter completamente distinto das relações Eu-Isso e Eu-Tu. Para mais detalhes sobre isso, consulte Roel Kuiper, “Capital Moral”, capítulos 3 e 5.

  7. É aqui que creio entrar a abordagem da teoria crítica, exemplificada na área chamada critical data studies: a suposta pretensão de universalidade da modernidade é, na verdade, apenas uma decisão específica de uma parte interessada em manter algum controle sobre a situação. Mas, quando tocamos nesse assunto, é importante deixar claro: afirmar isso não necessariamente implica cair em um relativismo pós-moderno ou reduzir toda a realidade a estruturas e discursos de poder (veja, por exemplo, que o próprio Alasdair MacIntyre reconhece isso em “Whose Justice? Which Rationality?”, sem cair no pós-modernismo; ou mesmo as discussões em torno do realismo crítico de Roy Bhaskar). O que estamos dizendo é apenas que o programador, ao escolher quantificar e processar a realidade de uma certa forma, está tomando decisões segundo sua própria compreensão limitada e visando algum ganho que lhe seja favorável. No entanto, a realidade é mais do que isso, e o programador deveria ser responsável por essa decisão. Exemplos e discussões sobre isso estão muito bem expostas na obra de Cathy O’Neil, “Algoritmos de Destruição em Massa” (Editora Rua do Sabão, 2020).

  8. Vale a pena também observar os artigos de Lacey e Schwartz ao behaviorismo nas ciências humanas – os argumentos são muito semelhantes aos de Collins e Kusch, expostos aqui: LACEY, Hugh; SCHWARTZ, Barry. Behaviorism, intentionality, and socio-historical structure. Behaviorism, v. 14, n. 2, p. 193-210, 1986.

  9. Você já pode imaginar o perigo disso: distorcer a própria leitura da Bíblia ou da história a partir desse conceito. De fato, eu mesmo, particularmente, não considero Ellul um grande exegeta, e também acho que muitas vezes ele força suas categorias no texto. No entanto, nem sempre é assim: você pode entender sua definição de Técnica apenas como uma lente possível para observar a história e conseguir aprender muita coisa. Ou seja: não é uma categoria absoluta, capaz de explicar tudo, mas é útil. Afinal, o próprio Ellul diria que a busca por uma categoria absoluta, capaz de explicar tudo, já é uma manifestação da Técnica, a qual ele critica.

  10. Nesse sentido, Ellul segue uma abordagem parecida a de Lewis Mumford, com seu conceito  de “megamáquina”. “A Técnica e o Desafio do Século” é a obra de Ellul que trabalha todas as características e desdobramentos da técnica nas várias áreas da sociedade contemporânea.

  11. Esse ponto foi, afinal, um dos grandes exemplos usados por Hubert Dreyfus na sua crítica à razão artificial: os algoritmos de IA teriam grande dificuldade com traduções. É verdade que, desde essa controvérsia na década de 60, muita coisa nesses algoritmos melhorou; no entanto, ainda assim, vemos erros até cômicos sendo realizados por esses tradutores, e você pode perceber que a maioria deles está ligado à incapacidade de captar contextos, metáforas, figuras de linguagem e ambiguidade – elementos da linguagem que claramente apontam para sua contextualização em formas de vida ou práticas sociais contingentes. Os cientistas da computação trabalhando com tradutores automáticos ainda tropeçam na história de Babel.

  12. “Dez maneiras de destruir a imaginação de seu filho”, de Anthony Esolen, é um livro que surpreendentemente nota algo disso e me ajuda, nesse sentido. Esolen mostra como poderíamos estar afastando as crianças do verdadeiro maravilhamento para com o mundo, não deixando-as mais à vontade na natureza ou nos bairros, e criando apenas espaços estruturados e artificiais para suas atividades. O objetivo, como ele mostra, é conseguirmos controle e segurança sobre suas vidas, mas o preço é alto demais.

Compartilhe a ABC²