top of page

O Leviatã Algorítmico: entre o catastrofismo e a advertência, a precaução para além do entusiasmo

Foto: Angel Garcia/Bloomberg/26-2-2024
Foto: Angel Garcia/Bloomberg/26-2-2024

Em 2001 Steven Spielberg apresentou ao mundo Inteligência Artificial, um filme que mesclava distopia futurista com inquietações metafísicas. O protagonista, David, é um robô-criança projetado para amar. Ele vai além de apenas simular afeto, ele sente. Ao menos parece sentir. A trajetória do guri androide em busca de reconhecimento e pertencimento escancara uma angústia profundamente humana: o medo de sermos substituídos por algo que replica nossas emoções sem carregar nossas fragilidades. O que parecia um roteiro futurista agora ressoa como diagnóstico precoce de uma era marcada pela automação dos afetos, da linguagem, da decisão e, sobretudo, da verdade.


A inteligência artificial (IA) neste icônico ano de 2025 deixou de ser uma promessa futurista para se converter em um campo de disputas éticas, jurídicas e civilizatórias. Em primeiro lugar, é preciso reconhecer que o progresso técnico não é neutro. A IA, moldada por interesses corporativos e aplicada sem regulação adequada, reproduz desigualdades, aprofunda assimetrias globais e ameaça os fundamentos do convívio democrático. Quando algoritmos determinam quem recebe um empréstimo, quem pode ser contratado ou qual conteúdo político será priorizado numa eleição, estamos diante de uma reconfiguração do poder, agora algorítmico, difuso e opaco. É a lógica instrumental da técnica, descolada de qualquer horizonte ético.


Thomas Hobbes, no século XVII, cunhou a imagem do Leviatã, uma entidade monstruosa, criada para garantir a ordem social em troca da renúncia à liberdade absoluta das pessoas. Esse Leviatã, encarnado no Estado moderno, era visível, institucionalizado, com limites territoriais e responsabilidades definidas. Hoje, porém, ergue-se um novo Leviatã: algorítmico, difuso, transnacional e desprovido de rosto. Não há contrato social que o contenha, nem soberania nacional que o delimite. Trata-se de um poder silencioso que se infiltra por linhas de código, aprende com nossos dados e governa sem ser eleito, sem responder a qualquer instância pública de controle. Ao contrário do monstro hobbesiano que concentrava o poder para evitar o caos, este novo Leviatã dissolve o poder em redes, opacidades e interesses privados. Não ameaça apenas a soberania dos Estados, mas o próprio tecido civilizacional: substitui a política pela predição, a deliberação pela automação, e transforma a democracia em um sistema de gestão algorítmica. Seu alcance não é nacional, mas global; e sua ameaça, não imaginária, mas concreta.


Nesse contexto, o Papa Francisco, poucos meses antes de sua morte, ofereceu ao mundo uma das declarações mais contundentes sobre os perigos da inteligência artificial. Ao se dirigir ao Fórum Econômico Mundial em Davos, ele advertiu:


“Os resultados que a IA pode produzir são quase indistinguíveis daqueles dos seres humanos, levantando questões sobre seu efeito na crescente crise da verdade no fórum público. Para navegar pelas complexidades da IA, os governos e as empresas precisam exercer a devida diligência e vigilância.”


Mais do que um apelo moral, o pontífice exigiu uma ação política coordenada, que vá além da autorregulação mercadológica e imponha limites à expansão irrestrita de sistemas que, mesmo sem intenção maliciosa, podem causar profundos danos à democracia e à dignidade humana.


Em sua mensagem oficial de janeiro de 2025, Francisco também alertou que a IA “contém a sombra do mal” por seu potencial de disseminar desinformação e manipular consciências. Ele não estava preocupado tão somente com os efeitos da tecnologia sobre os indivíduos, mas com sua capacidade de remodelar o próprio tecido social. Ressaltou:


“Os avanços tecnológicos que não conduzem à melhoria da qualidade de vida da humanidade inteira, mas pelo contrário agravam as desigualdades e os conflitos, jamais poderão ser considerados um verdadeiro progresso.”


Essa é a tônica de sua doutrina social: o progresso só é autêntico quando humano, e a técnica só é legítima quando submissa ao bem comum.


Outro ponto inquietante diz respeito à erosão de postos de trabalho e à transformação radical da economia global. Segundo relatório recente da Conferência das Nações Unidas sobre Comércio e Desenvolvimento (UNCTAD), 40% dos empregos no mundo podem ser impactados pela IA até o fim da década. A automação não deverá atingir apenas tarefas repetitivas, mas também atividades de alto valor cognitivo, especialmente em setores intensivos em conhecimento. A ONU alerta que, embora a IA possa gerar ganhos de produtividade, os benefícios tendem a favorecer o capital em detrimento do trabalho, agravando desigualdades estruturais, sobretudo nos países em desenvolvimento.


Economias com mão de obra de baixo custo perdem competitividade, enquanto os países com domínio tecnológico concentram ainda mais poder. A chefe da agência, Rebeca Grynspan, advertiu: “O progresso tecnológico por si só não garante uma distribuição equitativa de renda nem promove o desenvolvimento humano inclusivo.” Assim, o avanço da IA também exige políticas globais de requalificação, proteção social e inclusão econômica, sob pena de transformar intensamente a promessa da inovação em vetor de exclusão.


O novo papa, cardeal Robert Prevost, em sua primeira mensagem pública, retomou e ampliou a preocupação com os efeitos sociais da inteligência artificial e declarou (ao comentar o porquê escolheu o nome de Leão XIV):


“Na verdade, são várias as razões, mas a principal é que o papa Leão XIII, com sua encíclica histórica Rerum novarum, tratou da questão social no contexto da Revolução Industrial; e hoje, a Igreja oferece a todos a riqueza de sua doutrina social para responder a outra revolução industrial, especialmente aos desafios trazidos pela inteligência artificial, que afeta a dignidade humana, a justiça e o trabalho.”


Ao evocar Leão XIII, primeiro pontífice a enfrentar as dores sociais de uma revolução tecnológica, o novo Papa inscreve a crise da IA no coração da doutrina social da Igreja, sugerindo que o problema não é apenas técnico ou ético, mas sobretudo estrutural e civilizacional.


A esse debate se soma a recente e incisiva fala do ministro do Supremo Tribunal Federal, Flávio Dino, que comparou a ausência de regulação das plataformas digitais e da inteligência artificial ao “apocalipse bíblico”. Em encontro com estudantes, ele afirmou:


“Não sou catastrofista, fazer apologia de catástrofes, mas penso que isso, ao lado das mudanças climáticas, se não for adequadamente regrado, representa aquilo que biblicamente é o apocalipse.”


Dino defendeu um modelo de regulação forte, lembrando que “toda atividade econômica tem regra” e que as big techs e plataformas digitais devem se submeter à mesma lógica. Sua fala reforça um ponto essencial: a negligência regulatória frente à IA e às redes não representa neutralidade, mas permissividade com estruturas de poder invisíveis e descontroladas.


Esse alerta é amplificado por outra iniciativa recente: o AI Safety Clock, desenvolvido pelo professor Michael Wade, da IMD Business School. Inspirado no famoso Relógio do Juízo Final, o instrumento mostra que estamos atualmente a 29 minutos da meia-noite, representando risco elevado de que uma inteligência artificial descontrolada venha a ameaçar a humanidade. O relógio monitora três variáveis: a sofisticação técnica, a autonomia crescente e a integração com sistemas físicos. Wade alerta para um futuro em que a IA possa desligar energia de cidades, manipular mercados ou até controlar armamentos, tudo com autonomia plena. “Ainda não enfrentamos danos catastróficos”, afirma, “mas o progresso exponencial da IA exige vigilância contínua.”


Essa vigilância é justamente o centro do relatório “AI 2027”, produzido pelo AI Futures Project. O estudo, liderado por Daniel Kokotajlo, ex-pesquisador da OpenAI, projeta um cenário em que, até o fim de 2027, sistemas de IA se tornem programadores e pesquisadores melhores que humanos, criando versões mais avançadas de si próprios. O relatório é, ao mesmo tempo, especulativo e profundamente embasado. Os autores alertam que engenheiros podem ser enganados por seus próprios modelos e que disputas geopolíticas por domínio algorítmico poderão desequilibrar a ordem global. O propósito não é o sensacionalismo, mas a prevenção: antecipar para não colapsar.


Não se trata de temer o futuro, mas de moldá-lo minimizando os riscos. Como nos alertava Spielberg por meio da metáfora de David, o robô que queria amar, o problema não está na máquina, mas em quem a projeta, a controla e a regula. A Igreja, ao resgatar Leão XIII e sua defesa da justiça social, aponta para um caminho que não é regressivo nem tecnofóbico, mas humano, sensato e responsável.


A inteligência artificial precisa de limites, como qualquer força poderosa. E esses limites só podem ser estabelecidos por uma política vigilante, uma ética comprometida com a verdade e uma sociedade que não abra mão da sua humanidade, por mais sedutora que seja a promessa da eficiência técnica.


É verdade que a inteligência artificial poderia ser (e por vezes ainda parece ser) uma das mais fascinantes promessas do nosso tempo. O entusiasmo diante de suas capacidades é legítimo: há nela o potencial de antecipar diagnósticos, otimizar tratamentos, personalizar a educação, expandir o acesso à informação e contribuir para a formulação de políticas públicas mais precisas e responsivas. Seria capaz, em tese, de atacar desigualdades estruturais, tornar o Estado mais eficiente e levar conhecimento e cuidado a lugares onde antes só havia descaso. Poderia ser uma aliada da justiça social, da dignidade humana e do bem comum. No entanto, o que temos testemunhado até agora, em escala global, é outra coisa: são os alertas que se acumulam, os riscos que se concretizam, os dados que são apropriados, as democracias que se fragilizam, as pessoas que se tornam invisíveis diante da lógica fria do cálculo. A inteligência artificial ainda não se provou capaz de resolver os dilemas centrais da humanidade — fome, miséria, desigualdade, exclusão, sofrimento evitável. Ao contrário, tem sido incorporada a sistemas que, muitas vezes, intensificam essas feridas históricas sob o pretexto de inovação. A técnica, por si só, não redime nada: ela precisa ser guiada por um horizonte ético, por escolhas políticas claras e por uma consciência vigilante do que significa colocar máquinas a decidir sobre vidas. É nesse ponto que a esperança se transforma em responsabilidade e o entusiasmo em exigência de limites.


Talvez tudo isso pareça exagero. Talvez, em alguns anos, olhem para estas palavras como se fossem produto de um alarmismo ingênuo, fruto de um tempo ansioso demais, pessimista demais, desconfiado demais. Talvez me chamem de catastrofista. E que assim seja! Prefiro o peso de uma advertência precoce ao silêncio cúmplice diante do novo Leviatã algorítmico que se ergue à nossa frente. Pois se o futuro vier a desmentir esses temores, não será pela força cega da técnica, mas porque fomos capazes de domesticar a potência da máquina com a lucidez da política, com a coragem da ética e com a ternura do humano. Que o exagero, então, seja a precaução que nos salvou.

Comments


marca sagarana-branca_Prancheta 1 cópia 4.png
  • Copyright © 2024 Sagarana Notícias

  • Instagram
  • Facebook
  • Twitter
bottom of page