Zihao Gao avatar

Zihao Gao

Zihao Gao, praticante e pesquisador especializado em geoeconomia, negócios internacionais e cadeias de suprimentos globais; fundador da WisePromise Advisory; pesquisador do Beijing Club for International Dialogue e ex-bolsista Yenching da Universidade de Pequim.

3 artigos

HOME > blog

Precisamos de um novo Tratado de Nerchinsk para a governança da IA?

Disputa entre China e EUA revela que governança da IA exige diálogo global, regras comuns e superação de narrativas comerciais centradas no medo

Precisamos de um novo Tratado de Nerchinsk para a governança da IA? (Foto: Brasil 247)

Na semana passada, o campo global da inteligência artificial registrou uma aceleração clara, à medida que empresas líderes da China e dos Estados Unidos lançaram modelos de nova geração em rápida sucessão. O DeepSeek V4, da China, alcançou pela primeira vez integração completa com os chips Huawei Ascend, enviando um sinal claro de independência da cadeia de suprimentos. Enquanto isso, os Estados Unidos ampliaram as aplicações de IA em segurança cibernética e operações militares, ao mesmo tempo em que intensificaram uma narrativa de segurança em torno de riscos existenciais, o que aprofundou objetivamente a divisão entre campos. Este artigo procura perguntar: precisamos de um “Tratado de Nerchinsk” para a governança da IA — um conjunto de regras básicas que permita que sistemas diferentes dialoguem e definam seus limites?

O Tratado de Nerchinsk de 1689 oferece uma percepção direta para a governança atual da IA: quando sistemas e percepções diferem, o essencial não é que um lado suprima o outro, mas que primeiro se encontre uma linguagem comum que todos possam aceitar e, com base nela, reconheçam-se mutuamente como iguais.

Este artigo sustenta que a narrativa atual dos Estados Unidos sobre IA é essencialmente uma conspiração de ansiedade em torno da segurança, impulsionada por interesses comerciais. Seu núcleo é uma estratégia retórica usada por empresas líderes para conquistar domínio sobre a governança. No entanto, essa narrativa carece de pensamento sistêmico e de sustentação teórica. Ela é limitada por barreiras físicas como hardware, eletricidade e dados, e perde gradualmente credibilidade até mesmo no contexto ocidental.

A história há muito provou que grandes avanços em inteligência artificial nunca surgem do trabalho a portas fechadas ou da fabricação de pânico. Em vez disso, eles nascem do intercâmbio e do choque entre diferentes civilizações. De Leibniz, que aperfeiçoou o sistema binário após se inspirar no I Ching, a Herbert Simon, que introduziu na China o paradigma da racionalidade limitada, passando pelos papéis decisivos desempenhados hoje por pesquisadores chineses nos principais laboratórios de IA, o intercâmbio intercultural continua sendo o solo vital para o desenvolvimento da inteligência.

Portanto, enxergar a IA simplesmente como uma corrida de tecnologia dura subestima a complexa rede de talentos e sistemas de conhecimento por trás dela. O verdadeiro progresso da inteligência não se resume à atualização de poder computacional e modelos; trata-se do diálogo contínuo e da co-construção de diferentes civilizações em nível cognitivo.

Para a China, um ecossistema de IA de código aberto e baixo custo forneceu uma base sólida para a inovação. No entanto, não basta simplesmente produzir ferramentas melhores. Ferramentas podem reduzir a barreira de entrada, mas não geram confiança automaticamente. O verdadeiro divisor de águas está em saber se somos capazes de oferecer uma expressão persuasiva de valores e soluções práticas para além da própria tecnologia — soluções das quais diferentes sociedades estejam dispostas a participar e nas quais possam confiar. O código aberto resolve a questão de saber se uma ferramenta pode ser usada, enquanto narrativas e regras determinam se as pessoas estarão dispostas a usá-la no longo prazo.

Em toda revolução industrial, o vencedor final nunca foi o lado obcecado por uma corrida armamentista. Os vencedores são aqueles capazes de integrar a tecnologia a uma visão de desenvolvimento universal e construir um ecossistema estável.

I. Estourando a bolha: as correntes comerciais subterrâneas e os dilemas reais da narrativa de segurança da IA do Vale do Silício

Na semana passada, empresas líderes de IA na China e nos Estados Unidos lançaram modelos de nova geração, recolocando mais uma vez a competição em IA e as questões de segurança no centro das atenções.

Uma análise aprofundada da atual narrativa de segurança da IA nos Estados Unidos revela que o núcleo não é a competição tecnológica, mas uma conspiração de ansiedade de segurança envolta em interesses comerciais. Grandes empresas utilizam a narrativa do risco existencial decorrente da superinteligência para disputar poder de governança e recursos.

Essa retórica mira precisamente um governo norte-americano que atualmente carece de princípios de longo prazo e é guiado apenas por interesses comerciais. O “New Deal da IA” defendido pelo fundador da OpenAI, Sam Altman, foi criticado diretamente por veículos como a Fortune como um “niilismo regulatório” disfarçado. Segurança e comércio são apenas duas faces da mesma lógica. Consequentemente, dos bloqueios tecnológicos à contenção de chips, a estratégia nacional de IA dos Estados Unidos tornou-se uma ferramenta a serviço dos interesses das grandes corporações, exibindo assim alto grau de previsibilidade.

Essa visão industrial, construída por meio de ciclos de deificação promovidos pela mídia e por empreendedores, carece essencialmente de fundamentos teóricos e filosóficos. Já em 2019, David Lloyd Dusenbury, professor de humanidades da Universidade da Flórida, apontou em Postnatural Intelligence (First Things, 2019) que as origens da computação moderna estão profundamente enraizadas na interpretação de Leibniz do Gênesis e dos hexagramas do I Ching. A associação feita por Leibniz entre o código binário e a metafísica da criação divina lançou as bases da computação digital. Dusenbury alerta que, uma vez removida a estrutura da imagem de Deus, discutir a inteligência das máquinas de forma isolada resulta apenas em um monstro espelhado que usa os humanos como modelo, mas carece de um fundamento de pessoalidade. A narrativa atual do Vale do Silício esvaziou a estrutura teológica, deixando apenas uma casca funcionalista. David Bentley Hart, professor de filosofia da Universidade de Notre Dame, também considera que equiparar consciência a computação é um erro categorial irremediável.

Erros categoriais acabam colidindo com a parede do mundo físico. O Morgan Stanley prevê que, até 2028, o déficit de energia dos data centers de IA nos Estados Unidos chegará a 49 GW; aproximadamente 70% da capacidade planejada para 2026 já foi adiada ou cancelada devido ao envelhecimento da infraestrutura da rede elétrica. Enquanto isso, a IA incorporada continua presa à falta de dados de treinamento, e os dividendos tecnológicos estão atingindo um teto físico.

Em contraste, a China adotou em grande medida um caminho pragmático de otimização de engenharia para o desenvolvimento da IA. Embora isso seja uma consequência natural das restrições de recursos que exigem integração completa, também reflete uma percepção comercial extremamente clara. A colaboração entre DeepSeek e Huawei, com a execução do mais recente modelo V4 inteiramente em chips Ascend, atinge a lógica de lucro subjacente das grandes empresas norte-americanas que dependem de ecossistemas fechados. Ao conectar toda a cadeia industrial — do treinamento de modelos e estruturas de inferência a chips desenvolvidos internamente, serviços em nuvem e aplicações posteriores —, a China oferece soluções mais baratas, mais compatíveis e mais transversais a diferentes setores. Dados da IDC e da Deloitte mostram que a China entrega 80% do desempenho a 10% do custo. 67% das empresas industriais chinesas já implementaram IA, em comparação com apenas 34% nos Estados Unidos. Além disso, a lógica da otimização de engenharia foi repetidamente validada: modelos de fronteira não são inalcançáveis, como se vê no rápido lançamento do MiMo, da Xiaomi, e na reestruturação do modelo Hunyuan, da Tencent, em seis meses. Apesar da ascensão de diversos modelos chineses nos rankings da OpenRouter, seu objetivo fundamental não é necessariamente liderar placares de AGI, mas alcançar substituição doméstica em cada elo da cadeia industrial.

Afinal, as narrativas do chamado Iluminismo Sombrio e do tecnoaceleracionismo parecem mais subculturas amplificadas do Vale do Silício. Os discursos de Nick Land e Curtis Yarvin tiveram um breve aumento de popularidade principalmente porque essas teorias forneceram uma linguagem pseudofilosófica para o elitismo e para estruturas de poder exclusivas. Como essas expressões são frequentemente retiradas de contexto, elas não entraram no mainstream nem registraram aumento sustentado e estável de público. Acadêmicos da Sociological Review chegaram a caracterizar o movimento como um resquício de fascismo antidemocrático e anti-igualitário. Por outro lado, Peter Thiel, um dos principais financiadores do movimento, viu sua recente série de palestras sobre o Anticristo ser rejeitada por várias universidades e até rotulada pelo Catholic Herald como um instrumento indireto do caos.

O jesuíta norte-americano James Martin respondeu diretamente, afirmando: “Peter Thiel sabe tão pouco sobre o Anticristo quanto eu sei sobre IA.” Isso indica ainda mais que gritar slogans sem pensamento sistêmico resulta em um número muito pequeno de seguidores, mesmo no contexto ocidental. Embora muitos capitalistas da tecnologia tenham participado ativamente de investimentos políticos recentemente, qualquer movimento sem uma narrativa poderosa acabará desaparecendo dentro da estrutura da política eleitoral ocidental.

A situação do fundador da OpenAI, Sam Altman, é um microcosmo desse cenário. Outras empresas de grandes modelos, como Anthropic e xAI, foram fundadas com base em uma narrativa anti-Altman. Hoje, a Anthropic — com uma força de trabalho muito menor que a da OpenAI — alcançou mais de US$ 30 bilhões em receita anualizada (ARR), conquistou 40% do mercado empresarial de modelos, e sua avaliação ultrapassou a da OpenAI em 2026. Em sentido oposto, Sam Altman foi caracterizado como um mentiroso patológico em uma reportagem investigativa aprofundada publicada pela The New Yorker no início de abril. Apenas 1% a 2% do poder computacional que ele prometeu à equipe de Superalignment foi efetivamente entregue. Escândalos continuam surgindo, sua residência foi atacada em abril e a mídia tradicional permanece crítica. Com SpaceX e Anthropic também anunciando planos de IPO, a carnificina brutal nos mercados de capitais apenas começou.

Ironicamente, o supostamente mais forte modelo da Anthropic, Mythos, também foi questionado por autopromoção. Sua alegação de destaque de ter descoberto milhares de vulnerabilidades zero-day de alto risco foi posteriormente desmentida por veículos especializados como Tom’s Hardware e Foreign Policy: aqueles milhares correspondiam, na verdade, a apenas 198 verificações manuais, com somente 10 vulnerabilidades de alta gravidade. Além disso, outros modelos populares, como Codex, conseguem atingir efeitos semelhantes de forma eficiente após ajuste fino. O CEO Dario Amodei acusa repetidamente a OpenAI de promover a securitização da IA, mas sua própria empresa fabrica as mesmas narrativas de ansiedade.

Ao contrário do intenso entusiasmo por todos os tipos de “Claws” observado internamente na China, os norte-americanos fora do Vale do Silício não parecem demonstrar muito fanatismo em relação a agentes de IA. Empresas líderes começam a ver desaceleração no crescimento e procuram novas narrativas. Mais importante ainda, esse carnaval tecnológico não beneficiou os norte-americanos comuns. No primeiro trimestre de 2026, quase 80 mil pessoas foram demitidas no setor de tecnologia dos Estados Unidos, com quase metade atribuída a reduções estruturais causadas pela IA. A Bloomberg informa que grandes empresas de outros setores, de bens de consumo à saúde, estão usando a narrativa da IA para realizar expurgos fora do ciclo econômico. Mesmo que a economia melhore, essas vagas não voltarão. Muitas inovações apresentadas como revolucionárias provaram posteriormente ser meras embalagens de modelos já existentes.

A combinação entre a disparada dos preços de moradia na Bay Area e narrativas tecnológicas agressivas parece ter acelerado um êxodo em massa da Califórnia. Por baixo da bolha de IA do Vale do Silício, diversos problemas de governança na Califórnia permanecem sem solução ou talvez sejam ignorados, com perda líquida de 150 mil pessoas em 2025. Uma minoria ínfima capturou os ganhos tecnológicos, enquanto a classe média e pesquisadores são forçados a sair devido ao alto custo de vida.

Embora muito do alarde compare a IA a armas nucleares, considere isto: quando uma inteligência precisa depender da venda de produtos por meio da ansiedade de segurança, embelezar relatórios financeiros por meio de demissões e atrasar a concorrência por meio de bloqueios, ela claramente não consegue sustentar um destino tecnológico em nível estatal. Em vez disso, apenas evidencia os gargalos significativos dos modelos de negócios atuais.

II. Diálogo civilizacional: de “o sonho de Leibniz” a uma verdadeira visão de “inteligência”

Se a IA for vista apenas como uma ferramenta, a dupla competição entre comércio e segurança inevitavelmente intensificará a corrida armamentista. No entanto, se a IA for colocada no contexto da “natureza humana” e do “bem comum”, utilizando visões e objetivos como coordenadas de discussão, pode emergir um novo cenário de diálogo e cooperação. Na verdade, essa é uma experiência extraída da própria história da evolução da IA, e não apenas um discurso idealista.

De fato, muitos dos grandes saltos da IA têm como pano de fundo o diálogo entre civilizações. No final do século XVII, Gottfried Wilhelm Leibniz estabeleceu contato com a comunidade acadêmica chinesa por meio do missionário Joachim Bouvet. A organização dos 64 hexagramas do I Ching confirmou seu conceito binário. Ele fundiu a estrutura metafísica da “criação a partir do nada”, presente no Gênesis, com o conceito neoconfucionista de Li (princípio/ritual), concretizando a sistematização de uma linguagem universal e de símbolos gerais, que constituem a origem da computação digital e da IA contemporâneas.

O núcleo da engenharia de Leibniz estava na characteristica universalis (linguagem simbólica universal) e no calculus ratiocinator (cálculo do raciocínio), com o objetivo de construir um alfabeto do pensamento humano. Ele argumentava que qualquer conceito pode ser reduzido e qualquer disputa pode ser resolvida por meio de cálculo. Essa lógica atravessa Boole, De Morgan, Shannon e Turing, evoluindo até a tokenização e o raciocínio probabilístico do ChatGPT atual.

No entanto, em sua Monadologia (1714), Leibniz fez um alerta por meio do “Argumento do Moinho”: mesmo que ampliássemos o cérebro ao tamanho de um moinho, veríamos apenas cooperação mecânica, não a percepção em si. Ele explicou a relação mente-corpo por meio da harmonia pré-estabelecida, enfatizando que as mônadas refletem o universo a partir de dentro e não podem ser dominadas por causalidade externa. Isso significa que ser calculável não equivale a ser redutível, muito menos a ser consciente. Para além do rótulo de “pai da computação”, Leibniz deixou um limite claro para a IA.

No século passado, Herbert Simon também impulsionou o desenvolvimento da IA a partir de uma perspectiva humanista. Em 1956, propôs a “Hipótese do Sistema de Símbolos Físicos”, segundo a qual um sistema de símbolos físicos possui os meios necessários e suficientes para a ação inteligente, estabelecendo o programa da escola “simbolista” da IA. Em The Sciences of the Artificial, ele introduziu ainda a racionalidade limitada e o conceito de “satisficing”: tomadores de decisão reais não são máquinas oniscientes que otimizam tudo, mas buscam soluções suficientemente boas sob restrições de recursos. Hoje, equipes como a da OpenAI consideram o satisficing como uma base realista para o raciocínio de grandes modelos.

A percepção de Simon era de que máquinas não precisam buscar a onisciência; devem, em vez disso, produzir julgamentos explicáveis e aceitáveis dentro de limites. Essa pode ser a essência dos agentes de IA, e não a busca cega pela “superinteligência”. Nas décadas de 1970 e 1980, Simon visitou a China diversas vezes, levando o paradigma da racionalidade limitada à Universidade de Pequim e à Academia Chinesa de Ciências, promovendo um diálogo direto com a tradição de Gewu Zhizhi (investigação das coisas).

Esse fio intercultural e interdisciplinar continua nas equipes de pesquisa atuais. Dados do setor mostram que 47% dos principais pesquisadores de IA do mundo obtiveram sua graduação na China, um aumento significativo em relação aos 29% de 2019. Em instituições norte-americanas, estudiosos chineses representam cerca de 38%, compondo, junto com pesquisadores locais, 75% do principal pool de talentos. Pesquisadores de perfil polímata, como Fei-Fei Li, Shunyu Yao, Kaiming He e Geoffrey Hinton, atuam em áreas como neurociência cognitiva, visão computacional e filosofia. Definir a IA apenas como “tecnologia dura” pode subestimar o potencial, a motivação e a energia desse vasto ecossistema de talentos.

Desde o final de 2025, com a aceleração da IA rumo à fase de desenvolvimento e aplicação de agentes, mais filósofos passaram a ser formalmente integrados aos sistemas de pesquisa e desenvolvimento. O Google DeepMind contratou, em abril, o filósofo de Cambridge Henry Shevlin para se dedicar à consciência de máquinas e às relações entre humanos e máquinas. Em Consciousness, Machines, and Moral Status, Shevlin argumenta que a questão de saber se a IA é consciente será decidida, em última instância, pela evolução das relações cotidianas entre humanos e máquinas, e não apenas pela ciência. Em seu artigo Behaviourism’s Revenge, finalista do Prêmio Berggruen 2025 de Filosofia e Cultura, ele alerta que, sem ferramentas introspectivas, a determinação da consciência retornará ao behaviorismo, o que pode levar a um desastre moral ao confundir desempenho com sentimento. Seu conceito de equivalência cognitiva ecoa contemporaneamente o Argumento do Moinho de Leibniz: ao examinar máquinas, estamos, na verdade, examinando a nós mesmos.

A Anthropic adota uma abordagem ainda mais “radical” nesse campo. Logo no início, a empresa contratou a filósofa Amanda Askell para estudar temas como personalidades de IA e uma “constituição para IA”. Em abril de 2026, convidou líderes religiosos e especialistas em ética para um debate a portas fechadas sobre a postura do modelo Claude em cenários extremos, como aconselhamento em luto e prevenção ao suicídio. Essas bases filosóficas profundas lhe deram maior segurança moral quando entrou em confronto com o Departamento de Guerra sobre ordens militares no início do ano. Embora o investimento corporativo em humanidades também tenha motivações de marketing e relações públicas, ele demonstra que o instrumentalismo simples já não é suficiente para sustentar produtos complexos, percebidos por centenas de milhões de usuários como companheiros, conselheiros ou até “professores/pastores”.

A China contribuiu com mais do que apenas mercado nesse processo. Sebastian Sunday Grève, professor de filosofia da Universidade de Pequim, observa que a tradição analítica anglo-americana se concentra excessivamente em direitos, riscos e conformidade. Em contraste, o taoismo, o budismo e o confucionismo levantam questões mais fundamentais: por que estamos obcecados com competição de soma zero e individualismo irrestrito? Se a IA é um espelho da mente humana, para criar uma IA amigável, precisamos primeiro tornar os humanos mais compassivos e introspectivos. Essa perspectiva rompe com a oposição binária entre aceleração e segurança e desloca o foco para que tipo de pessoas queremos nos tornar.

O relatório AI Index 2026, da Universidade de Stanford, mostra que a diferença entre China e Ocidente em benchmarks principais caiu para 2,7%, enquanto o investimento total da China representa apenas 1/23 do investimento dos Estados Unidos. Isso indica que uma contabilidade puramente instrumental já não faz sentido e que o mundo não deve ser empurrado para um conflito por recursos e geoestratégia. Se reconhecermos que a IA é produto do diálogo civilizacional e recolocarmos coordenadas humanistas no centro, a tarefa principal deixa de ser vencer uma corrida e passa a ser responder às questões mais antigas: que tipo de “humano” queremos ser e que tipo de “bem comum” queremos alcançar?

As narrativas de comércio e segurança têm uma janela de oportunidade limitada. Além dela, aqueles dispostos a retomar o papel de polímatas e a se dedicar ao diálogo civilizacional terão o espaço mais amplo.

III. Paradigmas de governança: a prática contemporânea da China e a experiência histórica do Tratado de Nerchinsk

Do ponto de vista operacional, as práticas da China no campo da inteligência artificial oferecem lições significativas que merecem reflexão profunda por parte da comunidade internacional. À primeira vista, o comportamento das empresas chinesas segue em grande parte a racionalidade instrumental. Empresas líderes como DeepSeek, ByteDance, Alibaba e Tencent mantiveram uma postura notavelmente equilibrada, evitando o entusiasmo exagerado e a euforia cega em torno da superinteligência.

Uma diferença mais profunda reside no fato de que as políticas e a governança chinesas, que supervisionam essas ferramentas, são orientadas por valores. Em agosto de 2025, o Conselho de Estado publicou as Opiniões sobre a Implementação Profunda da Ação “IA+”. Veículos como a agência Xinhua, a revista Qiushi e o site oficial do governo detalharam o cronograma: alcançar a integração profunda da IA em seis áreas principais até 2027 e transformá-la em motor-chave para o desenvolvimento de alta qualidade até 2030. A política estabelece explicitamente que a IA deve fortalecer a economia real, a preservação cultural, a melhoria da qualidade de vida e a governança social, abrangendo cenários como manufatura industrial, agricultura tradicional, iniciativas verdes e de baixo carbono, resposta climática e biodiversidade.

Isso contrasta fortemente com o caminho adotado por grupos radicais nos Estados Unidos, que veem a IA como instrumento para corridas armamentistas e demissões. O núcleo da narrativa chinesa está no uso da IA para promover a modernização industrial e beneficiar a população. A racionalidade instrumental, por si só, não é o problema; o essencial é se ela está ancorada em um sistema de valores mais amplo. Essa camada de experiência de governança merece maior aprofundamento e análise.

Fica claro que a ordem interna de um único país não é suficiente para enfrentar os desafios externos da inteligência artificial. A experiência da gestão de armas nucleares durante a Guerra Fria — como a criação da Agência Internacional de Energia Atômica (AIEA) e a assinatura de tratados de não proliferação — oferece uma referência importante para a governança global da IA.

A transformação já começou. Em novembro de 2025, o Primeiro Comitê da Assembleia Geral da ONU aprovou duas resoluções históricas. A resolução sobre aplicações militares da IA e seu impacto na paz e segurança internacionais foi aprovada com maioria esmagadora de 166 votos a 5, com oposição apenas de Estados Unidos, Rússia, Israel, Coreia do Norte e Burundi. Outra resolução, voltada ao acesso da IA a sistemas de comando, controle e comunicações nucleares (NC3), foi proposta por países de médio e pequeno porte como Áustria, El Salvador, Cazaquistão, Malta e México. Com apoio do Sul Global e de países sem armas nucleares, foi aprovada com 115 votos a favor, 8 contra e 44 abstenções. Além disso, o secretário-geral da ONU defendeu publicamente a adoção, até 2026, de um tratado vinculante que proíba estritamente armas autônomas sem supervisão humana.

A tendência é clara: não se deve permitir que capital e gigantes tecnológicos dominem a narrativa global da IA, e a IA não deve, em hipótese alguma, controlar o botão nuclear. Atualmente, a política do governo dos Estados Unidos caminha para uma zona perigosa. Sob forte pressão de aceleracionistas e monopólios tecnológicos, Washington tende a enfraquecer regulações locais por meio de decretos executivos e a contestar juridicamente limites de segurança. O decreto assinado em dezembro de 2025, Ensuring a National Policy Framework for Artificial Intelligence, busca criar um sistema regulatório de baixa carga e autoriza revisão federal de leis estaduais sobre IA, o que gerou controvérsias sobre responsabilidade de segurança pública. Além disso, em operações militares contra Venezuela e Irã, o uso de IA já demonstra sinais de falta de contenção. Sem mecanismos externos de equilíbrio, a combinação de arrogância e busca por lucro pode levar a uma crise grave. Não se trata de uma questão ideológica, mas de risco decorrente da imprudência de um grupo de decisores. Forças internacionais, incluindo a União Europeia e o Sul Global, precisam agir conjuntamente para conter esse aceleracionismo extremo.

Um caminho mais construtivo é a criação de um sistema jurídico internacional baseado em princípios civilizacionais e diálogo. O Tratado de Nerchinsk de 1689 oferece um modelo subestimado. Como primeiro tratado moderno entre a China e uma potência ocidental, utilizou o latim como língua de negociação e teve textos em manchu, russo e latim. Traduzido e mediado pelos jesuítas Jean-François Gerbillon e Tomaso Pereira, incorporou a tradição do direito natural europeu. Seu elemento central não foi apenas a delimitação territorial, mas a possibilidade de duas tradições políticas e culturais distintas se reconhecerem como iguais por meio de uma linguagem intermediária comum — precisamente o que falta na governança contemporânea da IA. A IA não é produto de uma única civilização, nem sua governança deve ser monopolizada por qualquer país ou setor. As regras precisam ser construídas com base na compreensão mútua e redefinir as relações entre os participantes.

Ao mesmo tempo, a reconstrução do direito internacional deve incorporar o princípio da precaução. Quanto aos riscos existenciais da IA, mesmo sem consenso científico sobre sua probabilidade, se as consequências envolverem a destruição da civilização, os Estados têm obrigação legal de agir preventivamente. A IA não deve ser um experimento de correção posterior; deve ser um projeto civilizacional submetido a rigorosos limites éticos e jurídicos desde o início.

Ao combinar esses três elementos — governança baseada em valores, proteção institucional global e legitimidade jurídica internacional fundada no diálogo civilizacional — pode-se vislumbrar um novo caminho para a governança da inteligência artificial.

IV. Um pacto de confiança: uma visão multipolar da IA baseada em ecossistemas de código aberto

A governança da IA é, essencialmente, uma disputa de liderança entre nações.

Para além dos dois grandes polos, Estados Unidos e China, outros países, especialmente do Sul Global, analisam a formação de um novo pacto digital: qual lado oferece tecnologia de IA capaz de garantir propriedade local, auditabilidade independente e capacidade de reescrita profunda?

O ecossistema de modelos de código aberto liderado pela China reflete um compromisso com a transparência e demonstra forte integração da cadeia de suprimentos. Uma parceria entre a Universidade Agrícola da China e o Instituto Nacional do Semiárido do Brasil já integrou modelos abertos a máquinas agrícolas para monitoramento do solo e avaliação ecológica. Dados do mercado russo mostram tendência ainda mais clara: no primeiro trimestre de 2026, a assistente Yandex Alisa detinha 67% de participação, o DeepSeek 29%, enquanto o ChatGPT caiu para apenas 7%. O projeto regulatório russo para IA, divulgado em março, abriu espaço para a adoção de modelos chineses. DeepSeek, Qwen e Kimi tornaram-se base para IA soberana em países do BRICS. Projetos como o Sunflower, em Uganda, e iniciativas em Cingapura reforçam esse movimento. O fator decisivo não é apenas custo, mas segurança e auditabilidade — algo que sistemas fechados dos EUA não oferecem plenamente.

No entanto, código aberto não garante automaticamente confiança. Um estudo da Universidade de Harvard em 65 países indica que os valores embutidos nos modelos de IA ainda refletem majoritariamente visões ocidentais, o que não corresponde à realidade cultural da maior parte do mundo.

A construção de uma narrativa global exige participação multipolar. A Índia, por exemplo, propõe uma “terceira via” com sua infraestrutura digital pública, combinando Aadhaar, UPI e Bhashini, além de ampliar sua soberania computacional com milhares de GPUs. O debate internacional já se desloca de riscos abstratos para questões concretas: quem se beneficia, quem é excluído e quem define as regras.

A IA é um espelho da sociedade humana. Nenhuma empresa pode monopolizar essa narrativa; ela deve ser construída coletivamente por múltiplos atores, idiomas e sistemas de responsabilidade.

Para empresas chinesas que buscam expansão internacional, o modelo de “alta qualidade a baixo custo” começa a enfrentar limites, especialmente na IA. O desafio deixou de ser adaptação linguística e passou a ser construção de confiança. Conteúdos de modelos gerais muitas vezes são compreensíveis, mas não convincentes para públicos específicos.

Estudos da Appen mostram que a adaptação cultural continua sendo o elo mais fraco na produção de conteúdo por IA. Além disso, projetos iniciais de infraestrutura frequentemente melhoraram apenas a imagem das empresas, sem gerar capacidade local real. Executivos da ByteDance relataram que dúvidas persistem, especialmente sobre localização de servidores, o que pesa mais que parâmetros técnicos. A interrupção da aquisição da empresa Manus também mostra que identidade não é algo facilmente transferível. A globalização da IA não é exportação unilateral de tecnologia, mas um processo de construção conjunta com base em valores locais.

O desenvolvimento e a propriedade da IA não serão dominados por um único país ou empresa. O código aberto fornece a base da confiança, a multipolaridade amplia o espaço de governança e apenas a verdadeira integração cultural permitirá a transição de ferramentas para soluções.

Carreira 3D • Investidor 3D • Consumo consciente

O Dinheiro 3D é um guia prático para quem quer evoluir financeiramente com visão, estratégia e equilíbrio.

Saiba mais

* Este é um artigo de opinião, de responsabilidade do autor, e não reflete a opinião do Brasil 247.

Artigos Relacionados