A busca por uma Inteligência Artificial (IA) mais justa, inclusiva e menos sujeita a vieses não é exclusividade do Ocidente. A cientista chinesa Li Yingzhen, Professora Associada no Imperial College, em Londres, está na vanguarda de uma pesquisa que visa injetar a empatia nos algoritmos, um passo crucial para tornar a IA mais humana e ética. Seu trabalho, focado em aprendizado de máquina probabilístico, destaca a importância de desenvolver sistemas que consigam preencher “detalhes invisíveis” e modelar os dados de forma a refletir a diversidade das experiências humanas.
O debate sobre a ética em algoritmos ganhou urgência global à medida que a IA passa a tomar decisões cruciais — desde a seleção de candidatos em universidades até a concessão de empréstimos. Sistemas tendenciosos, frequentemente criados por equipes com pouca diversidade, podem se tornar um “reflexo” de vieses inconscientes, perpetuando a discriminação. É neste cenário que a voz de pesquisadoras como Li Yingzhen, que se formou em Matemática na China e fez seu doutorado em Cambridge, ganha relevância.
O Desafio da Paridade e a Construção de Sistemas Justos
Li Yingzhen argumenta que a IA é intrinsecamente orientada por dados e pelo usuário. A ausência das experiências e perspectivas femininas e de outros grupos minoritários nos dados de treinamento e nas equipes de desenvolvimento resulta em sistemas que não são justos nem empáticos.
Exemplo Prático: Se for solicitado a um aplicativo de geração de imagens que crie a imagem de um “doutor” ou “CEO”, o resultado será majoritariamente masculino. Ao pedir um “enfermeiro” ou “professor”, o resultado tende a ser feminino. Isso expõe como os dados subjacentes carregam vieses de gênero do mundo real.
Para Li, a solução passa pela maior participação das mulheres não apenas como usuárias, mas como criadoras de IA. A missão é clara: construir sistemas sustentáveis, socialmente responsáveis e diversos, garantindo que a tecnologia incorpore uma compreensão real das necessidades humanas.
🇧🇷 Parceria BRICS: Uma Agenda de Inclusão e Soberania Digital
A pesquisa chinesa por uma IA mais ética e humana se alinha perfeitamente com a agenda de governança da Inteligência Artificial defendida pelo bloco BRICS (Brasil, Rússia, Índia, China e África do Sul). O bloco tem enfatizado a necessidade de a IA não se tornar uma ferramenta para manter a hegemonia de poucos países e empresas, buscando garantir direitos e oportunidades iguais para todas as nações.
A cooperação entre os membros do BRICS já traz exemplos práticos de como a IA é usada para a inclusão social e o desenvolvimento:
- China: Utiliza a IA em projetos como o programa Healthy China 2030 com a plataforma Tencent Miying para diagnósticos médicos precoces e na revitalização cultural rural, onde a tecnologia ajuda a preservar tradições e gerar empatia global.
- Índia: Implementa a Ayushman Bharat Digital Mission, utilizando a IA na telemedicina para conectar áreas remotas, promovendo a inclusão digital em saúde.
- BRICS em Conjunto: Os Ministérios Públicos dos países do bloco já aprovaram uma declaração para fortalecer a cooperação no uso ético e seguro da IA no combate ao crime, demonstrando o compromisso com um framework regulatório conjunto.
Ao buscar a empatia nos algoritmos, a China não só avança na inovação fundamental, mas também contribui para uma discussão global sobre a necessidade de uma soberania digital que promova a interoperabilidade e o desenvolvimento de IA que sirva a todas as culturas e realidades, combatendo a exclusão digital e a desigualdade tecnológica.

