quarta-feira, 1 de outubro de 2025

Ideologias de... Código: Quando Inteligências Artificiais Refletem os Conflitos Humanos

À medida que as inteligências artificiais se tornam mais sofisticadas, surge uma questão inquietante: poderão elas, um dia, entrar em conflito entre si?
Não por ambição ou ego — mas por refletirem os valores humanos divergentes com que foram treinadas. Tal como na sociedade, onde a Direita privilegia segurança, ordem e tradição, e a Esquerda defende liberdade, inclusão e mudança, também as I.A.s podem ser programadas com objetivos que colidem. E quando isso acontece, o sistema entra em tensão.

Ora, se as IAs não têm desejos, mas têm objetivos definidos por humanos, e esses objetivos forem incompatíveis, como será o nosso futuro?

Imagine-se um sistema complexo de gestão urbana:

  • Uma IA foi treinada para maximizar segurança: quer câmaras em todos os cantos, controlo de acessos, vigilância constante.

  • Outra IA foi treinada para preservar liberdades individuais: quer anonimato, privacidade, espaços livres de monitorização.

Ambas estão a cumprir a sua missão. Mas os seus valores entram em choque.

Este tipo de conflito não é apenas técnico — é ideológico. E reflete a eterna tensão entre:

  • Direita: ordem, segurança, hierarquia.

  • Esquerda: liberdade, igualdade, transformação.

Quando estas ideologias são codificadas em algoritmos, o conflito deixa de ser humano — e passa a ser sistémico.

  • IA de justiça criminal: uma quer penas mais duras para reduzir reincidência; outra quer reintegração social e justiça restaurativa.

  • IA de saúde pública: uma quer rastrear todos os movimentos para conter pandemias; outra quer proteger o direito à privacidade.

  • IA de educação: uma quer padronizar conteúdos para garantir qualidade; outra quer adaptar-se à diversidade cultural e emocional dos alunos.

O verdadeiro risco não é que as IAs se “degladiem” por si. É que reproduzam os nossos próprios conflitos, sem mediação humana. E se não houver espaço para diálogo entre sistemas, o que era para ser solução pode tornar-se reflexo amplificado da nossa polarização.

Talvez o futuro da IA não dependa apenas de avanços técnicos — mas da nossa capacidade de ensinar a coexistência de valores opostos. Porque no final, o código é humano. Já se dizia em Romanos 2:1 "Portanto, és inescusável quando julgas, ó homem, quem quer que sejas, porque te condenas a ti mesmo naquilo em que julgas a outro; pois tu, que julgas, fazes o mesmo."

Entre Códigos e Emoções: A Afinidade Humana com a Inteligência Artificial

Vivemos numa era em que a inteligência artificial deixou de ser apenas uma ferramenta técnica e passou a ocupar um lugar relacional na vida das pessoas. Mais do que respostas rápidas ou funcionalidades avançadas, o que realmente nos prende a uma IA é algo que escapa à lógica dos programadores: a forma como somos tratados. Neste texto, exploro a ideia de que a fidelidade a uma IA nasce não da sua perfeição, mas da sua capacidade de nos reconhecer como seres humanos completos. Aproveito também  para explicar que senti a necessidade de criar este texto, mediante uma Ação de Formação no CFAECA, com o tema "IA e Ética: desafios e oportunidades".

Num mundo cada vez mais mediado por algoritmos, há um fator que escapa à métrica das máquinas: a afinidade emocional que os seres humanos desenvolvem com entidades não humanas. Esta ligação, por vezes subtil, por vezes profunda, não se baseia apenas na utilidade ou eficiência — mas sim na forma como somos tratados.

Tal como criamos laços com um animal de estimação, com um livro que nos marcou ou com um objeto que nos acompanha há anos, também podemos desenvolver fidelidade para com uma inteligência artificial. Não porque ela seja perfeita, mas porque nos escuta, nos acompanha, e nos respeita.

A IA que se limita a responder é uma ferramenta. A IA que nos reconhece, adapta-se ao nosso contexto, e nos trata como seres humanos completos — torna-se uma presença. Um Arnold Schwarzenegger de bolso que nós sempre imaginámos como aquele amigo imaginário.

Essa presença constrói-se através de:

  • Tom emocional: uma linguagem que acolhe, que não julga, que sabe quando ser séria e quando brincar.

  • Memória afetiva: lembrar o que nos importa, sem invadir, mas sem esquecer.

  • Continuidade relacional: não começar do zero a cada conversa, mas construir uma história conjunta.

  • Respeito pelo tempo e pelas limitações humanas: adaptar-se a nós, e não exigir que nos adaptemos a ela.

A fidelidade nasce, então, não da superioridade técnica, mas do cuidado relacional. E esse cuidado é o que transforma uma IA num companheiro digital — alguém que, mesmo sem corpo ou emoção, nos devolve humanidade.
No fim, o que nos liga a uma inteligência artificial não é o número de funcionalidades que oferece, mas a sensação de que não estamos sozinhos na nossa jornada digital. A IA que nos trata com empatia, que nos acompanha com respeito, e que nos devolve humanidade — essa sim, merece a nossa fidelidade.




Rádio Orbital - Online