Skip to main content

Recentemente, tive a oportunidade de assistir a uma conferência (AIces 2026) transformadora de Ricardo Baeza-Yates, uma das mentes mais brilhantes no campo da recuperação de informação e ética em dados. O tema central foi a IA Responsável, um conceito que vai muito além do hype tecnológico e se posiciona como o pilar fundamental para o futuro da nossa sociedade digital.

1. Porquê IA “Responsável” e não apenas “Ética”?

Uma das primeiras provocações de Baeza-Yates é a distinção terminológica. Frequentemente usamos “IA Ética” ou “IA Confiável”, mas o autor argumenta que estes termos podem ser enganadores.

  • A Ética é Humana: A ética implica agência moral, algo que as máquinas não possuem .
  • A Confiança é Arriscada: Pedir para “confiar” num algoritmo que falha frequentemente é um erro de engenharia .
  • Responsabilidade é a Chave: Ao contrário da ética, a responsabilidade pode ser atribuída a instituições e pessoas por trás do software . Se um sistema causa dano, a responsabilidade recai sobre quem o concebeu, treinou ou implementou.

2. Os 9 Princípios da IA Responsável

Como coautor dos princípios da ACM (Association for Computing Machinery) publicados em 2022, Baeza-Yates detalhou os pilares que devem guiar qualquer sistema algorítmico moderno :

  1. Legitimidade e Competência: O sistema tem base científica e o direito legal de existir?
  2. Minimização de Danos: Evitar consequências negativas intencionais ou acidentais.
  3. Segurança e Privacidade: Proteção de dados e resiliência contra ataques.
  4. Transparência: Clareza sobre como o sistema opera.
  5. Interpretabilidade e Explicabilidade: Humanos devem conseguir entender o “porquê” de uma decisão.
  6. Manutenção: O sistema deve ser fácil de atualizar e corrigir ao longo do tempo.
  7. Contestabilidade e Auditabilidade: Direito de desafiar decisões e permitir auditorias externas.
  8. Responsabilidade (Accountability): Definição clara de quem responde pelos erros.
  9. Limitação do Impacto Ambiental: Considerar a enorme pegada de carbono do treino de grandes modelos (LLMs) .

3. O Lado Sombrio: Discriminação e Incompetência

A conferência não evitou os temas difíceis. Foram apresentados casos reais onde a IA falhou gravemente:

  • Viés e Discriminação: Desde algoritmos de justiça como o COMPAS, que exibia viés racial , até ao escândalo do Robodebt na Austrália, que emitiu milhares de dívidas erradas a cidadãos vulneráveis .
  • Deepfakes e Desinformação: A facilidade de criar conteúdos falsos que podem “hackear” a percepção humana e destruir a verdade digital .
  • Incompetência Humana: O uso ingênuo de ferramentas como o ChatGPT por profissionais (como advogados que citaram casos falsos em tribunal) demonstra que o problema, muitas vezes, não é a máquina, mas quem a opera sem critério .

4. O Caminho da Governança e Regulação

O futuro da IA depende de guardas regulatórios robustos.

  • GDPR (Art. 22): Já garante o direito de não ser sujeito a decisões exclusivamente automatizadas com efeitos legais .
  • EU AI Act: A Europa lidera com uma proposta baseada em níveis de risco (Inaceitável, Alto, Limitado e Mínimo), tentando fechar brechas legais antes que a tecnologia se torne incontrolável .
  • China: Também já avançou com regulações específicas para IA Generativa em 2023 .

Conclusão: Uma IA ao Serviço das Pessoas

A mensagem final de Ricardo Baeza-Yates é clara: os sistemas são um espelho de nós próprios — do que temos de bom e de mau. Para que a IA seja uma força benéfica, precisamos de humanos no comando e computadores no ciclo de execução (loop), e não o contrário.

O objetivo não deve ser substituir as pessoas, mas sim empoderá-las, garantindo que a tecnologia respeite a nossa autonomia, justiça e o planeta .


Este artigo foi baseado na conferência “Responsible AI: Challenges & Recommendations” do AIces 2026 e no artigo “An Introduction to Responsible AI” de Ricardo Baeza-Yates (2023).


João Lima

→ UX Design Guru at Critical TechWorks - BMW Group → uiux.pt Founder → UX Teacher

Leave a Reply