Recentemente, tive a oportunidade de assistir a uma conferência (AIces 2026) transformadora de Ricardo Baeza-Yates, uma das mentes mais brilhantes no campo da recuperação de informação e ética em dados. O tema central foi a IA Responsável, um conceito que vai muito além do hype tecnológico e se posiciona como o pilar fundamental para o futuro da nossa sociedade digital.
1. Porquê IA “Responsável” e não apenas “Ética”?
Uma das primeiras provocações de Baeza-Yates é a distinção terminológica. Frequentemente usamos “IA Ética” ou “IA Confiável”, mas o autor argumenta que estes termos podem ser enganadores.
- A Ética é Humana: A ética implica agência moral, algo que as máquinas não possuem .
- A Confiança é Arriscada: Pedir para “confiar” num algoritmo que falha frequentemente é um erro de engenharia .
- Responsabilidade é a Chave: Ao contrário da ética, a responsabilidade pode ser atribuída a instituições e pessoas por trás do software . Se um sistema causa dano, a responsabilidade recai sobre quem o concebeu, treinou ou implementou.
2. Os 9 Princípios da IA Responsável
Como coautor dos princípios da ACM (Association for Computing Machinery) publicados em 2022, Baeza-Yates detalhou os pilares que devem guiar qualquer sistema algorítmico moderno :
- Legitimidade e Competência: O sistema tem base científica e o direito legal de existir?
- Minimização de Danos: Evitar consequências negativas intencionais ou acidentais.
- Segurança e Privacidade: Proteção de dados e resiliência contra ataques.
- Transparência: Clareza sobre como o sistema opera.
- Interpretabilidade e Explicabilidade: Humanos devem conseguir entender o “porquê” de uma decisão.
- Manutenção: O sistema deve ser fácil de atualizar e corrigir ao longo do tempo.
- Contestabilidade e Auditabilidade: Direito de desafiar decisões e permitir auditorias externas.
- Responsabilidade (Accountability): Definição clara de quem responde pelos erros.
- Limitação do Impacto Ambiental: Considerar a enorme pegada de carbono do treino de grandes modelos (LLMs) .
3. O Lado Sombrio: Discriminação e Incompetência
A conferência não evitou os temas difíceis. Foram apresentados casos reais onde a IA falhou gravemente:
- Viés e Discriminação: Desde algoritmos de justiça como o COMPAS, que exibia viés racial , até ao escândalo do Robodebt na Austrália, que emitiu milhares de dívidas erradas a cidadãos vulneráveis .
- Deepfakes e Desinformação: A facilidade de criar conteúdos falsos que podem “hackear” a percepção humana e destruir a verdade digital .
- Incompetência Humana: O uso ingênuo de ferramentas como o ChatGPT por profissionais (como advogados que citaram casos falsos em tribunal) demonstra que o problema, muitas vezes, não é a máquina, mas quem a opera sem critério .
4. O Caminho da Governança e Regulação
O futuro da IA depende de guardas regulatórios robustos.
- GDPR (Art. 22): Já garante o direito de não ser sujeito a decisões exclusivamente automatizadas com efeitos legais .
- EU AI Act: A Europa lidera com uma proposta baseada em níveis de risco (Inaceitável, Alto, Limitado e Mínimo), tentando fechar brechas legais antes que a tecnologia se torne incontrolável .
- China: Também já avançou com regulações específicas para IA Generativa em 2023 .
Conclusão: Uma IA ao Serviço das Pessoas
A mensagem final de Ricardo Baeza-Yates é clara: os sistemas são um espelho de nós próprios — do que temos de bom e de mau. Para que a IA seja uma força benéfica, precisamos de humanos no comando e computadores no ciclo de execução (loop), e não o contrário.
O objetivo não deve ser substituir as pessoas, mas sim empoderá-las, garantindo que a tecnologia respeite a nossa autonomia, justiça e o planeta .
Este artigo foi baseado na conferência “Responsible AI: Challenges & Recommendations” do AIces 2026 e no artigo “An Introduction to Responsible AI” de Ricardo Baeza-Yates (2023).


