A inteligência artificial (IA) está transformando a economia global, com potencial estimado em até US$ 4,4 trilhões por ano. No entanto, seu uso sem governança adequada pode gerar riscos graves, como discriminação, violações de privacidade, decisões opacas e falhas técnicas com impacto direto sobre pessoas e empresas. Esses temas foram abordados no painel “AI Ethics and Governance: Avoiding the Headlines”, realizado durante o South by Southwest (SXSW) deste ano, com especialistas de McKinsey, Oracle e HCL Tech.
Logo de início, o painel trouxe um alerta claro: a ausência de governança de IA já está causando danos reais. Segundo dados apresentados, 61% dos funcionários no mundo corporativo já vivenciaram consequências negativas associadas à IA, enquanto apenas 18% das empresas contam com estruturas formais de governança. Entre os riscos debatidos, destacaram-se o viés histórico nos dados, a dificuldade de explicar decisões automatizadas, o uso inadequado de dados sensíveis e as limitações técnicas dos modelos, como alucinações e baixa precisão. Também foram levantadas preocupações éticas, como a tendência de atribuir qualidades humanas a sistemas automatizados ou esperar deles decisões infalíveis.
Como resposta a esses riscos, o painel propôs uma estrutura baseada em cinco pilares: justiça, privacidade, explicabilidade, transparência e segurança técnica. Em justiça, enfatizou-se a importância de corrigir vieses e ampliar a representatividade nos dados. Já na privacidade, Kevin Fiume destacou a necessidade de uma estratégia robusta de dados, combinando repositórios próprios com fontes públicas bem selecionadas, e o uso de técnicas como privacidade diferencial e limpeza de dados. Ele reforçou que privacidade deve ser uma jornada contínua, e não uma simples obrigação.
A explicabilidade exige ferramentas que tornem compreensíveis as decisões da IA, métodos de documentação, e capacitação de equipes para traduzirem decisões técnicas em linguagem acessível. Em transparência, defendeu-se a criação de “model cards” e a clareza sobre como os modelos foram treinados, mas com um contraponto importante: é preciso equilibrar transparência com a proteção de informações confidenciais e estratégicas, respeitando limites corporativos, de segurança e de propriedade intelectual.
No campo técnico, a segurança da IA depende de avaliações constantes, supervisão humana, escolha de modelos apropriados e robustez operacional. Esses cuidados ajudam a evitar decisões erradas e ampliar a confiabilidade dos sistemas.
Apesar do consenso sobre a importância da governança, a implementação ainda enfrenta barreiras: estruturas organizacionais frágeis, lacunas de conhecimento técnico, falta de capacitação ética e o desafio estratégico de equilibrar inovação com mitigação de riscos. Governar a IA exige esforço contínuo, alinhamento entre áreas e um compromisso real com a ética.
Governança de IA não é um projeto com fim definido — é uma disciplina permanente. As organizações que desejam inovar de forma segura e confiável precisam encarar esse tema com seriedade e visão de longo prazo.
Como especialista em privacidade e proteção de dados, acompanho de perto os avanços e desafios relacionados à governança de IA. Ajudar empresas a construir estruturas éticas, seguras e conformes com a legislação é parte central do meu trabalho.
Se sua organização está enfrentando dúvidas sobre como implementar essas práticas, procure sempre um especialista de sua confiança.

Advogado. Pós-graduado em Direito Empresarial pela FGV São Paulo. Alumni do Data Privacy. Associado ao International Association of Privacy Professionals (IAPP). Membro da Comissão do Novo Advogado do Instituto dos Advogados de São Paulo (IASP).