O que o SXSW 2026 ajudou a enxergar
A discussão sobre inteligência artificial nas empresas ainda está muito centrada em uma promessa relativamente simples: fazer mais, em menos tempo e com menos custo. Em boa medida, essa promessa continua válida. A IA de fato reduz fricção, acelera tarefas, amplia capacidade operacional e encurta o intervalo entre demanda e resposta.
Mas talvez a questão mais importante já não esteja mais aí.
O SXSW 2026 ajudou a explicitar uma mudança de eixo: à medida que a inteligência artificial deixa de apenas responder e passa a atuar, recomendar, priorizar, comparar, executar etapas e influenciar decisões reais, o centro do problema deixa de ser apenas tecnológico. Ele passa a ser organizacional, relacional e, cada vez mais, jurídico.
A IA barateou a execução. Mas, exatamente por isso, encareceu a responsabilidade.
Essa mudança merece atenção. Quando executar era caro, lento e intensivo em trabalho humano, as empresas construíram camadas de controle distribuídas em fluxos, aprovações, hierarquias, supervisões e checkpoints. Parte dessas estruturas surgia para coordenar pessoas; parte, para mitigar erro; parte, para permitir rastreabilidade e atribuição de responsabilidade.
Agora, porém, muitas empresas começam a introduzir IA em seus processos sem revisar a arquitetura decisória que sustenta esses mesmos processos. A ferramenta entra, mas o desenho de responsabilidade permanece difuso. O sistema acelera, mas a governança não acompanha. O resultado é um tipo novo de risco: não necessariamente o erro grosseiro e visível, mas a ação sem dono claro, sem limite material bem definido, sem trilha decisória robusta e sem revisão proporcional ao impacto produzido.
Esse ponto é mais sério do que parece.
A discussão jurídica sobre IA ainda é, com frequência, excessivamente centrada na licitude abstrata do uso da tecnologia, na existência de dados pessoais ou na velha pergunta sobre “quem responde” por um dano. Tudo isso importa, naturalmente. Mas, em muitos contextos empresariais, a pergunta mais relevante passa a ser anterior: como exatamente a IA foi incorporada ao processo de decisão, com que escopo, com quais restrições, com qual possibilidade de escalonamento humano e com qual registro?
Em outras palavras: o problema jurídico da IA nas empresas talvez não esteja apenas na adoção. Está, cada vez mais, na arquitetura de decisão.
Isso vale especialmente quando já não se trata apenas de IA generativa usada como apoio redacional ou informacional, mas de agentes capazes de executar tarefas, interagir com sistemas, perseguir objetivos, corrigir rotas e produzir efeitos operacionais concretos. Quando um agente interage com CRM, ERP, financeiro, atendimento, procurement ou fluxos internos de aprovação, ele deixa de ser apenas software de apoio e passa a funcionar, na prática, como operador de processo.
É aí que a responsabilidade encarece.
Porque um operador invisível, sem identidade funcional clara, sem parâmetros bem definidos de atuação e sem mecanismos adequados de auditoria, amplia a opacidade do processo decisório. E opacidade, para o direito, raramente é neutra. Ela compromete accountability, dificulta rastreabilidade, enfraquece a justificabilidade de decisões, tensiona deveres de supervisão e aumenta a vulnerabilidade da empresa em cenários de disputa com clientes, empregados, parceiros, reguladores ou autoridades.
O risco não está apenas na IA “errar uma resposta”. Está na IA agir sem dono, sem limite e sem trilha.
Isso ajuda a explicar por que a velha distinção entre inovação e conformidade está ficando insuficiente. Em muitos casos, a empresa não estará exposta porque “usa IA”, mas porque usa IA de modo estruturalmente mal incorporado: sem delimitação de alçadas, sem critérios de revisão, sem clareza sobre onde termina a automação e onde começa a intervenção humana necessária.
A consequência jurídica disso é relevante. Sistemas decisórios mal desenhados podem produzir arbitrariedade sem aparência de arbitrariedade. Podem gerar discricionariedade sem transparência. Podem deslocar responsabilidade real para zonas cinzentas de operação, nas quais todos participaram um pouco, mas ninguém responde adequadamente pelo todo. E podem, sobretudo, fragilizar a capacidade da empresa de demonstrar que atuou com diligência, critério e supervisão compatíveis com o risco envolvido.
Esse é um ponto que interessa diretamente ao direito digital, mas não apenas a ele. Interessa também ao desenho contratual, à governança corporativa, às relações de consumo, às práticas trabalhistas, à proteção de dados e à gestão de riscos reputacionais. Afinal, à medida que sistemas passam a mediar decisões, recomendações e interações em escala, a exigência jurídica deixa de ser apenas a de ter tecnologia disponível. Passa a ser a de conseguir explicar como essa tecnologia opera dentro da empresa e sob quais freios institucionais.
A discussão sobre responsabilidade também se adensa por outra razão: a IA não altera apenas processos; ela altera o próprio modo como pessoas decidem dentro das organizações. Uma das reflexões mais interessantes trazidas por esse novo ciclo é a de que a automação não gera apenas risco operacional. Ela também pode gerar empobrecimento cognitivo. Se o uso de IA passa a substituir formulação, dúvida, comparação, análise e julgamento em excesso, a empresa pode até ganhar velocidade — mas perder critério, autoria e capacidade de diferenciação.
Isso também tem dimensão jurídica, ainda que menos óbvia. Organizações que terceirizam discernimento em excesso tendem a degradar a qualidade do processo decisório interno. E decisões empresariais pobres, mal contextualizadas ou excessivamente dependentes de automação mal supervisionada quase nunca permanecem confinadas ao plano da eficiência. Mais cedo ou mais tarde, elas aparecem em litígios, em conflitos de interpretação, em falhas de atendimento, em medidas desproporcionais, em comunicações inadequadas, em violações procedimentais ou em respostas incapazes de se sustentar sob escrutínio.
A IA, portanto, não elimina a responsabilidade humana. Ao contrário: torna mais importante decidir onde ela permanece irrenunciável.
Esse talvez seja o ponto mais importante que o debate atual ajuda a enxergar. Nem toda fricção humana deve ser removida. Em muitos contextos, a intervenção humana não é resíduo de ineficiência, mas parte essencial da legitimidade da decisão. Há situações em que a automação pode e deve avançar. Há outras em que o valor econômico, reputacional e jurídico da atuação humana continua sendo decisivo — especialmente em contextos de exceção, sensibilidade, conflito, revisão, escalonamento ou impacto relevante sobre terceiros.
Por isso, talvez a pergunta correta já não seja se a empresa está adotando IA. A pergunta mais útil é outra: que tipo de responsabilidade ela está assumindo ao adotá-la da forma como adotou?
Se não houver resposta clara para isso, a promessa de eficiência pode estar apenas mascarando um novo passivo.
No longo prazo, a vantagem competitiva não tenderá a permanecer com quem apenas automatiza mais. Ela tenderá a se deslocar para quem consegue demonstrar algo mais difícil: que sua automação opera com critério, que seus fluxos preservam accountability, que sua supervisão não é meramente decorativa e que sua arquitetura decisória continua sendo compreensível, auditável e justificável.
A IA barateou a execução. Mas isso não tornou as empresas menos responsáveis. Tornou-as responsáveis de um modo novo — e, em muitos casos, mais exigente.
No fim, talvez o maior desafio jurídico deste ciclo não seja responder ao que a inteligência artificial pode fazer. Seja definir, com clareza, o que ela não pode fazer sozinha, em nome de quem ela age e sob quais limites sua atuação ainda pode ser considerada legítima, prudente e defensável.

Advogado. Pós-graduado em Direito Empresarial pela FGV São Paulo. Alumni do Data Privacy. Associado ao International Association of Privacy Professionals (IAPP). Membro da Comissão do Novo Advogado do Instituto dos Advogados de São Paulo (IASP).

