Pelo terceiro ano consecutivo, a MIT Sloan Management Review e o Boston Consulting Group (BCG) reuniram um painel internacional de especialistas em IA, composto por acadêmicos e profissionais, para analisar a implementação da inteligência artificial responsável (RAI) em organizações. Este ano, o foco estava na capacidade das empresas de enfrentar os riscos associados à IA. A maioria dos especialistas (84%) apoia a obrigatoriedade de divulgar o uso de IA nos produtos e serviços oferecidos aos clientes.
Além da obrigatoriedade legal, os especialistas destacaram uma responsabilidade ética das empresas em serem transparentes sobre o uso de IA. Para Linda Leopold, do Grupo H&M, a transparência permite decisões informadas e aumenta a confiança dos clientes. Simon Chesterman, da Universidade Nacional de Singapura, argumenta que a transparência facilita a avaliação de riscos, enquanto Ryan Carrier, da ForHumanity, defende o direito dos usuários de conhecer os riscos da IA, como potenciais erros ou “alucinações” gerados por grandes modelos de linguagem.
Divulgações não apenas promovem confiança entre consumidores, investidores e funcionários, mas também contribuem para a confiança social na IA. Segundo Jeff Easley, do RAI Institute, a obrigatoriedade dessas divulgações responsabiliza as empresas pelo uso ético da IA, o que pode ajudar a mitigar riscos como preconceitos e discriminação.
Entretanto, implementar divulgações eficazes apresenta desafios. Segundo Douglas Hamilton, da Nasdaq, há dificuldades em diferenciar IA de outros sistemas de software, tornando difícil definir quando as divulgações são necessárias. Além disso, alguns especialistas alertam para o risco de revelar segredos competitivos e reforçam que as divulgações devem ser claras e acessíveis ao público, sem serem ocultadas em termos e condições.
Muitos especialistas acreditam que as divulgações devem ser obrigatórias quando os consumidores interagem diretamente com IA ou quando são tomadas decisões que impactam suas vidas. Eles também recomendam transparência sobre o uso de dados pessoais pelas ferramentas de IA e como esses dados são utilizados para treinar os modelos. Além de atender a exigências legais, empresas que adotam uma postura proativa na divulgação de suas práticas de IA têm mais chances de construir confiança com consumidores e investidores.
Para ajudar as organizações a implementar divulgações eficazes e construir confiança no uso de IA, os especialistas sugerem as seguintes recomendações:
- Alinhar as divulgações aos princípios de transparência e responsabilidade da IA. As empresas devem garantir que suas divulgações reflitam os valores de ética e responsabilidade no uso da IA.
- Tornar as informações acessíveis e fáceis de entender. As divulgações devem ser apresentadas em linguagem clara, para garantir que os consumidores possam compreendê-las facilmente.
- Ir além dos requisitos legais. As organizações devem adotar uma postura proativa, divulgando práticas de IA de maneira mais abrangente, para fortalecer a confiança dos consumidores.
- Publicar detalhes sobre as práticas de IA responsável. Divulgar códigos de conduta e políticas de IA ajuda a consolidar a confiança entre clientes, investidores e funcionários.
Em um cenário onde a inteligência artificial está cada vez mais presente nas operações empresariais, a transparência no uso dessa tecnologia é fundamental para promover confiança entre consumidores, investidores e a sociedade em geral. Embora a implementação de divulgações sobre IA traga desafios, como a proteção de segredos comerciais e a clareza das informações, as empresas que adotam práticas responsáveis e transparentes estarão mais bem posicionadas para mitigar riscos e fortalecer suas relações com o mercado.
Além de cumprir com exigências legais, agir de forma proativa na divulgação do uso de IA permite às organizações demonstrar seu compromisso com a ética, a responsabilidade e a segurança. Isso não apenas cria um ambiente de confiança, mas também contribui para o desenvolvimento e a aceitação social da IA de maneira responsável. Ao seguir as recomendações sugeridas, as empresas poderão avançar na construção de uma cultura de transparência, responsabilidade e confiança, que será um diferencial competitivo em um mundo cada vez mais orientado por IA.
Advogado. Pós-graduado em Direito Empresarial pela FGV São Paulo. Alumni do Data Privacy. Associado ao International Association of Privacy Professionals (IAPP). Membro da Comissão do Novo Advogado do Instituto dos Advogados de São Paulo (IASP).