ColunistasNotícias

Como inovar com inteligência artificial de forma responsável

Por Flavio Hirotaka Mine, especialista em Confiabilidade na CENIBRA

A inteligência artificial (IA) está cada vez mais presente em nossas vidas, ajudando empresas a inovar, crescer e resolver problemas do dia a dia. Mas, para que essa tecnologia traga benefícios para todos, é fundamental usá-la de forma responsável, ou seja, pensando nos riscos, na ética e no impacto para as pessoas e sociedade. Apesar de muita discussão sobre o tema, poucas empresas realmente colocam a IA responsável em prática.  

O Fórum Econômico Mundial lançou em setembro deste ano um documento intitulado “Advancing Responsible AI Innovation: A Playbook” que apresenta dicas simples e exemplos reais de como organizações e governos podem avançar nessa jornada. Abaixo trago uma pequena síntese deste documento. 

ESTRATÉGIA E CRIAÇÃO DE VALOR

O primeiro passo para inovar com IA de forma responsável é alinhar a tecnologia com os objetivos da empresa, garantindo que ela gere valor sem causar problemas. Para isso deve: 

  • Envolver a liderança da empresa para definir princípios claros sobre o uso da IA;
  • Criar uma cultura de diálogo, onde todos possam opinar sobre como a IA está sendo usada;
  • Garantir que os dados usados pela IA sejam de qualidade, seguros e respeitem a privacidade. 

Case: A Telefônica, uma grande empresa de telecomunicações, aproveitou sua experiência em privacidade de dados para criar um modelo de governança de IA. Ela montou um escritório dedicado, um grupo de especialistas em ética e “campeões” de IA responsável em cada equipe. Assim, conseguiu envolver toda a empresa e garantir que a IA fosse usada de forma ética e alinhada às leis. 

GOVERNANÇA E RESPONSABILIDADE

Governança significa criar regras claras, definir quem é responsável pelo quê e garantir que a IA seja usada de forma segura e transparente. Na prática, isso inclui:

  • Nomear líderes responsáveis pela IA e criar grupos de trabalho com pessoas de diferentes áreas;
  • Fazer avaliações regulares para saber se a empresa está realmente seguindo boas práticas;
  • Ter canais para que funcionários possam relatar problemas ou incidentes com IA. 

Cases : A empresa e& (antiga Etisalat Group) criou um comitê de governança de IA com representantes de privacidade, segurança, riscos e tecnologia. Esse grupo ajuda as equipes a identificarem riscos logo no início e mantém todos atualizados sobre as melhores práticas e mudanças nas leis. 

Outro exemplo é o “Selo de IA de Dubai”, criado pelo governo local para certificar empresas que realmente usam IA de forma ética e transparente. Isso ajuda a combater exageros de marketing (“AI washing”) e aumenta a confiança dos consumidores. 

DESENVOLVIMENTO E USO

Desenvolver e usar IA de forma responsável significa pensar na ética desde o início dos projetos, garantindo que os sistemas sejam seguros, justos e tragam benefícios reais. Para isso, é importante: 

  • Incluir princípios de design responsável desde o começo dos projetos;
  • Testar os sistemas para identificar possíveis problemas antes de lançar;
  • Manter supervisão humana, mesmo quando a IA faz parte de processos automáticos. 

Cases: O Instituto Alan Turing, junto com a Fundação LEGO, envolveu crianças, pais e professores para entender como a IA afeta os pequenos. Eles fizeram oficinas em escolas e ouviram as crianças sobre suas experiências com ferramentas como ChatGPT e DALL·E. O resultado foi um guia para criar IA pensando no bem-estar e na segurança das crianças. 

Outro caso é o da Accenture, que criou uma plataforma chamada “Trusted Agent Huddle”. Ela permite que agentes de IA trabalhem juntos de forma segura e transparente, acelerando processos de marketing, mas sempre com controles para garantir responsabilidade e supervisão. 

PESSOAS E CAPACITAÇÃO

Preparar as pessoas para trabalhar com IA é essencial. Isso significa: 

  • Oferecer treinamentos sobre IA responsável para todos os funcionários;
  • Ouvir as preocupações dos colaboradores sobre o impacto da IA em seus trabalhos;
  • Apoiar a transição para novas funções, caso a IA mude a forma de trabalhar. 

Case: A IKEA, gigante do varejo, lançou um programa global de alfabetização em IA, com treinamentos adaptados para diferentes funções. Em apenas um ano, mais de 4 mil funcionários foram capacitados, e a meta é treinar 70 mil até 2026. 

Usar IA de forma responsável não é só uma questão técnica, mas de cultura, liderança e compromisso com a sociedade. Empresas que investem em governança, transparência e capacitação saem na frente, conquistando a confiança de clientes, parceiros e reguladores. Governos também têm papel fundamental, criando regras claras e incentivando boas práticas, transformando o uso da IA em uma aliada para o desenvolvimento sustentável e o bem-estar de todos. 

Link documento do fórum econômico mundial sobre este tema: https://reports.weforum.org/docs/WEF_Advancing_Responsible_AI_Innovation_A_Playbook_2025.pdf 

Mostrar mais
Botão Voltar ao topo