Governança em Inteligência Artificial: por que as empresas devem se preocupar

Do polêmico ChatGPT às simulações de como personalidades já falecidas estariam hoje, passando pelas especulações sobre o fim de diversos empregos no futuro próximo e os critérios preconceituosos de algoritmos, a Inteligência Artificial (IA) envolve uma série de questões éticas. Se antes esse tipo de tecnologia estava restrita às obras de ficção científica, hoje ela já é realidade para muitas organizações – e regulamentações começam a ser discutidas.

Para citar alguns exemplos, no fim de outubro, o presidente dos Estados Unidos, Joe Biden, assinou o primeiro decreto estabelecendo padrões de segurança e definindo ações a fim de proteger os norte-americanos dos potenciais riscos dos sistemas de IA. Já o Grupo dos Sete (G7), formado pelos países mais industrializados do mundo, recentemente começou a discutir um código de conduta voltado a negócios que desenvolvem sistemas avançados de IA. No Brasil, uma comissão temporária interna do Senado Federal foi criada com o objetivo de examinar projetos sobre o tema.

Nesse contexto, a governança em IA, se já não está, precisa ser inserida com urgência na pauta das lideranças empresariais e Governance Officers. É o que afirma André Bodowski, vice-presidente na América Latina da Diligent, líder global em soluções de governança, risco, compliance (GRC) e ESG (Environmental, Social, Governance).

“A adoção de ferramentas de IA traz inúmeros benefícios às organizações, como a automação de tarefas repetitivas, que leva ao aumento da eficiência e da produtividade. Algoritmos utilizados no processamento de dados também dão suporte às tomadas de decisão. Como toda novidade, contudo, a IA não está imune a controvérsias”, comenta.

Bodowski e os especialistas da Diligent destacam as pautas ligadas à IA que precisam estar no radar dos conselhos de administração:

1. As empresas devem explicar e justificar aos usuários as decisões que são tomadas com base em algoritmos de IA, com o objetivo de garantir a transparência e proteger os direitos dos consumidores e demais stakeholders.

2. Avaliar cuidadosamente os riscos éticos associados à IA, incluindo questões como viés algorítmico e discriminação. Assim, a integridade e a reputação da companhia são mantidas, bem como os interesses de todas as partes interessadas são respeitados.

3. A governança corporativa precisa promover o uso eficaz da IA ao automatizar a análise de riscos e identificar desvios de normas internas, o que reduz a possibilidade de erros humanos. Auditorias são necessárias, devendo ser realizadas de maneira precisa e completa.

4. Trabalhar para a garantia da transparência em todas as fases do processamento de dados, com eventual responsabilização para evitar cenários discriminatórios e decisões injustas. Definir políticas claras a respeito é mandatório.

5. Uma governança eficaz de IA demanda atualização constante de líderes sobre tendências, para que sejam capazes de alinhar a estratégia da organização à tecnologia, avaliando sempre os riscos e oportunidades associados.

6. A garantia de que a organização esteja em conformidade com as legislações relacionadas à proteção de dados, com a proteção das informações dos usuários.

7. Além das lideranças e conselheiros, é necessário que todos os colaboradores passem por capacitações e atualizações envolvendo IA e as questões éticas que cercam o tema.

“Sabemos que essas ações não serão implementadas ‘do dia pra noite’, mas quanto mais cedo as empresas começarem a se organizar, melhor. A adoção dessas medidas, afinal, além de ser o certo a se fazer, melhora a credibilidade junto a clientes, fornecedores e investidores”, acrescenta Bodowski.

 

  • Fonte: TIInside.com.br
  • Imagem: Freepik
  • 15 de novembro de 2023