A responsabilidade indispensável para usar AI na sua empresa

11 mins read

A Inteligência Artificial (IA) é capaz de fazer previsões e realizar tarefas em grande escala rapidamente. Além disso, oferece suporte para o atendimento ao cliente através dos chatbots. Recentemente, ela também vem sendo alvo de intensos debates. Você sabe se tem a responsabilidade necessária para usar IA na sua empresa?

O principal questionamento sobre o assunto é que não podemos deixar que decisões sejam tomadas exclusivamente por algoritmos. Ou seja, a intervenção humana deve ter peso decisório no funcionamento das ferramentas autônomas. A saída, então, é apostar em processos como a auditoria. Explicabilidade é outro meio que pode evitar problemas na utilização de inteligência artificial.

O que importa é aumentar a confiança na adoção da IA, permitindo que os bots possam atuar com segurança. Inclusive na área de gestão, tratando de atividades como triagem de candidatos e avaliação de desempenho. Veja a seguir quais as posturas efetivas que a sua empresa deve adotar para lidar com a Inteligência Artificial.

Robôs: auditados e aliados

Os processos executados por bots necessitam de auditoria para ganharem confiabilidade. Ao mesmo tempo vale notar que o trabalho das auditorias também se beneficia da tecnologia inteligente. Ferramentas de processamento de dados permitem avaliar riscos e seus métodos de controle. Até mesmo recursos de Big Data já são incorporados nesta atividade.

Como ocorre em outras áreas, a automação dá a possibilidade de aumentar o escopo da avaliação. Em outras palavras, tanto a abrangência da auditoria quanto a sua frequência, podem aumentar significativamente. É assim que a Inteligência Artificial vem mudando a abordagem das auditorias. Mas afinal, como isto se relaciona com a responsabilidade necessária para usar IA na sua empresa?

É importante entender, acima de tudo, que refinar os testes é tarefa humana. Em outras palavras, definir regras, e ajustá-las sempre é o papel do auditor. Este cuidado é necessário para que os testes não se tornem pouco efetivos em razão dos falsos positivos. É desta forma que temos uma grande transformação na atividade tradicionalmente desempenhada por estes profissionais.

A responsabilidade necessária para usar IA na sua empresa

Sabemos que as técnicas de inteligência artificial poderão trazer maior produtividade e automação para as auditorias. A questão da responsabilidade entra em pauta através de um processo chamado de “Aprendizado Supervisionado”. Na prática, significa que os auditores confirmam se os problemas analisados pela IA têm validade.

Com isto vão sendo adicionados novos filtros ao sistema, de modo que a ocorrência de falsos positivos seja minimizada. Graças à combinação de Machine Learning e intervenção manual diminuímos esta ocorrência sem necessidade de mudar as regras com frequência. Com o tempo o sistema vai se adaptando de forma cada vez mais autônoma e assertiva.

Um tipo de análise supervisionada que exemplifica isto são as redes neurais, recurso comum na detecção de fraudes. O fato é que nos processos descritos a responsabilidade do auditor vai se modificando junto com o projeto. No início sua intervenção é fundamental para direcionar o aprendizado da IA. Posteriormente esta atuação estará mais ligada à coleta e análise de dados.

Bots: automação e ética

Os métodos de intervenção no aprendizado de máquina para auditoria já dão ideia das posturas adequadas para lidar com IA. Cuidados que são necessários porque os mesmos algoritmos desenvolvidos para identificar a possibilidade de certos eventos, podem falhar. Os erros no seu desenho podem levar à situações que prejudicam desde a empresa, até os stakeholders.

É por esta razão que o Institute of Internal Auditors (IIA) publicou uma cartilha para alertar a este respeito. A “Tone at the top” aborda justamente os métodos para construção, aplicação, gestão e controle da inteligência artificial. Além de estar preparado para este desafio, a responsabilidade necessária para usar IA na sua empresa inclui a privacidade do cliente.

Para que a relação de bots com o seu público seja adequada é fundamental oferecer, em primeiro lugar, transparência. Não menos importante é a possibilidade de escolha para o cliente. Tudo isto deve ser ancorado em segurança racional e uma coleta seletiva e limitada de dados. Lembrando que estes devem ser guardados de forma segura. Quanto aos dados sensíveis, é indispensável que ocorra o seu tratamento. Afinal, sob-hipótese alguma os bots podem chocar-se com o direito de privacidade dos clientes.

O que um auditor de inteligência artificial pode fazer?

O Aprendizado Supervisionado que mencionamos anteriormente é uma das principais formas de lidar com o dilema da Inteligência Artificial. É interessante, antes de prosseguir, lembrar do caso de um bot que a Microsoft deixou no Twitter sem supervisão. Bastou menos de um dia de interações para que ele aprendesse a reproduzir mensagens racistas.

A grande lição que isto nos dá sobre a responsabilidade necessária para usar IA na sua empresa é que este recurso precisa de supervisão. Os filtros impostos pelo auditor impedem que situações como a descrita ocorram. Um bom guia para quem exerce esta função é o “Auditing Artificial Intelligence” (Inteligência Artificial em Auditoria).

O documento divulgado pela Associação de Controle e Auditoria de Sistemas de Informação (ISACA) destaca a importância da governança. Significa dizer que o processo do qual falamos não deve ser meramente técnico. O que interessa é determinar se a organização possui uma estrutura responsável para o uso de dados e IA.

Aumentando a confiança na inteligência artificial

Para aumentarmos a confiança na inteligência artificial, o board administrativo das empresas deve apoiar as medidas descritas acima. O que implica em conceder autonomia para que os auditores possam agir. A partir disto podem planejar e implantar os procedimentos que conferem a responsabilidade necessária para usar IA na sua empresa.

Para que os vieses sejam evitados e aumente a confiança, é importante que a análise de dados se torne não discriminatória. Ao mesmo tempo o direito do consumidor quanto ao uso destas informações deve ser garantido. Não menos importante é a preocupação de fazer com que estes sistemas ofereçam justiça para grupos historicamente marginalizados.

Também é necessário que se indiquem os fatores que constituem a base de decisão algorítmica. Nas avaliações internas, por sua vez, padrões de justiça precisam ser colocados em prática. No fim os processos de auditoria são o melhor caminho para garantir que a IA não será usada de modo discriminatório ou enviesada.

Auditorias e confiabilidade

Em resumo, as empresas devem preocupar-se com auditoria, explicabilidade, transparência e reprodutibilidade. Todo o processo que vimos ao longo deste artigo visa desenvolver as melhores práticas, e de forma a respeitar os controles exigidos por lei.

Para além dos elementos de auditoria, temos na explicabilidade esforços para descrever os algoritmos de forma clara. A transparência é fundamental no respeito aos dados do cliente. A reprodutibilidade trata da possibilidade de reproduzirmos o processo decisório de uma IA obtendo os mesmos resultados.

Todos estes processos incluem, naturalmente, uma série de desafios. A expectativa e que os próximos anos sejam de aprimoramento de ferramentas para explicação e auditoria. Tratar destas questões desde já, no entanto, é fundamental se você quer alcançar a responsabilidade necessária para usar IA na sua empresa.

Deixe um comentário

Your email address will not be published.