KPMG aponta 4 pilares para a governança com inteligência artificial sejam confiáveis

Integridade, explicabilidade, equidade e resiliência. Esses são os quatros pilares que o relatório “Um modelo de governança em inteligência artificial está surgindo” (do original em inglês, The Shape of AI governance to come), produzido pela KPMG, indica para que as empresas possam garantir uma governança adequada dos algoritmos no uso da ferramenta de inteligência artificial.

Conforme aponta o estudo, para que as soluções de inteligência artificial sejam transformadoras, é necessário que exista a integridade do algoritmo e validade dos dados, incluído linhagem e adequação de como as informações são usadas. O segundo fator importante do estudo, é a explicabilidade que é a inteligência artificial explicável, que passa pela transparência na utilização da tecnologia e pelo entendimento do processo de tomada de decisão do algoritmo.

O estudo reporta também que outra diretriz importante para garantir a governança apropriada para inteligência artificial passa por uma equidade que assegure que os sistemas utilizados sejam éticos, isentos de preconceitos e que os atributos protegidos sejam usados. Por fim o quarto pilar sinalizado no relatório é a resiliência dos algoritmos que desrespeito à robustez técnica e que cumpra com agilidade do processo utilizado da inteligência artificial.

“Precisa-se ressaltar que uma estrutura de inteligência artificial abrangente para permitir e operacionalizar a confiança, responsabilidade e transparência é muitas vezes insuficiente ou inexistente atualmente nas empresas. Por isso, a implementação de infraestrutura de governança para esse sistema que abrange métodos habilitados para explica o sócio-líder de Data & Analytics, Automação e Inteligência Artificial da KPMG, Ricardo Santana.

Desafios para regulamentação bem-sucedida em IA

O estudo também relata que há desafios para que seja bem-sucedida a regulamentação das ações de governança de inteligência artificial. De acordo com o relatório, vários temas de riscos acompanham a inovação em IA, e que se tornaram mais permanentes desde o ano passado, os seguintes: a precisão e exatidão da tecnologia; o uso adequado de informações do consumidor e privacidade de dados; e discriminação e preconceito nas decisões.

“Muitos executivos estão começando a considerar como é importante a eficácia na proteção e obtenção de vantagens competitiva entre os principais interesses da companhia. Embora estruturas regulatórias tenham sido desenvolvidas nos últimos anos para lidar com questões relacionadas à privacidade, falta ainda um progresso em direção a uma estrutura mais holística que incorpore a inteligência artificial”, finaliza.

Compartilhar