A gestão dos riscos dos sistemas de inteligência artificial (IA) deve fazer parte de uma estrutura de conformidade das empresas com as melhores práticas de IA.
Embora ainda não exista regulação sobre IA, as organizações precisam estar atentas aos desafios trazidos pelo uso dessa tecnologia que já estão exigindo respostas rápidas ligadas, por exemplo, à privacidade ou proteção de dados, não discriminação, por meio do combate aos vieses inconscientes, e cibersegurança.
Para identificar, gerir e reduzir os riscos de IA, elevando a confiabilidade dos seus sistemas, as organizações, de acordo com o estudo “The Artificial Intelligence global regulatory landscape”, elaborado pela EY, precisam contar com mecanismos de prestação de contas – do inglês accountability – que definam as responsabilidades dos colaboradores dedicados à gestão dessas ameaças. Além disso, os operadores de IA devem saber explicar as decisões tomadas pelos sistemas.
Por fim, é indispensável que seja formado um conselho consultivo de IA para fornecer orientação ética para desenvolvimento e implantação dos sistemas. Confira as principais características da estrutura ou framework de conformidade baseada nas melhores práticas de IA, ainda segundo levantamento da EY.
1) Conselho consultivo de IA – Esse grupo, que se reporta ao Conselho de Administração, é formado por profissionais multidisciplinares para fornecer orientação ética para desenvolvimento e implantação de IA. A recomendação é que os consultores sejam provenientes de campos como ética, direito, filosofia, tecnologia, privacidade e ciência.
2) Design ético de IA desde sua concepção – As políticas e os padrões voltados para o design ético de sistemas de IA devem seguir um código de conduta – em consonância com os princípios da OCDE. O objetivo deve ser definir e prezar por uma governança de IA e mecanismos de prestação de contas para proteger os usuários, seguir as normas sociais e cumprir leis e regulamentos.
3) Inventário dos algoritmos de IA e relatório de impacto – A recomendação é fazer um inventário dos algoritmos de inteligência artificial usados pela organização por meio de ferramentas de análise de software, entre outros recursos. Cada algoritmo deve ser analisado por meio de uma avaliação de impacto para verificar os riscos no seu desenvolvimento e na sua utilização.
4) Ferramentas de validação – O objetivo aqui é confirmar se os algoritmos estão funcionando conforme o esperado e produzindo resultados precisos, justos e livres de vieses inconscientes. Essas ferramentas também devem ser usadas para monitorar eventuais alterações na estrutura de decisão dos algoritmos.
5) Treinamento – É imprescindível que haja educação ou treinamento constante dos executivos e desenvolvedores de IA sobre previsões legais e éticas para o desenvolvimento de IA, bem como suas responsabilidades para proteger direitos, liberdades e interesses dos usuários envolvidos de alguma forma com esses sistemas.
6) Auditorias independentes – Submeter os sistemas de IA utilizados pela organização ao trabalho de auditorias independentes para verificar políticas e padrões dessa tecnologia, incluindo sua adequação à ética e às melhores práticas, aumenta a confiança por parte dos usuários.
Esse trabalho vai analisar a efetividade do modelo de governança, incluindo os controles adotados, ao longo de todo ciclo de vida da IA – desde sua concepção até sua efetiva operação no dia a dia. – Fonte: Agência EY/e-mail ([email protected]).