Apesar do aumento da demanda e do uso de ferramentas de inteligência artificial (IA), quase dois terços (65%) das organizações não conseguem explicar como as decisões ou previsões dos seus modelos de IA são feitas, segundo revelou o estudo “O estado da IA responsável: 2021”, produzido pela FICO, líder mundial em software preditiva, em parceria com a empresa de inteligência de mercado Corinium.
Realizada com base em entrevistas com 100 líderes de grandes empresas globais, incluindo companhias brasileiras, a pesquisa indicou uma grande falta de conhecimento sobre como a IA está sendo usada e se está sendo utilizada de forma responsável, já que 39% dos membros de conselho e 33% das equipes executivas afirmam ter um entendimento incompleto sobre ética da IA.
Além disso, a maioria dos entrevistados (73%) afirmam que têm enfrentado dificuldades para obter suporte executivo para priorizar a ética e as práticas responsáveis de IA. “Nos últimos 15 meses, mais e mais empresas têm investido em ferramentas de IA, mas elas não elevaram a importância de sua governança e da IA responsável para o nível da diretoria”, afirma Scott Zoldi, Chief Analytics Officer da FICO.
“As organizações estão cada vez mais aproveitando essa tecnologia para automatizar processos-chave, que em alguns casos estão tomando decisões que mudam a vida de seus clientes. A liderança deve compreender essa questão e monitorar os modelos utilizados, de forma a garantir que as decisões sejam justas, transparentes e responsáveis”.
Cerca de metade (49%) dos executivos entrevistados relatou um aumento nos recursos alocados para projetos de IA nos últimos 12 meses. Por outro lado, apenas 39% afirmam que suas empresas estão investindo em governança de modelos durante o processo de desenvolvimento, enquanto 33% dizem que estão prestando pouca atenção ao monitoramento e manutenção dos modelos em produção.
Não há consenso entre os executivos sobre quais devem ser as responsabilidades de uma empresa quando se trata de IA, de acordo com o estudo. A maioria dos entrevistados (55%) concorda que os sistemas de IA para ingestão de dados devem atender aos padrões éticos básicos e que os sistemas usados para operações de backoffice também devem ser explicáveis.
Porém, quase metade dos entrevistados (43%) dizem que não têm responsabilidades além de cumprir a conformidade regulamentar para gerenciar eticamente os sistemas de IA, cujas decisões podem afetar indiretamente a vida das pessoas – como nos casos de modelos de segmentação de audiência, modelos de reconhecimento facial e sistemas de recomendação.
Apenas um quinto dos entrevistados (20%) monitora ativamente seus modelos de IA em termos de justiça e ética, enquanto somente 22% afirmam que sua organização tem um conselho para avaliar essas questões. Um em cada três (33%) tem uma equipe de validação para avaliar os modelos recém-desenvolvidos e apenas 38% dizem que têm etapas de mitigação de viés de dados incorporadas aos processos de desenvolvimento.
Em termos de visão de futuro, a grande maioria (90%) concorda que processos ineficientes para monitoramento de modelos representam uma barreira para a adoção de IA. E quase dois terços (63%) acreditam que a IA ética e a IA responsável se tornarão um elemento central da estratégia de sua organização dentro de dois anos.
O levantamento recomenda algumas práticas para ajudar as organizações a traçar um caminho para a IA responsável:
• Estabelecer práticas que protejam a empresa contra ameaças à reputação do uso irresponsável de IA;
• Equilibrar a necessidade de ser responsável com a necessidade de trazer novas inovações para o mercado rapidamente;
• Garantir suporte executivo para priorizar a ética da IA e práticas responsáveis;
• Elaborar políticas preparadas para o futuro em antecipação a regulamentações mais rígidas em torno da IA;
• Disponibilizar os recursos necessários para garantir que os sistemas de IA sejam desenvolvidos e gerenciados de forma responsável.
“A comunidade empresarial está comprometida em impulsionar a transformação por meio da automação alimentada por IA. No entanto, os líderes seniores e os conselhos precisam estar cientes dos riscos associados à tecnologia e das melhores práticas para mitigá-los de forma proativa. A IA tem o poder de transformar o mundo, mas como diz o ditado popular – quanto maior o poder, maior a responsabilidade”, acrescenta Zoldi.
O estudo “O estado da IA responsável: 2021” foi realizado entre fevereiro e março de 2021, com base em entrevistas com 100 líderes de empresas com receitas anuais acima de US? 100 milhões. Todos os entrevistados possuíam cargos C-Level, incluindo vice-presidente de dados, vice-presidente de analíticos, vice-presidente de dados e analíticos e vice-presidente de IA.
Foram selecionados executivos dos EUA, América Latina, Europa, Oriente Médio, África e Ásia, sendo que todas essas regiões foram igualmente representadas.
Clique aqui para acessar o estudo completo. – Fonte e outras informações: (www.fico.com).