Cai a confiança de clientes sobre o uso ético de dados pessoais, diz estudo

 Cai a confiança de clientes sobre o uso ético de dados pessoais, diz estudo

Estudo da Capgemini mostra que confiança caiu de 76%, em 2019, para 62%, em 2020.

A Inteligência Artificial (IA) tem o poder de transformar positivamente a sociedade e o meio ambiente, e para aproveitar esse poder em todo o seu potencial, as organizações precisam se concentrar em enfrentar os desafios éticos. Um número crescente de empresas reconhece a necessidade de sistemas baseados em IA éticos e confiáveis, mas o progresso ainda é irregular. Novo relatório da Capgemini Research Institute descobriu que 70% dos clientes esperam que as organizações forneçam interações de IA que sejam transparentes e justas.

De acordo com o relatório “AI and the ethical conundrum: How organizations can build ethically robust AI systems and gain trust,” (em tradução livre, “IA e o enigma ético: como as organizações podem construir sistemas de IA eticamente robustos e ganhar confiança”), a parcela de clientes que acreditam que as organizações estão sendo totalmente transparentes sobre como é feito o uso de seus dados pessoais caiu de 76%, em 2019, para 62% hoje.

O relatório também descobriu que apenas 53% das organizações têm um líder responsável pela ética dos sistemas de IA, e que a governança e a responsabilidade pela IA e a implementação de ferramentas e estruturas pragmáticas para os sistemas de IA a serem desenvolvidos e usados ​​têm um alto custo para as organizações.

O relatório observa que, embora as organizações estejam mais conscientes do ponto de vista ético, o progresso na implementação da IA ética tem sido inconsistente. Por exemplo, quase a mesma proporção de executivos em 2019 disse que tomou medidas para construir “equidade” (65% em 2020 vs. 66% em 2019) e “auditabilidade” (45% em 2020 vs. 46% em 2019) dimensões de seus sistemas de IA; além disso, a transparência caiu de 73% para 59%, apesar do fato de 58% das empresas afirmarem que estão conscientizando os funcionários sobre os problemas que podem resultar do uso de IA.

Apoiador:

“Dado seu potencial, o uso ético da IA ​​deve, é claro, garantir aos humanos que eles não tenham danos e a total responsabilidade humana e responsabilidade quando as coisas derem errado. Mas, além disso, há uma oportunidade muito real para uma busca proativa pelo bem-estar ambiental e social”, comenta Anne-Laure Thieullent, Líder da Oferta do Grupo de Inteligência Artificial e Analytics da Capgemini.

Experiência do cliente e preconceito

Pesquisas mostram que os conjuntos de dados coletados para a saúde e o setor público estão sujeitos a preconceitos sociais e culturais. Isso não se limita apenas ao setor público. A pesquisa da Capgemini descobriu que 65% dos executivos disseram estar cientes da questão do viés discriminatório com os sistemas de IA. Além disso, cerca de 60% das organizações atraíram o escrutínio jurídico e 22% enfrentaram uma reação negativa do cliente nos últimos 2 a 3 anos devido a decisões tomadas por sistemas de IA.

Na verdade, 45% dos clientes notaram que compartilharão suas experiências negativas com a família e amigos e podem estimular que eles não se envolvam com uma organização, 39% exporão suas preocupações à organização e exigirão uma explicação e 39% deixarão a IA como canal para uma interação humana de custo mais alto. Mais de um quarto dos consumidores (27%) afirmam que deixariam de lidar com a organização por completo.

“AI é uma tecnologia transformacional com o poder de gerar desenvolvimentos de longo alcance em toda a empresa, bem como na sociedade e no meio ambiente. Em vez de temer os impactos da IA ​​nos humanos e na sociedade, é absolutamente possível direcionar a IA no sentido de lutar ativamente contra o preconceito contra as minorias, corrigindo até mesmo o preconceito humano existente em nossas sociedades hoje. Isso significa que as organizações governamentais e não governamentais que possuem os recursos de IA, riqueza de dados e um propósito de trabalhar para o bem-estar da sociedade e do meio ambiente devem assumir maior responsabilidade em lidar com essas questões para beneficiar as sociedades agora e no futuro, tudo ao mesmo tempo respeitando transparência e sua própria responsabilidade no processo”, adiciona Anne-Laure Thieullent.

Segundo o relatório, é crucial estabelecer a liderança no topo para garantir que essas questões recebam a devida prioridade da alta administração e para criar sistemas de IA eticamente robustos. No entanto, apenas 53% das organizações têm um líder que é responsável pela ética dos sistemas de IA em sua organização, como um Diretor de Ética.Além disso, os líderes nas funções de negócios e tecnologia devem ser totalmente responsáveis ​​pelos resultados éticos das aplicações de IA.

A pesquisa mostra que apenas metade disse ter uma linha direta confidencial ou ombudsman para permitir que clientes e funcionários levantassem questões éticas com sistemas de IA.

Regulamentação

A necessidade de as organizações implementarem uma carta ética também é impulsionada por estruturas regulatórias cada vez maiores. Por exemplo, a Comissão Europeia emitiu orientações sobre os princípios éticos fundamentais que devem ser usados ​​para conceber aplicações de IA. Enquanto isso, as diretrizes emitidas pela Comissão Federal de Comércio dos Estados Unidos (FTC) no início de 2020 exigem IA transparente, afirmando que quando um sistema habilitado para IA toma uma decisão adversa (como recusar crédito para um cliente), a organização deve mostrar ao consumidor afetado os principais pontos de dados usados ​​para chegar à decisão e dar-lhe o direito de alterar qualquer informação incorreta.

No entanto, embora 73% das organizações globalmente tenham informado os usuários sobre as maneiras pelas quais as decisões de IA podem afetá-los em 2019, hoje, esse número caiu para 59%. De acordo com o relatório, isso é um indicativo das circunstâncias atuais trazidas pela Covid-19, bem como das necessidades sociais e ambientais, da crescente complexidade dos modelos de IA e de uma mudança no comportamento do consumidor, que afetaram as funcionalidades dos modelos de IA existentes.

O relatório destaca sete ações-chave para as organizações construírem um sistema de IA eticamente robusto, com cada uma sendo sustentada por uma base sólida de liderança, governança e práticas internas:

  • Descreva claramente a finalidade pretendida dos sistemas de IA e avalie seu impacto potencial geral;
  • Implemente IA de maneira proativa para o benefício da sociedade e do meio ambiente;
  • Incorpore princípios de diversidade e inclusão de forma proativa ao longo do ciclo de vida dos sistemas de IA;
  • Aumente a transparência com a ajuda de ferramentas de tecnologia;
  • Humanize a experiência de IA e garanta a supervisão humana dos sistemas de IA;
  • Garanta a robustez tecnológica dos sistemas de IA;
  • Proteja a privacidade individual das pessoas, capacitando-as e colocando-as no comando das interações de IA.

Por Redação

Via CIO

Editor MDR

Você pode gostar também...

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *