fbpx

Como líderes devem agir sobre questões éticas de inteligência artificial

Redação DuMoney 17 de janeiro de 2019 atualizado às 17:52

Questões éticas sobre inteligência artificial estão sendo cada vez mais discutidas. Veja preocupações de líderes de empresas que usam esses sistemas devem ter

aperto de mão entre homem e robô

Líderes têm que lidar com questões éticas sobre o uso de inteligência artificial / Shuteerstock

 

Cada vez mais produtos e soluções de inteligência artificial (IA) estão entrando em nossas vidas: do assistente virtual do smartphone até robôs de investimentos. Paralelamente à evolução da tecnologia, surgem também questionamentos éticos sobre qual o limite da IA. A questão não é mais quando os algoritmos podem ser usados e sim como devem ser usados.

Uma pesquisa feita pela consultoria Deloitte, em 2018, ouviu 1.400 executivos norte-americanos. Dos entrevistados, 32% classificaram as questões éticas como um dos três principais riscos em IA. No entanto, a maioria das organizações ainda não possui protocolos específicos para lidar com problemas éticos. E até que exista uma regulação sobre essa tecnologia, as decisões éticas a respeito serão tomadas pelos líderes das empresas que usam IA em seus produtos.

Ao levar isso em consideração, o periódico acadêmico MIT Sloan Managment Review elaborou uma lista de ações que CEOs de empresas que usam IA deveriam considerar.

 

Evitar a reprodução de preconceitos em algoritmos

Alguns aplicativos de IA, incluindo algoritmos de machine learning, podem apresentar vieses preconceituosas contra, por exemplo, indivíduos com passagem pela cadeia ou até pessoas que já contraíram dívidas. Esse problema, chamado de viés algorítmico, foi identificado em diversos contextos, incluindo sistemas de análise de sentenças judiciais, pontuação de crédito, projeto de currículo educacional e decisões de contratação. Mesmo que os programadores não tenham a intenção de introduzir qualquer preconceito ou discriminação, eles e suas empresas têm a obrigação de testar constantemente o funcionamento do sistema para identificar e prevenir tais problemas e corrigi-los imediatamente.

Um exemplo disso foi a reação gerada pelos equívocos do algoritmo de reconhecimento facial da Amazonque deveria identificar o rosto de uma pessoa e dizer se era um criminoso procurado ou não. Mas ao ser testado em parlamentares norte-americanos classificou erroneamente a maioria dos parlamentares negros e hispânicos como criminosos. O mesmo erro ocorreu em menor numero com pessoas de pele clara.

 

Tornar ética da AI uma questão a nível de diretoria

Questões éticas a respeito de AI – como essa da Amazon – podem ter impacto significativo na reputação de uma empresa. Por isso, é importante considerar a ética da IA uma questão de nível de diretoria.

Esse tipo de problema, na maioria das empresas, costuma ser responsabilidade de um comitê com foco em tecnologia ou dados, mas tendo em vista os possíveis desdobramentos para a marca e a empresa, é importante reestruturar as tarefas de cada um.

Companhias que usam ferramentas de inteligência artificial devem ter uma estrutura ética para lidar com a tecnologia. Algumas empresas que estão implementando a IA, como o Google, desenvolveram e publicaram regras que permeia as intenções da empresa.

 

Privacidade

Algumas empresas de tecnologia foram criticadas por não revelarem o uso da inteligência artificial aos clientes – mesmo em demonstrações de produtos de pré-lançamento, como acontece com a ferramenta de conversação da AI do Google, que agora revela que é um serviço automatizado).

Uma abordagem ética possível é divulgar aos clientes ou partes afetadas que uma ferramenta de IA está sendo usada e oferecer algumas informações sobre como o sistema funciona. Agentes inteligentes ou chatbots devem ser identificados como máquinas, e o mesmo deve acontecer com robôs de investimentos ou sistemas automatizados de pontuação de crédito, por exemplo.

Também é interessante divulgar as fontes e os tipos de dados usados ​​pelo software. Depois do escândalo de vazamento de dados de usuários do Facebook, consumidores estão mais preocupados com o uso indevido de seus dados e, segundo o MIT Sloan, é ético e inteligente que parte da empresa informe seus clientes sobre as condições de privacidade.

Além de informar sobre como os dados dos internautas estão sendo obtidos ou para que serão utilizados, mensagem pop-up “nosso site usa cookies”, ao entrar em um portal, é um modelo que poderia ser usado para outras divulgações do tipo.

 

Aliviar as preocupações dos funcionários

Desde a Revolução Industrial, existe a preocupação do desaparecimento de empregos e profissões por causa das máquinas. Hoje em dia, o receio aumenta justamente pela evolução da tecnologia. No entanto, estudiosos do assunto acreditam que o desemprego causado pela IA será marginal nas próximas duas décadas.

Isso ocorre pelo fato de que máquinas trabalhando ao lado de humanos parecem mais prováveis ​​do que máquinas substituindo humanos. Mas muitos funcionários que temem a perda do emprego podem relutar em abraçar ou explorar a IA.

Tendo isso em vista, é interessante aconselhar e educar os funcionários sobre como a IA pode afetar seus empregos no futuro, dando-lhes tempo para adquirir novas habilidades ou buscar outro emprego se desejarem. O Bank of America, por exemplo, desenvolveu um treinamento para funcionários em empregos ameaçados pela IA com a intenção de capacitá-los para cargos que serão necessários no futuro como, ajudar os clientes com serviços bancários digitais.

 

Reconhecer que IA funciona melhor com humanos do que sem 

Humanos que trabalham com máquinas costumam ser mais poderosos e eficientes do que humanos ou máquinas trabalhando sozinhos. Muitos problemas de mau funcionamento ou equívocos dos algoritmos são resultado de máquinas trabalhando sem supervisão humana ou com uma vigilância inadequada.

Um exemplo disso é o anúncio do Facebook de que adicionará mais 10.000 pessoas a suas equipes de análise de conteúdo, privacidade e segurança para complementar e potencializar os recursos de IA ao lidar com “notícias falsas”, privacidade de dados, anúncios tendenciosos e reconhecimento de imagens impróprias.

 

Em Inovação

Recomendadas para você