Um estudo conduzido pelo estudante Colin Madland, por exemplo, constatou que um algoritmo usado pelo Twitter, baseado em IA, tinha tendência a destacar fotos de pessoas brancas e mulheres em imagens recortadas automaticamente dentro da rede social. Mas situações de preconceitos envolvendo a tecnologia não são exclusividade do Twitter. Diversos sites e outras plataformas como Instagram e Facebook também utilizam recortes automáticos de imagens baseados em IA. Além disso, outras situações de racismo e preconceitos são observadas no meio corporativo, como sistemas de reconhecimento facial incapazes de discernir os rosto de pessoas com a pele escura ou alguns aplicativos de saúde dos Estados Unidos que discriminam pacientes afro-americanos. Mas qual a explicação para isso? Bem, como os códigos de IA são programados por pessoas, elas acabam inserindo sua visão de mundo nos algoritmos e propagando seus preconceitos, tornando a tecnologia imparcial. Enquanto as empresas continuarem decidindo por conta própria o que é ou não é permitido, situações como essas continuarão a acontecer. Por isso, é preciso criar diretrizes e debater sobre o uso ético e responsável de Inteligência Artificial nos negócios.
Uso da Inteligência Artificial nos negócios
Mesmo diante desses exemplos de imparcialidade e problemas éticos graves, os líderes empresariais não se mostraram muito interessados em mudar. Ao menos, é o que revela o relatório State of Responsible AI, divulgado pela FICO. A pesquisa contou com a participação de 100 líderes de IA do setor financeiro e 20 executivos dos Estados Unidos, América Latina, Europa, Oriente Médio, África e Ásia-Pacífico. Os resultados apontam que 78% dos entrevistados encontram dificuldades em obter suporte dos executivos para priorizar o uso ético e responsável de Inteligência Artificial nas empresas. Além disso, 70% não soube informar “como as decisões e previsões de IA são feitas”. Outro dado preocupante é que as empresas estão pressionando os funcionários para adotar sistemas baseados em IA, mas não estão preocupados com questões éticas envolvendo a tecnologia. A maioria dos entrevistados afirmaram também que não se sentem responsáveis por garantir o uso ético da IA, para além da regulamentação básica. Também não houve consenso entre sobre a responsabilidade sobre as aplicações de IA nos negócios. De acordo com Ganna Pogrebna, chefe de ciência de dados comportamentais do The Alan Turing Institute, a falta de regras e regulamentação em torno da aplicação de Inteligência Artificial nos negócios é “extremamente perigosa”. Permitir que “as empresas decidam por si mesmas o que consideram ético e antiético”, acaba dando abertura para que situações de racismo, machismo, homofobia e tantos outros preconceitos sejam aceitos e reproduzidos no meio corporativo. Lembrando que a expansão do uso de IA no Brasil cresceu muito e a adoção de práticas mais éticas e responsáveis também precisam ser consideradas pelos empresários brasileiros. Fonte: FICO; Harvard; Wired; ZDNet