INFORMAR - FIQUE POR DENTRO​

DETALHES DA NOTÍCIA

Bem-vindo à nossa Intranet da Previdência Usiminas! Aqui você encontra tudo o que precisa para estar por dentro dos eventos, enquetes, notícias e muito mais.

Inteligência artificial, diversidade e inclusão: entenda a relação

Artigo Laís Guerra, advogada na Previdência Usiminas*

A inteligência artificial (IA) está transformando as relações pessoais e potencializando as conexões entre as pessoas. Ela pode automatizar tarefas, auxiliar na tomada de decisões e até prever comportamentos. No entanto, como qualquer tecnologia, a IA não é neutra. Quando não usada de forma prudente, ela pode perpetuar ou até intensificar discriminações. A seguir, exploramos como isso pode ocorrer e o que pode ser feito para garantir que a IA seja uma aliada na promoção da diversidade e inclusão.

Bases de dados com preconceitos

A IA aprende a partir dos dados que recebe. Se os dados usados para treinar uma IA contêm preconceitos como racismo, sexismo ou discriminação por idade, a IA pode reproduzir esses mesmos preconceitos.

Confira alguns exemplos de discriminação que podem ocorrer com o uso dessa ferramenta:

Decisões judiciais

Os impactos da utilização negligente da IA também podem ser observados em decisões judiciais. De acordo com a ISO/IEC TR 24368:2022, os vieses consistem nas diferenças sistemáticas no tratamento de certos objetos, pessoas ou grupos em comparação com outros. Quando a base de dados possui vieses inconscientes daqueles que a alimentaram, esses mesmos vieses podem refletir nas decisões judiciais.

No judiciário, os algoritmos podem ser usados para prever a probabilidade de reincidência criminal e ajudar na decisão de sentenças. Ocorre que um sistema de IA pode prever erroneamente que réus negros têm maior probabilidade de reincidência, enquanto subestima esse risco para réus brancos, se for alimentado com estas premissas. Isso pode resultar em sentenças mais severas para negros, perpetuando a desigualdade racial no judiciário.

No Brasil, a Resolução 332/2020 do Conselho Nacional de Justiça – CNJ, que trata do uso da IA no judiciário, foi objeto de audiência pública e teve o segundo maior número de acessos da história do CNJ. Este fato retrata a importância que a sociedade atribui à necessidade de adaptação a esta nova tecnologia no âmbito do judiciário.

Reconhecimento facial e atuação policial

O uso de reconhecimento facial por forças policiais em áreas públicas também tem gerado controvérsias. Já houve casos em que pessoas de minorias étnicas foram identificadas erroneamente como suspeitas em uma taxa muito maior do que pessoas brancas. Esses erros podem levar a abordagens policiais injustas e aumentar a vigilância sobre grupos marginalizados, perpetuando discriminações em vez de promover a justiça.

Processos de recrutamento

Se uma IA for treinada com currículos históricos que refletem uma tendência de contratação maior para homens do que para mulheres, ela pode continuar a recomendar homens para cargos, perpetuando a desigualdade de gênero.

Além disso, em processos de recrutamento que utilizam IA, algoritmos podem excluir automaticamente candidatos com base em lacunas no histórico de trabalho ou em padrões de fala incomuns. Esses sinais podem ser erroneamente interpretados como falta de competência ou inconsistência, quando, na verdade, podem ser resultados de condições como afastamento por acidente, doença familiar, maternidade, deficiência física temporária, entre outros.

Isso significa que candidatos aptos aquele trabalho podem ser rejeitados simplesmente por não se encaixarem em um padrão considerado “normal” pela IA, perpetuando a exclusão de pessoas no mercado de trabalho.

Como evitar que a IA seja discriminatória? 

  • Treinar a IA com dados diversos

É crucial garantir que a IA seja treinada com um conjunto de dados que represente todas as pessoas, independentemente de raça, gênero, idade, orientação sexual ou qualquer outra característica. Isso ajuda a IA a tomar decisões mais justas e inclusivas.

  • Revisar e auditar a IA regularmente

Os sistemas de IA devem ser auditados regularmente por humanos para garantir que não estejam reproduzindo vieses.

  • Envolver uma equipe diversa

Ter uma equipe diversa desenvolvendo e supervisionando sistemas de IA é fundamental. Diferentes perspectivas ajudam a identificar preconceitos que poderiam passar despercebidos por uma equipe homogênea.

  • Transparência e explicabilidade

As decisões da IA devem ser transparentes. Isso significa que deve ser possível entender como a IA chegou a uma determinada decisão. Se a IA tomar uma decisão injusta, essa transparência permite que a decisão seja contestada e revisada.

Laís Guerra, advogada sênior da PU

A inteligência artificial tem um potencial transformador no que diz respeito à produtividade no ambiente de trabalho. Ao contrário do que alguns pensam, que a IA representa uma ameaça aos postos de trabalho, ela pode ser utilizada como uma ferramenta que, agregada ao repertório individual, pode criar um ambiente de crescimento exponencial.

 

Contudo, ela deve ser utilizada com atenção, observando as diretrizes legais no que tange a salvaguardas, requisitos de parametrização menções quanto à autoria dos trabalhos. Também é importante ter o máximo de cuidado quanto a confidencialidade, para não alimentar a ferramenta com informações desta natureza. Especialmente no que diz respeito aos aspectos de diversidade e inclusão, a necessidade de auditar as bases de dados e decisões que utilizam IA é essencial para garantir a equidade.

*Este artigo foi parcialmente escrito com o auxílio de uma inteligência artificial. As informações e opiniões foram revisadas e validadas pela autora, Laís Guerra.

0
22
Tags:

Deixe seu comentário!


0 comentário(s)

Últimos posts

Tags