INTERNACIONAL

Europa

União Europeia lança diretrizes éticas para o uso de inteligência artificial

Por José Ferreira Filho
24 de abril de 2019

O documento faz parte de um processo da União Europeia para estabelecer uma visão “centrada em humanos” para a construção de soluções “confiáveis” desse tipo de sistemas

Pixabay

Um grupo de especialistas da União Europeia divulgou um documento com diretrizes éticas para nortear o desenvolvimento de tecnologias de inteligência artificial (IA). Estas são utilizadas em diversas atividades: da seleção às publicações mostradas nas redes sociais a sistemas de avaliação de crédito; de aplicativos que determinam qual a melhor rota a ser seguida no trânsito a carros autônomos que não necessitam de um motorista para conduzi-los, entre tantas outras.

 

O QUE É?

O termo inteligência artificial é empregado para caracterizar sistemas ou dispositivos eletrônicos que ofertam serviços e facilidades a partir de uma sofisticada capacidade de processamento de informação, de maneira análoga ao pensamento humano. Isso implica perceber variáveis, tomar decisões e resolver problemas, operando em uma lógica que remete ao raciocínio. Determinadas tecnologias já tiveram desempenho superior ao de pessoas, seja em um jogo, seja em um diagnóstico, seja no reconhecimento de imagens ou textos.

 

TEOR DO DOCUMENTO

O documento faz parte de um processo da União Europeia para estabelecer uma visão “centrada em humanos” para a construção de soluções “confiáveis” desse tipo de sistemas. Esta pode se materializar tanto em legislações e normas administrativas quanto em orientações gerais para os fabricantes e projetos de pesquisa.

Uma diretriz é a relevância da participação e do controle dos seres humanos, com objetos técnicos que promovam o papel e os direitos das pessoas e não as prejudique. Uma orientação complementar é a garantia de que os sistemas considerem a diversidade de segmentos e representações humanas (incluindo gênero, raça e etnia, orientação sexual e classe, entre outros), evitando atuações que gerem discriminação.

 

SISTEMAS TRANSPARENTES, ROBUSTOS E SEGUROS

Segundo o documento, os sistemas de IA devem ser “robustos” e “seguros”, de modo a evitar erros ou terem condição de lidar com eles, corrigindo eventuais inconsistências. Esses problemas podem ter sérios impactos na sociedade, como a discriminação de pessoas no acesso a um serviço ou até mesmo ocasionar a queda de bolsas de valores cujas compra e venda de ações utilizam tais tecnologias.

Ao mesmo tempo, o texto destaca a necessidade de assegurar a transparência dos sistemas. Isso porque a opacidade dessas tecnologias pode trazer riscos, uma vez que seu caráter inteligente torna mais difícil entender porque determinada operação ou decisão foi tomada de uma determinada maneira e não de outra. Assim, os autores defendem que um sistema de IA deva ser “rastreável” e “explicável”, para que não haja dificuldades na compreensão de sua atuação.

Pelo documento, essas soluções técnicas devem assegurar a privacidade e o controle dos cidadãos sobre seus dados. As informações coletadas sobre um indivíduo não podem ser utilizadas para prejudicá-lo, como em decisões automatizadas que o discriminem em relação a alguém. Estudos já mostraram como essas tecnologias podem incorporar vieses, privilegiando, por exemplo, pessoas brancas em detrimento de negros na caracterização ou na oferta de um serviço.

Fontes: Agência Brasil e Fundação Instituto de Administração (FIA/USP)

 

LEIA TAMBÉM: Atentados a igrejas e hotéis deixam rastro de destruição e morte

Para pesquisar, digite abaixo e tecle enter.