Loading color scheme

Reconhecimento facial e preconceito: a inteligência artificial sob suspeita

Festejada, quase sempre, com grande alarde, a inteligência artificial tem sido utilizada largamente em todo o mundo e se mostrado competente para um número significativo de aplicações. Mas, e sempre há um “mas”, temos também tomado contato, muitas vezes diretamente, com os inconvenientes desta tecnologia de caráter futurista e há situações em que ela precisa ser apropriada com muito cuidado.

Incomoda-nos bastante o fato de estarmos sendo vigiados o tempo todo quando circulamos pela web ou utilizamos os nossos celulares para buscar informações ou interagir com outras pessoas (familiares, clientes, amigos do trabalho ou da faculdade). Ou você não chega a ficar chateado quando vê o seu perfil no Facebook ocupado por anúncios irrelevantes ou, o que é pior, mentirosos porque prometem o que não podem cumprir, gerados pelo rastro que suas buscas deixaram na web? Pois é, esta situação, que se repete recorrentemente, é desagradável, toma o nosso precioso tempo e nos obriga a denunciar, com frequência, invasões de privacidade ou bloquear fontes indesejáveis de informações.

Há, além disso, uma aplicação bastante comum dos sistemas de inteligência artificial que tem merecido críticas severas de pessoas, organizações da sociedade civil e especialistas em geral: o reconhecimento facial, quase sempre utilizado por questões de segurança pública.

O problema está no fato de que os algoritmos usados para identificar uma pessoa a partir de seus traços faciais estão longe de serem precisos e (e aí está o grande problema!) acabam reforçando preconceitos.

Isso significa que, na prática, o reconhecimento facial pode falhar, induzir a erros graves e prejudicar os cidadãos, na medida em que os expõem a situações que podem ser dramáticas (prisões, por exemplo).

Os estudiosos desta tecnologia têm comprovado que ela contribui para legitimar preconceitos, por exemplo, em relação aos negros, exatamente porque tem sido testada prioritariamente com pessoas brancas.

Em reportagem publicada pelo jornal Folha de S. Paulo, no último dia 10 de julho, no caderno Cotidiano, página B3, com o título “Sob críticas, reconhecimento fácil chega a 20 estados do país”, os jornalistas Victoria Damasceno e Samuel Fernandes evidenciam casos nos quais essa imprecisão acaba contribuindo para prisões injustas, em função dos muitos “falsos positivos” que o sistema de reconhecimento fácil acaba gerando.

Especialistas, como Pablo Nunes, coordenador do Cesc (Centro de Estudos de Segurança e Cidadania), que responde por um projeto de reconhecimento facial no Brasil, garante que os algoritmos estão invariavelmente associados ao seu processo de confecção e que, portanto, os equívocos acontecem. Segundo ele, “algoritmos de reconhecimento facial confeccionados nos Estados Unidos e Europa, por exemplo, têm muita dificuldade não só com pessoas negras, mas principalmente com mulheres negras e pessoas asiáticas”.

Se os órgãos responsáveis pela segurança pública não estiverem atentos a esta questão, um número expressivo de erros pode ser cometido a partir da imprecisão manifesta desta tecnologia.

A reação a estes equívocos frequentes tem sido tão grande nos Estados Unidos que, recentemente, foi proposta no Congresso americano a proibição para a utilização do reconhecimento facial na segurança pública, até que sejam contornados os problemas que usualmente expõem a riscos determinados segmentos da população. É lógico que esta posição, nos EUA, tem a ver com a truculência dos sistemas policiais e episódios condenáveis de violência contra a população negra.

O debate por aqui tende a se acirrar porque a utilização do reconhecimento facial pelos sistemas de segurança pública tem se expandido para quase todos os Estados brasileiros. Os especialistas defendem a tese de que o reconhecimento facial não pode ser usado como método exclusivo para a ação policial, e que deve constituir-se apenas em uma função complementar e não decisiva para a identificação de pessoas.

As tecnologias não são, como todos sabemos, neutras e reproduzem erros e desvios que se localizam fora dela, como os preconceitos que estão estruturalmente enraizados na sociedade.

É preciso cautela e responsabilidade e não relegar a tecnologias, muitas vezes potentes, mas também imprecisas, o poder de decidir sobre questões complexas para as quais converge uma série de fatores sociais, políticos ou ideológicos.

Como diz o ditado, cuidado com o andor que o santo é de barro. A democracia não pode ficar refém de algoritmos que incorporam os problemas inerentes à interpretação humana. Que caminhemos devagar com a inteligência artificial.

Wilson da Costa Bueno, Diretor da Comtexto Comunicação e Pesquisa, consultoria na área de Comunicação Corporativa/ Jornalismo Especializado.