A relatora especial da ONU sobre formas contemporâneas de racismo, discriminação racial, xenofobia e intolerância correlata, Ashwini K.P., fez um alerta significativo sobre a influência de preconceitos raciais na inteligência artificial (IA). Durante o lançamento de seu relatório no Conselho de Direitos Humanos em Genebra, na Suíça, Ashwini destacou que a noção de que a tecnologia é neutra e objetiva está permitindo que a IA perpetue a discriminação racial.
No relatório, Ashwini K.P. explora como os preconceitos raciais são replicados por meio de tecnologias como o policiamento preditivo. Este tipo de ferramenta utiliza dados pessoais e de localização para prever onde e quando futuros crimes poderão ocorrer. Segundo a relatora, tais algoritmos podem exacerbar o excesso de policiamento em comunidades racial e etnicamente concentradas, uma prática histórica que resulta na super-representação dessas comunidades nos registros policiais.
Ashwini K.P. detalha que os algoritmos de policiamento preditivo se baseiam em dados históricos de crimes e nas características de localizações específicas para prever futuros eventos criminosos. Esses algoritmos podem distorcer as previsões devido ao racismo sistêmico presente nos dados de prisões anteriores, além de perpetuar preconceitos por meio do uso de variáveis como histórico socioeconômico e nível de escolaridade.
O relatório também aborda os esforços para regulamentar a IA em diferentes níveis – nacional, regional e internacional. A relatora enfatiza a necessidade de fundamentar a IA nas normas internacionais de direitos humanos. Ela destaca que a IA pode representar riscos significativos em setores como saúde e educação, onde ferramentas podem exibir preconceitos raciais. Ashwini K.P. recomenda uma regulamentação mais urgente e eficaz da IA para garantir que seus benefícios sejam equilibrados com os riscos de perpetuação da discriminação racial.
*Com informações da ONU News.