Esta semana, a Meta anunciou seu Sistema de Redução de Variância (SRV), que diz que distribuirá equitativamente anúncios por meio de dados de censo e aprendizado de máquina.
A nova tecnologia foi criada em parceria com o Departamento de Justiça dos EUA (DOJ), representando a primeira instância de supervisão judicial direta para a segmentação e entrega de anúncios da Meta, de acordo com uma declaração do DOJ.
O Sistema de Redução de Variância em ação
De início, os anúncios de habitação e, eventualmente, os de crédito e emprego usarão um sistema chamado Bayesian Improved Surname Geocoding (BISG), que usa dados de censo e CEP para assumir raça e etnia.
O SRV combina informações do BISG com aprendizado de máquina para distribuir uniformemente anúncios com base na demografia estimada do público.
O SRV garante que o público real de um anúncio corresponda mais de perto ao público-alvo elegível — ou seja, não deve se inclinar injustamente em relação a certos grupos culturais.
Uma vez que pessoas suficientes tenham visto um anúncio, um sistema de aprendizado de máquina compara a demografia agregada dos espectadores com aquelas que os profissionais de marketing pretendiam alcançar. Em seguida, ele ajusta o valor do leilão do anúncio (ou seja, a probabilidade de você ver o anúncio) para exibi-lo com mais ou menos frequência para determinados grupos.
O SRV continua funcionando ao longo de uma execução de anúncios. E sim, a Meta está ciente dos possíveis problemas de privacidade. Ela enfatiza que o sistema não pode ver a idade, o sexo ou a etnia estimada de um indivíduo.
A tecnologia de privacidade diferencial também introduz “ruído” que impede que a IA aprenda informações demográficas individuais ao longo do tempo.
Qual a história por trás do sistema?
O SRV nasceu de um acordo com o Departamento de Habitação e Desenvolvimento Urbano dos EUA após alegações de vieses publicitários.
Uma investigação da ProPublica de 2016 descobriu que os anunciantes do Facebook poderiam excluir usuários por raça e “afinidades étnicas”. Isso significava que os anúncios de habitação poderiam essencialmente atrair potenciais compradores e locatários por meio de práticas de anúncios discriminatórias.
O campo de “afinidade étnica” foi realmente adicionado em um esforço de “publicidade multicultural”, de acordo com a ProPublica, mas também tinha claramente o potencial de ser usado de forma prejudicial.
Em 2019, três anos depois, o Facebook removeu o campo de afinidade por anúncios relacionados a moradia, emprego e crédito.
A COO Sheryl Sandberg escreveu em um post:
Essas mudanças são o resultado de acordos históricos com as principais organizações de direitos civis e da contribuição contínua de especialistas em direitos civis.
Além do acordo que requer colaboração com o DOJ, é do melhor interesse da Meta jogar bem com os tribunais dos EUA agora, já que, recentemente recebeu uma multa de US$ 414 milhões dos reguladores da União Europeia.
Então o que vem a seguir?
A Meta afirmou que:
incorpora direitos civis e princípios de IA responsável em [seu] processo de desenvolvimento de produtos para ajudar a avançar [seus] esforços de justiça algorítmica enquanto protege a privacidade.
No entanto, levou uma investigação, um acordo e vários anos para a Meta introduzir o VRS.
À medida que os algoritmos continuam a governar como todos consomem conteúdo, as instituições procurarão governar potenciais vieses algorítmicos, o que pode alterar bastante a forma de fazer anúncios.
A supervisão do DOJ tem implicações além da Meta
De acordo com Kristen Clarke, da divisão de direitos civis do DOJ:
O monitoramento federal da Meta deve enviar um forte sinal para outras empresas de tecnologia de que elas também serão responsabilizadas por não abordar a discriminação algorítmica que viola nossas leis de direitos civis.
Não será surpreendente se outros serviços de internet implementarem sistemas próprios semelhantes ao SRV, desde que a IA da Meta se provar eficaz.
Para saber mais sobre o sistema de equidade de anúncios, clique aqui.
Fonte: Insider Intelligence