O Google lançou um documento intitulado “Uma agenda política para o progresso responsável da IA”, que apresenta uma visão abrangente para a implantação responsável da inteligência artificial (IA) e oferece sugestões sobre como os governos devem regulamentar e incentivar o setor.
Essa iniciativa reflete a crescente importância de estabelecer diretrizes claras para o desenvolvimento e a utilização ética da IA — o que está sendo amplamente solicitado pelos próprios desenvolvedores desses sistemas.
O documento ressalta que as políticas de IA estão sendo elaboradas de forma independente em todo o mundo e defende a necessidade de uma agenda coesa que equilibre a proteção contra resultados prejudiciais com a promoção da inovação.
A agenda de políticas de IA do Google
De acordo com o Google:
Acertar na inovação de IA requer uma estrutura política que garanta a responsabilidade e permita a confiança. Precisamos de uma estratégia holística de IA focada em:
(1) liberar oportunidades por meio de inovação e crescimento econômico inclusivo;
(2) assegurar a responsabilidade e permitir a confiança; e
(3) proteger a segurança global. Uma agenda de IA coesa precisa avançar em todos os três objetivos – não um em detrimento dos outros.
Sendo assim, a agenda de políticas de IA do Google tem três objetivos principais:
- Oportunidade;
- Responsabilidade;
- Segurança.
Oportunidade
Essa seção da agenda destaca a necessidade de os governos incentivarem o desenvolvimento da inteligência artificial, por meio de medidas como:
- Investimento em pesquisa e desenvolvimento.
- Criação de um ambiente legal favorável que promova o desenvolvimento da IA, evitando obstáculos desnecessários.
- Planejamento do suporte educacional necessário para capacitar uma força de trabalho preparada para a IA.
Em resumo, é enfatizada a importância de os governos se afastarem de obstáculos e oferecerem apoio à IA, a fim de impulsionar o avanço dessa tecnologia.
A agenda política observa:
Os países historicamente se destacaram quando maximizaram o acesso à tecnologia e a alavancaram para atingir os principais objetivos públicos, em vez de tentar limitar o avanço tecnológico.
Responsabilidade
A agenda também defende que a implantação responsável da IA dependerá da combinação de leis governamentais, autorregulamentação corporativa e contribuições de organizações não governamentais.
A empresa recomenda:
Alguns desafios podem ser enfrentados por meio de regulamentação, garantindo que as tecnologias de IA sejam desenvolvidas e implantadas de acordo com as práticas responsáveis da indústria e os padrões internacionais.
Outros exigirão pesquisas fundamentais para entender melhor os benefícios e riscos da IA e como gerenciá-los, além de desenvolver e implantar novas inovações técnicas em áreas como interpretabilidade e marcas d’água.
E outros podem exigir novas organizações e instituições.
Além disso, a agenda diz:
Incentivar a adoção de abordagens comuns à regulamentação e governança da IA, bem como um léxico comum, com base no trabalho da OCDE.
O que é a OCDE?
O Observatório de Políticas OECD.AI, apoiado por parceiros corporativos e governamentais, incluindo o Departamento de Estado dos EUA e o Departamento de Comércio dos EUA, é uma importante entidade no cenário da regulamentação da IA.
Entre as partes interessadas corporativas, destacam-se organizações como a Patrick J McGovern Foundation, cuja equipe de liderança é composta por investidores do Vale do Silício e executivos de tecnologia com interesse direto na regulação da tecnologia.
O Google defende menos regulamentação corporativa
A recomendação de política do Google em relação à regulamentação é enfatizar que menos regulamentação é preferível e que a transparência corporativa pode impactar negativamente a inovação.
Ele recomenda:
Focar os regulamentos nos aplicativos de maior risco também pode impedir a inovação nos aplicativos de maior valor, onde a IA pode oferecer os benefícios mais significativos.
A transparência, que pode apoiar a responsabilidade e a equidade, pode ter um custo de precisão, segurança e privacidade.
As democracias precisam avaliar cuidadosamente como encontrar os equilíbrios certos.
Em seguida, recomenda levar em consideração a eficiência e a produtividade:
Exigir que as agências reguladoras considerem compensações entre diferentes objetivos políticos, incluindo eficiência e aumento da produtividade, transparência, justiça, privacidade, segurança e resiliência.
Ao longo do tempo, tem existido e continuará a existir uma tensão constante entre as entidades corporativas, que resistem à fiscalização, e os reguladores governamentais, que buscam proteger o público.
A IA tem o potencial de solucionar os desafios mais complexos da humanidade e proporcionar benefícios sem precedentes.
O Google está correto ao afirmar que é essencial encontrar um equilíbrio entre os interesses do público e das corporações, garantindo que a IA seja desenvolvida e utilizada de forma responsável e benéfica para todos.
Algumas boas recomendações
O documento apresenta recomendações práticas, como a sugestão de que as agências reguladoras existentes estabeleçam diretrizes específicas para a inteligência artificial e considerem a adoção dos novos padrões ISO em desenvolvimento, como a ISO 42001.
A agenda política recomenda:
a) Instruir os reguladores setoriais a atualizar os regimes existentes de supervisão e execução para aplicar aos sistemas de IA, inclusive sobre como as autoridades existentes se aplicam ao uso da IA e como demonstrar a conformidade de um sistema de IA com os regulamentos existentes usando padrões internacionais consensuais de várias partes interessadas, como o Série ISO 42001.
b) Instruir as agências reguladoras a emitir relatórios regulares identificando as lacunas de capacidade que dificultam tanto o cumprimento dos regulamentos pelas entidades cobertas quanto os reguladores para realizar uma supervisão eficaz.
Essas recomendações são, de certa forma, uma afirmação óbvia, uma vez que é esperado que as agências desenvolvam diretrizes para orientar os reguladores na regulamentação adequada.
A segurança na IA
Esta é a parte que representa o perigo real do uso malicioso para criar desinformação, bem como danos cibernéticos.
O Google descreve os desafios:
Nosso desafio é maximizar os benefícios potenciais da IA para segurança e estabilidade globais, evitando que agentes de ameaças explorem essa tecnologia para fins maliciosos.
E então oferece uma solução:
Os governos devem investir simultaneamente em P&D e acelerar a adoção de IA pública e privada, enquanto controlam a proliferação de ferramentas que podem ser utilizadas de forma abusiva por agentes mal-intencionados.
Recomendações para os governos combaterem as ameaças baseadas em IA:
- Desenvolver maneiras de identificar e prevenir a interferência eleitoral;
- Compartilhar informações sobre vulnerabilidades de segurança;
- Desenvolver uma estrutura de controle de comércio internacional para lidar com entidades envolvidas em pesquisa e desenvolvimento de IA que ameace a segurança global.
Reduzir a burocracia e aumentar a adoção de IA pelo governo
Em seguida, o documento defende a racionalização da adoção da IA pelo governo, incluindo mais investimentos nela.
Reforme as políticas de aquisição do governo para aproveitar e promover a IA líder mundial.
Examine as barreiras institucionais e burocráticas que impedem os governos de quebrar os silos de dados e adotar a melhor governança de dados para aproveitar todo o poder da IA.
Capitalize os insights de dados por meio de equipes homem-máquina, construindo equipes ágeis com as habilidades para construir/adaptar/alavancar rapidamente sistemas de IA que não exigem mais diplomas de ciência da computação.
Preocupações legítimas com a regulamentação
A agenda política apresenta sugestões ponderadas para os governos considerarem ao elaborar regulamentos sobre o uso da IA em todo o mundo.
Tal documento reflete preocupações legítimas sobre regulamentações excessivas e regras inconsistentes que estão sendo impostas em diferentes partes do mundo.
O Google está efetivamente transmitindo a necessidade e a urgência de estabelecer regulamentações significativas e justas, evitando consequências prejudiciais, enquanto permite que a inovação benéfica avance.
Para saber mais sobre a visão da empresa, acesse o post no blog do Google ou a própria agenda de políticas de IA.
Fonte: Search Engine Journal