A recente proibição do ChatGPT na Itália é apenas um dos muitos possíveis desafios legais que a OpenAI enfrenta.
Enquanto a União Europeia trabalha para aprovar uma Lei de Inteligência Artificial, os Estados Unidos definem uma Declaração de Direitos da IA e o Reino Unido recomenda que as agências existentes regulem a IA, os usuários do ChatGPT registraram reclamações globalmente contra a OpenAI por possíveis problemas de segurança.
OpenAI e preocupações globais de segurança
O Center for AI and Digital Policy apresentou uma reclamação à Federal Trade Commission para impedir a OpenAI de desenvolver novos modelos de ChatGPT até que as proteções de segurança estejam em vigor.
O Garante italiano lançou uma investigação sobre a OpenAI relacionada a uma recente violação de dados e falta de verificação de idade para proteger os usuários mais jovens de conteúdo inapropriado de IA generativa durante o registro.
A Comissão Irlandesa de Proteção de Dados planeja coordenar com a o Garante italiano e a Comissão de Proteção de Dados da UE para determinar se o ChatGPT violou as leis de privacidade.
De acordo com a Reuters, os reguladores de privacidade na Suécia e na Espanha não têm planos de investigar o ChatGPT agora, mas podem no futuro se os usuários registrarem reclamações contra a tecnologia de IA.
E essas são apenas algumas das recentes reclamações, investigações e comentários de vários países sobre a responsabilidade das empresas de IA.
Enquanto isso, na Alemanha, Ulrich Kelber — porta-voz do comissário federal de proteção de dados da região — disse que uma proibição semelhante à de outros países pode ocorrer se a OpenAI violar o GDPR ou políticas semelhantes.
No entanto, Volker Wissing, Ministro dos Transportes e Infraestrutura Digital da Alemanha, indicou que uma proibição não é a melhor abordagem, de acordo com ele:
Não precisamos da proibição de aplicativos de IA, mas de formas de garantir valores como democracia e transparência.
O Canadá também parece estar seguindo o exemplo depois que seu Gabinete do Comissário de Privacidade iniciou uma investigação sobre uma reclamação contra o ChatGPT coletando dados pessoais sem consentimento.
E na França, Jean-Noël Barrot, Ministro da Transição Digital e Telecomunicações, comentou sobre a onda de empolgação da IA, seguida pelo medo dela.
O plano do país, ao que parece, é dominar a tecnologia de IA e desenvolver modelos e tecnologias que defendam os valores franceses.
Ou seja, as preocupações com a nova tecnologia estão se tornando cada vez mais globais.
Os países banirão permanentemente o ChatGPT?
A OpenAI publicou recentemente uma FAQ para usuários italianos e reafirmou seu compromisso em criar sistemas seguros, precisos e privados.
Mas quais são as chances de que as investigações contra a OpenAI resultem no banimento permanente de sua tecnologia da Itália e de outros países?
Considerando que um juiz na Colômbia recentemente usou o ChatGPT para auxiliar em uma decisão judicial e outro na Índia o usou para decidir sobre fiança, o OpenAI tem algumas chances a seu favor.
O ChatGPT+ com modelo GPT-4 oferece pontos surpreendentemente equilibrados sobre o impacto de sua tecnologia e os riscos que ela representa.
No entanto, obviamente, se um país não tiver acesso ao ChatGPT, alguns usuários poderão acessá-lo usando um serviço de rede privada virtual (VPN).
O Google Trends mostra que a Itália teve um aumento nas pesquisas por VPNs no início de abril, coincidindo com a proibição do ChatGPT.
Os processos judiciais contra a tecnologia OpenAI podem afetar os usuários?
Os usuários do OpenAI são legalmente responsáveis por problemas decorrentes do uso e saída de suas ferramentas? Depende, de acordo com os Termos de Uso da OpenAI.
Se os usuários quebrarem quaisquer termos ou políticas da OpenAI ao usar ferramentas como o ChatGPT ou a API, eles podem ser responsáveis por se defender.
A OpenAI não garante que seus serviços sempre funcionem conforme o esperado ou que determinado conteúdo (entrada e saída de uma ferramenta generativa de IA) seja seguro – observando que não será responsabilizado por tais resultados.
O máximo que a empresa oferece para compensar os usuários por danos causados por suas ferramentas é o valor que o usuário pagou pelos serviços no ano anterior, assumindo que não há outras leis regionais aplicáveis.
Mais ações judiciais em IA
Os casos acima são apenas a ponta do iceberg jurídico da IA.
A OpenAI e seus pares enfrentam questões legais adicionais, incluindo as seguintes:
- Um prefeito da Austrália pode processar a OpenAI por difamação, devido a informações imprecisas sobre ele fornecidas pelo ChatGPT;
- O GitHub Copilot enfrenta uma ação coletiva sobre os direitos legais dos criadores da codificação de código aberto nos dados de treinamento do Copilot;
- Stability AI, DeviantArt e Midjourney enfrentam uma ação coletiva sobre o uso do StableDiffusion, que usou arte protegida por direitos autorais em seus dados de treinamento;
- A Getty Images entrou com um processo judicial contra a Stability AI, por usar o conteúdo protegido por direitos autorais da Getty Images em dados de treinamento.
Cada um desses casos tem o potencial de abalar o futuro do desenvolvimento da IA e como ela será regulada daqui para frente.
Fonte: Search Engine Journal