trending topics:

Disposta a não ser mais banida, OpenAI se compromete a desenvolver sistemas seguros de IA

A OpenAI se compromete a priorizar segurança, precisão e privacidade em sistemas de IA. Saiba mais da abordagem e do trabalho em andamento

A OpenAI divulgou em seu blog a abordagem da empresa para uma inteligência artificial (IA) que seja segura e benéfica para todos.

O modelo GPT-4, que impulsiona o ChatGPT, pode melhorar a criatividade, aumentar a produtividade e fornecer experiências de aprendizado personalizadas.

No entanto, a OpenAI reconhece que as ferramentas de IA apresentam riscos que devem ser abordados com medidas de segurança e responsabilidade na implementação.

Descubra como a empresa está trabalhando para mitigar esses riscos.

 

Construindo sistemas de IA cada vez mais seguros

A OpenAI segue um processo meticuloso para garantir que seus sistemas de IA sejam seguros e benéficos para a sociedade.

Antes de lançar novos modelos, como o GPT-4, a empresa conduz testes abrangentes e busca orientação externa de especialistas para garantir a segurança e a conformidade com as expectativas do usuário.

Além disso, a OpenAI acredita que a regulamentação é necessária e que sistemas de IA robustos devem passar por avaliações rigorosas de segurança.

 


Aprender com o uso no mundo real para melhorar as proteções

Os sistemas de IA seguros dependem do uso no mundo real e a OpenAI tem abordado essa questão com cuidado.

A empresa lança novos modelos gradualmente para uma base de usuários em expansão, permitindo melhorias e correções em tempo hábil.

Ao oferecer seus modelos de IA por meio de sua API e site, a OpenAI pode monitorar o uso indevido e implementar medidas adequadas, além de desenvolver políticas para equilibrar os riscos.

A empresa acredita que é fundamental manter um equilíbrio entre a inovação e a segurança na criação de sistemas de IA.

 

Proteger as crianças e respeitar a privacidade

Este é um ponto super importante.

A OpenAI diz que tem foco crítico em proteger crianças e, para isso, está procurando formas de verificar que os usuários sejam maiores de 13 anos com permissão dos pais ou maiores de 18 anos antes de permitir o acesso a seus serviços.

Além disso, a empresa também proíbe o uso de sua tecnologia para gerar conteúdo prejudicial.

A privacidade é outro aspecto fundamental no trabalho da OpenAI.

A organização utiliza dados para melhorar seus modelos, mas garante que as informações dos usuários sejam protegidas. Para isso, a OpenAI remove informações pessoais dos conjuntos de dados de treinamento e ajusta os modelos para rejeitar essas solicitações.

Além disso, a empresa se compromete a responder a pedidos de exclusão de informações pessoais de seus sistemas.

 

Melhorando a precisão factual

Os grandes modelos de linguagem baseados em padrões anteriores podem não produzir saídas factualmente precisas em todas as situações, o que é uma preocupação significativa para a OpenAI e outros desenvolvedores de IA.

A organização tem se esforçado para melhorar a precisão factual, usando o feedback do usuário para ajustar seus modelos.

Como resultado, o GPT-4 tem 40% mais chances de produzir conteúdo preciso do que seu antecessor, o GPT-3.5.

A transparência é importante para a OpenAI, que reconhece que ainda há muito trabalho a ser feito para educar o público sobre as limitações atuais das ferramentas de IA.

 

Pesquisa e engajamento contínuos

A OpenAI acredita que dedicar tempo e recursos para pesquisar mitigações eficazes e técnicas de alinhamento e testá-las contra abusos no mundo real é uma abordagem prática para resolver problemas de segurança de IA.

A organização reconhece que melhorar a segurança e os recursos de IA devem andar de mãos dadas e que seu melhor trabalho de segurança até o momento veio de trabalhar com seus modelos mais capazes.

A empresa continuará a aprimorar as precauções de segurança à medida que seus sistemas de IA evoluírem e promove a colaboração e o diálogo aberto entre as partes interessadas para criar um ecossistema de IA seguro.

Ela espera contribuir para o desafio assustador de garantir que o desenvolvimento e a implantação da IA sejam administrados de maneira eficaz em escala global.

 

Melhorando as falhas para evitar banimentos futuros

Este compromisso em desenvolver sistemas de IA mais seguros vem após a proibição do ChatGPT na Itália por problemas de privacidade e acesso de menores de idade.

A empresa está se esforçando para melhorar suas falhas e ser o mais cuidadosa e transparente possível, para que não corra o risco de ser banida em outros países no futuro.

Conforme a tecnologia de IA cresce e se torna mais amplamente utilizada, a fiscalização também aumentará, tornando mais importante do que nunca garantir a segurança e a transparência em todos os aspectos da criação e implantação de sistemas de IA.

Para conferir a postagem completa da empresa em relação à segurança da IA, clique aqui.

Quer saber de tudo, antes de todos?

Receba as principais notícias e atualizações sobre redes sociais, ads e marketing digital resumidas no seu e-mail!

Isso pode te interessar:

Mais lidas!

MESTRES & EXPERTS

A opinião e análise de quem faz resultado no mundo digital.

OPINE:

Compartilhe:

VEJA TAMBÉM:

Carta de Warren Buffet escrita em 1972 mostra que ele é um p*ta marketeiro

No documento de 50 anos atrás, Buffet dá dicas de storytelling, posicionamento e vendas (que servem até hoje!)

Caixinha de perguntas

Use a caixinha de perguntas como forma de guiar a sua copy

Já pensou que sua caixinha de pergunta pode melhorar sua copy, sua visão de persona e suas vendas? Veja como utilizar da melhor forma

Meta lança novas atualizações para Advantage+ e anúncios do Shopping

A Meta anunciou novas atualizações de anúncios, focadas principalmente em varejistas e quem usa suas campanhas automatizadas Advantage+

Aqui você encontra as principais notícias sobre Marketing Digital e atualizações sobre o mundo das Redes Sociais, Ads, Infoprodutos, Vendas Online.