A Meta está focada em evoluir suas ferramentas de inteligência artificial (IA) — talvez só não mais que a Microsoft rs.
A empresa apresentou dois novos projetos generativos que IA que pretendem permitir aos usuários do Facebook e Instagram criar vídeos a partir de prompts (comandos) de texto e facilitarão edições personalizadas de imagens in-stream, que podem ter uma variedade de aplicações valiosas.
Ambos os projetos são baseados no projeto de pesquisa de IA “Emu” da Meta, que explora novas maneiras de usar prompts generativos de IA para projetos visuais.
Emu Vídeo
O primeiro projeto é chamado “Emu Vídeo” — isso mesmo, de Ema, o animal, até a própria Meta brincou com o nome —, e ele permitirá criar vídeos curtos com base em instruções de texto.
1️⃣ Emu Video
This new text-to-video model leverages our Emu image generation model and can respond to text-only, image-only or combined text & image inputs to generate high quality video.Details ➡️ https://t.co/88rMeonxup
It uses a factorized approach that not only allows us… pic.twitter.com/VBPKn1j1OO
— AI at Meta (@AIatMeta) November 16, 2023
O Emu Vídeo será capaz de criar videoclipes de alta qualidade, com base em entradas simples de texto ou imagens estáticas.
De acordo com a Meta:
Esta é uma arquitetura unificada para tarefas de geração de vídeo que pode responder a uma variedade de entradas: somente texto, somente imagem e texto e imagem.
Dividimos o processo em duas etapas: primeiro, gerar imagens condicionadas a um prompt de texto e, em seguida, gerar vídeo condicionado tanto ao texto quanto à imagem gerada. Essa abordagem ‘fatorada’ ou dividida para geração de vídeo nos permite treinar modelos de geração de vídeo de forma eficiente.
Assim, se você quiser, poderá criar vídeos baseados, digamos, em uma foto de produto e em uma mensagem de texto, o que poderia facilitar uma série de novas opções criativas para marcas.
O novo projeto será capaz de gerar vídeos de 512×512, quatro segundos de duração, rodando a 16 quadros por segundo, o que parece bastante impressionante, promissor e pode ser um grande passo para as ferramentas generativas de IA da Meta.
Emu Edit
O segundo novo elemento da Meta é chamado de “Emu Edit” e permitirá aos usuários facilitar edições personalizadas e específicas em recursos visuais.
2️⃣ Emu Edit
This new model is capable of free-form editing through text instructions. Emu Edit precisely follows instructions and ensures only specified elements of the input image are edited while leaving areas unrelated to instruction untouched. This enables more powerful… pic.twitter.com/ECWF7qfWYY— AI at Meta (@AIatMeta) November 16, 2023
Um dos aspectos mais interessantes deste projeto é que ele funciona baseado em prompts de conversação, então você não precisará destacar a parte da imagem que deseja editar, apenas pedirá para editar esse elemento, e o sistema entenderá a qual parte do visual você está se referindo.
Isso pode ser uma grande ajuda na edição de recursos visuais de IA e na criação de variações mais personalizadas, com base exatamente no que você precisa.
A estrada à frente
As possibilidades de ambos os projetos são significativas e podem fornecer um grande potencial para criadores e marcas usarem IA generativa de todas as novas maneiras.
A própria Meta reconhece o grande potencial que está criando com suas ferramentas de IA:
Embora este trabalho seja uma pesquisa puramente fundamental no momento, os casos de uso potenciais são claramente evidentes.
Imagine gerar seus próprios adesivos animados ou GIFs inteligentes instantaneamente para enviar no bate-papo em grupo, em vez de ter que procurar a mídia perfeita para sua resposta. Ou edite suas próprias fotos e imagens, sem necessidade de conhecimentos técnicos. Ou adicione um pouco de força extra às suas postagens do Instagram, animando fotos estáticas […] achamos que isso é algo que vale a pena comemorar.
A Meta não disse quando essas novas ferramentas estarão disponíveis em seus aplicativos, mas ambas devem estar disponíveis em breve, o que permitirá novas oportunidades criativas, de diversas maneiras.
Fonte: Social Media Today