Larissa Barros Redatora
A louca do K-Pop e música em geral, adoro saber tudo de novo que surge no mundo, de teorias da conspiração até o último modelo de celular. Aquariana raiz, adoro tudo que é diferentão e não faço nada sem uma trilha sonora para acompanhar.
A Meta introduziu o Make-A-Video, uma inovação em inteligência artificial capaz de criar cenas de vídeo a partir de instruções escritas. A tecnologia, que reflete avanços similares na geração de imagens por texto, sinaliza um futuro promissor para a criação de conteúdo digital.

Meta tem o Make-A-Video, um sistema de inteligência artificial (IA) que cria breves cenas de vídeo a partir de instruções escritas. Essa mecânica lhe parece familiar? Se sua resposta for afirmativa, possivelmente você conhece o fenômeno atual dos geradores de imagens a partir de texto.

DALL-E, Midjourney e Stable Diffusion são alguns dos programas movidos por inteligência artificial mais populares do momento, mas muitos outros projetos estão sendo desenvolvidos em paralelo, alguns dos quais também estão avançando na geração de vídeos a partir de texto.

Meta acredita que o Make-A-Video será uma valiosa ferramenta para artistas

O Make-A-Video é um dos trabalhos mais recentes do laboratório de inteligência artificial da Meta. Os pesquisadores da empresa-mãe do Facebook e Instagram têm trabalhado há algum tempo com modelos de IA, na verdade, eles têm seu próprio gerador de imagens a partir do texto chamado Make-A-Scene.

Agora, o laboratório deu um importante passo à frente com o Make-A-Video, pelo menos de acordo com Mark Zuckerberg, que afirma que "é muito mais difícil gerar vídeos do que fotos porque, além de gerar corretamente cada pixel, o sistema também tem que prever como eles mudarão com o tempo".

No vídeo acima, podemos observar o desempenho deste sistema de inteligência artificial com as seguintes entradas de texto: "Um ursinho de pelúcia pintando um retrato", "um robô dançando na Times Square" e "um gato assistindo à televisão com um controle remoto na mão". O resultado é muito interessante.

Segundo um documento técnico, assim como muitos outros modelos, o modelo de IA do Make-A-Video foi treinado com dois grandes conjuntos de dados coletados da Web que incluem o trabalho de criadores que não são remunerados em troca. WebVid-10M, com 52.000 horas de vídeo, e HD-VILA-100M, com 3,3 milhões de vídeos.

A questão dos direitos autorais e os modelos de geração de imagens e vídeos estão começando a emergir com força. Getty e outros bancos de imagens proibiram as imagens de stock geradas por IA. No entanto, a Meta acredita que tanto o Make-A-Scene quanto o Make-A-Video se tornarão uma ferramenta valiosa para criadores e artistas.

Os mencionados modelos de geração de imagens ainda não estão disponíveis para os usuários. A Meta afirma que lançará uma demonstração. DALL-E 2, que por muito tempo foi limitado a alguns usuários, removeu esta semana sua lista de espera e já está disponível para todos.

Se você estiver interessado em testar o Make-A-Video, pode preencher um formulário da Meta para receber um e-mail quando finalmente estiver disponível. No momento, não sabemos quando chegará e se inicialmente haverá uma lista de espera. Teremos que aguardar para testar em primeira mão as possibilidades deste sistema.

sobre
o mesmo tema