A OpenAI revelou o lançamento do Sora, um sistema de inteligência artificial que utiliza comandos de texto para gerar vídeos. Essa nova ferramenta tem a capacidade de simular o movimento do mundo físico e se junta aos sistemas ChatGPT e DALL-E da empresa, que são responsáveis pela geração de texto e imagens estáticas, respectivamente.
De acordo com a desenvolvedora, o Sora tem a capacidade de produzir vídeos de até um minuto de duração, mantendo uma qualidade visual impecável e seguindo criteriosamente as diretrizes estabelecidas pelo usuário.
Como o Sora funciona?
Os exemplos de vídeos criados com a inteligência artificial pela OpenAI são verdadeiramente impressionantes e sugerem que essa tecnologia avançada é capaz de criar vídeos totalmente originais com perfeição.
Claro que essa não é a primeira vez que vemos uma ferramenta de IA produzindo vídeos, mas acredito que a qualidade do Sora vai te surpreender!
Apesar do alto potencial de atrair a curiosidade do público, o Sora por enquanto está disponível apenas a um grupo restrito de testadores de segurança, digamos assim, que tentam identificar potenciais danos e riscos gerados pela IA. Além disso, a OpenAI avisa que já liberou a tecnologia a artistas visuais e cineastas a fim de obter feedback para tornar a ferramenta “o mais útil possível para profissionais criativos”
Atualmente já existem algumas IAs capazes de criar vídeos de forma satisfatória, mas parece que a OpenAI quer ir além. A nova IA tecnologia seria capaz de entender o pedido de quem digita um comando de forma contextualizada a fim de gerar um resultado avançado e coerente com o mundo real.
“O Sora pode gerar cenas complexas com diversos personagens, tipos específicos de movimento e detalhes precisos da cena principal e do plano de fundo”, explica a criadora do ChatGPT. “O modelo compreende não apenas o que o usuário pediu no prompt, mas também a forma como aquelas coisas existem no mundo real.” Disse a empresa no X (antigo Twitter)
Nesse sentido, o Sora promete ser capaz de criar diversas “capturas” de imagens com diferentes perspectivas a fim de alcançar o padrão solicitado pelo prompt.
Apesar de não economizar elogios a sua própria ferramenta, a OpenAI também alerta para as suas fraquezas. De acordo com a empresa, o Sora pode ter dificuldade em simular a física de efeitos mais complexos e em entender coisas muito específicas.
“Por exemplo, uma pessoa pode morder um pedaço de uma bolacha, mas, depois disso, a bolacha não tem uma marca de dentes”, explica a companhia.
Localizar no espaço a “câmera” que guia a perspectiva do espectador também pode ser um problema para o Sora. De acordo com a desenvolvedora, o modelo “pode ter problemas com descrições precisas de eventos que acontecem ao longo do tempo, como seguir uma trajetória de câmera específica.”
Os perigos por trás da tecnologia
Em um mundo cada vez mais cheio de deepfakes eróticos de pessoas famosas ou não, uma IA poderosa para criar vídeos levanta algumas preocupações.
A OpenAI parece ciente disso e de antemão reforça que seu novo modelo tem sido testado por especialistas de áreas chave como desinformação, conteúdo de ódio e preconceito.
“Nós também construímos ferramentas para ajudar a detectar o mau uso de conteúdo como um classificador que avisa quando um vídeo foi gerado pelo Sora.”
OpenAI
A dona do ChatGPT também informa que planeja incluir códigos de metadados C2PA, o mesmo que passou a usar recentemente em imagens geradas pelo DALL-E, a fim de facilitar a identificação de conteúdo gerado por IA.
Por fim, a OpenAI garante que trabalha junto a “legisladores, educadores e artistas do mundo” para compreender possíveis usos equivocados e prejudiciais da tecnologia.
Outro ponto crucial envolvendo IA generativa, a base de dados para treinar tais modelos não ganhou muito destaque da OpenAI no anúncio da ferramenta. A única menção a isso dá conta de que o Sora foi construído sobre “pesquisas anteriores com os modelos GPT e DALL-E”.
A OpenAI não informou quando o Sora (ou qualquer produto baseado nessa tecnologia) estará disponível para o público em geral. De qualquer forma, assim que tivermos mais detalhes revelados, vamos te informar por aqui, no nosso Instagram e também no YouTube!