Siga nossas redes

Negócios

OpenAI, do ChatGPT, dá próximo passo e agora transforma textos em vídeo

Nova tecnologia batizada de Sora ainda tem falhas; companhia agora diz estar construíndo ferramentas para detectar conteúdo enganoso.

A OpenAI, proprietária do ChatGPT, informou na quinta-feira (15) que está trabalhando em um novo modelo de inteligência artificial que gera vídeos de até 1 minuto através de instruções do usuário por textos curtos.

Apoiada pela Microsoft, a nova tecnologia, batizada de Sora, impressiona pela criação de imagens realistas. No entanto, o novo sistema em andamento segue sendo analisado por uma equipe para identificação de falhas na IA. Isso porque a empresa apontou que o modelo pode confundir detalhes espaciais de um prompt, por exemplo, misturando esquerda e direita, e pode ter dificuldades com descrições precisas de eventos que ocorrem ao longo do tempo, como seguir uma trajetória específica de câmera.

  • Descubra a história de Bill Gates: o magnata e filantropo fundador da Microsoft

“Uma pessoa pode dar uma mordida em um biscoito, mas depois o biscoito pode não ter marca de mordida”, aponta a OpenAI em seu site.

No entanto, a companhia diz que o Sora “é capaz de gerar cenas complexas com vários personagens, tipos específicos de movimento e detalhes precisos do objeto e do plano de fundo”. A tecnologia também pode criar várias tomadas em um único vídeo.

A OpenAI aponta estar ensinando a nova IA a compreender e simular o mundo físico em movimento, “com o objetivo de treinar modelos que ajudem as pessoas a resolver problemas que exigem interação no mundo real”. Imagens estáticas também poderão ser animadas.

“Hoje, Sora está se tornando disponível para os red teamers avaliarem áreas críticas em busca de danos ou riscos. Também estamos concedendo acesso a vários artistas visuais, designers e cineastas para obter feedback sobre como fazer com que o modelo seja mais útil para profissionais criativos.

Estamos compartilhando o progresso de nossa pesquisa antecipadamente para começar a trabalhar e obter feedback de pessoas fora da OpenAI e para dar ao público uma noção de quais recursos de IA estão no horizonte.”

Desinformação

Quanto a segurança, a empresa diz estar tomando várias medidas antes de disponibilizar o Sora nos produtos da OpenAI. “Estamos trabalhando com especialistas em áreas como desinformação, conteúdo de ódio e preconceito – que testarão o modelo de forma adversa”.

Em era de fake news, é necessário que sejam construídas ferramentas para ajudar a detectar conteúdo enganoso, e exemplo de um classificador de detecção que pode dizer quando um vídeo foi gerado por Sora. E a companhia diz estar no caminho.

Abra sua conta! É Grátis

Já comecei o meu cadastro e quero continuar.