GTC 2026: NVIDIA OpenUSD Arquitetura de Descrição de Cena Universal para a Implementação de um Ecossistema de Entretenimento e Cinema com IA
O Grupo Shanghai Film Corporation partilhou na GTC 2026 como, através do NVIDIA OpenUSD (Arquitetura de Descrição de Cena Universal), foi possível alcançar uma colaboração entre diferentes softwares, acelerando o processo de produção cinematográfica. Ao integrar a geração de conteúdo por inteligência artificial (AIGC) na base de dados de aplicações do NVIDIA Omniverse, as equipas de cinema e televisão utilizam IA para estender o desenvolvimento de roteiros até à filmagem virtual e pós-produção, criando assim um ecossistema de entretenimento e cinema alimentado por IA.
Cluster de GPU da NVIDIA oferece elevado poder de processamento
No processo de transformação digital, a indústria do cinema e televisão passou de uma simples renderização de imagens para uma necessidade de recursos computacionais capazes de suportar inferências complexas de grandes modelos de linguagem (LLM) e modelos de difusão (Diffusion Models). O AI Compute Pool criado pelo Grupo Shanghai, centrado em clusters de GPU NVIDIA de alta eficiência, fornece um mecanismo de agendamento de recursos multi-inquilino flexível, permitindo que múltiplas equipas de cinema e televisão desenvolvam em paralelo. Para garantir que ativos de grande escala, como conteúdos em 4K e 8K, sejam processados sem atrasos, o sistema incorpora tecnologias InfiniBand e Ethernet de alta velocidade, possibilitando uma transmissão de dados ultrarrápida entre unidades de processamento, integrando precisamente o desempenho computacional em cada etapa da criação, entrega e operação cinematográfica.
Conexão OpenUSD para colaboração entre diferentes softwares
Na transformação digital do setor cinematográfico com IA, o OpenUSD (Universal Scene Description) tornou-se a arquitetura central que conecta todos os fluxos de trabalho. Este sistema transforma cenas, personagens e objetos de filmes de ficheiros únicos em “ativos de conteúdo” reutilizáveis, eliminando obstáculos tradicionais de compatibilidade entre softwares. Artistas podem colaborar de forma fluida em ferramentas como Maya, Blender, Unreal Engine e Houdini, evitando perdas de dados causadas por conversões repetidas de formatos. Com armazenamento estruturado e funcionalidades de controlo de versões, os ativos digitais podem ser chamados e geridos com precisão, reduzindo significativamente os custos operacionais de modelação repetida. A combinação do OpenUSD com o NVIDIA Omniverse oferece uma solução de gestão de ativos com auditoria e modularidade, maximizando o valor dos ativos digitais na indústria cinematográfica.
NVIDIA Omniverse para produção de filmagens virtuais com IA
O NVIDIA Omniverse possibilita filmagens virtuais 3D de alta precisão, usando a tecnologia 3dgrut para converter filmagens físicas em modelos de Gaussian 3D, que são exportados em formato USDZ e importados diretamente no Omniverse para renderização de alta qualidade, economizando custos de construção de cenários reais e permitindo uma reprodução altamente realista dos ambientes. Combinando com técnicas de filmagem virtual, os atores podem ser integrados de forma perfeita em cenários 3D, alcançando efeitos visuais convincentes. Com base nestas práticas tecnológicas, cenários e objetos de filme podem ser reutilizados, reduzindo custos.
O que torna o NVIDIA Omniverse especial?
A singularidade do NVIDIA Omniverse reside na sua capacidade de criar um ambiente Single Source of Truth (SSOT), que permite a sincronização em tempo real de múltiplas aplicações. Esta inovação resolve de forma definitiva o problema de confusão de versões e redundância de dados, comum nos processos tradicionais de produção cinematográfica, onde modeladores, animadores e iluminadores mantêm cópias separadas de ficheiros, frequentemente realizando importações e exportações repetidas.
O núcleo desta solução é baseado no servidor Nucleus e na arquitetura OpenUSD. Todos os dados de cena são armazenados em formato OpenUSD no Nucleus, eliminando a necessidade de transferir ficheiros completos pesados. Apenas as alterações são sincronizadas, permitindo que equipas de produção em todo o mundo acedam simultaneamente ao mesmo SSOT. Assim, não só se eliminam cópias redundantes de ficheiros, como também se garante que todos os profissionais veem a versão mais atualizada e precisa da cena, possibilitando um fluxo de trabalho verdadeiramente paralelo e sem atrasos.
AIGC na criação de roteiros e filmagens virtuais
A geração de conteúdo por inteligência artificial (Artificial Intelligence Generated Content, AIGC) reduz o ciclo de produção cinematográfica de meses para semanas. Na fase inicial, a IA analisa capítulos de roteiros, identifica pontos-chave e organiza relações entre personagens, gerando automaticamente esquemas narrativos e biografias de personagens. A tecnologia de geração de storyboards (Text-to-Image) converte descrições textuais em imagens de referência visual, melhorando a comunicação. Na fase de filmagem, a tecnologia de rastreamento de luz e sombra em tempo real do NVIDIA RTX permite filmagens virtuais com fundos e câmeras sincronizadas (“virtual shooting”). As equipas usam IA para atualizar a aparência consistente de personagens (Consistent Character Creator), garantindo uniformidade visual em diferentes condições de iluminação, e realizam simulações de medição de luz em ambientes virtuais, reduzindo o tempo de ajustes técnicos em filmagens ao vivo.
A IA revoluciona a lógica subjacente à produção cinematográfica, transformando processos lineares tradicionais em fluxos de trabalho colaborativos entre diferentes softwares. Com o suporte do NVIDIA OpenUSD e do poder de computação na cloud, a edição, efeitos especiais e pré-visualizações podem ocorrer em paralelo com as filmagens, eliminando a dependência de esperar pelo término das filmagens na pós-produção.