Associação Brasileira de Cinematografia

  • Correalização
  • Correalização
  • Patrocínio
  • Patrocínio
01.06.2010

Cinema Digital - Introdução

Diretor de fotografia Carlos Ebert fala sobre cinema digital

Por Carlos Ebert

Cinema Digital. De repente, duas palavras que até então v. nunca imaginou ver juntas, aparecem formando um par intrigante que pede explicações.

Cinema, do grego: Kinema = movimento.

Cinematografia: técnica de registrar o movimento ou melhor de criar e reproduzir imagens em movimento. E centenária ,e tem uma história muito bem documentada. Aos interessados recomendo:
http://www.precinemahistory.net
Pequena História da Cinematografia Brasileira

Entende-se por cinematografia digital a captação de imagens em movimento em suporte digital, e por cinema digital a exibição destas imagens

Digital: do latim: digito = dedo. Como começamos contando até dez com o auxílio dos dedos (sistema decimal), os números de 0 á 9 ficaram conhecidos como dígitos. Mas também podemos representar números utilizando apenas o zero e o um. São os digitos binários, cuja abreviatura em ingles é bit. Vamos ver?

0 – 0
1 – 1
2 – 10
3 – 11
4 – 100
5 – 101
6 – 110
7 – 111
8 – 1000
9 – 1001

e por aí vai... E claro que nesse sistema binário os números vão ficando enormes. Por exemplo; o 20 já corresponde ao 10100.
Para solucionar isso foram criados conjuntos de bits chamados bytes, Em bytes de 4 bits ficaria assim:

0 – 0000
1 – 0001
2 – 0010
3 – 0011
4 – 0100
5 – 0101
6 – 0110
7 – 0111
etc... Mais funcional, não?

Para qualquer equipamento eletrônico, o binário é o sistema numérico ideal para armazenar e processar informações pois a cada “ 1 “ corresponderá um impulso elétrico e a cada “ 0 “ uma ausência do impulso. Sim e não. Um e zero.

Mas o que significa “digital” em eletrônica, e no que ele difere do analógico?

Um sinal elétrico que apresenta uma variação contínua de voltagem é um sinal analógico. Visto num osciloscópio (aparelho dotado de um tubo catódico onde se visualizam sinais elétricos) este sinal elétrico vai ter a aparência da imagem abaixo:

Consideremos um trecho dele. Se tomarmos a intervalos iguais, amostras das voltagens em cada um dos pontos e em seguida transformarmos cada um destes valores num número binário, num byte, teremos uma seqüência de bytes como a do gráfico abaixo:

Este processo de transformar um sinal analógico num digital se chama digitalização. Fica claro que quanto maior for o número de amostras, melhor será a qualidade da imagem e maior será o fluxo de bytes do sinal. Este fluxo é medido em bytes por segundo B/s mais o volume de informação faz com que se use sempre o megabyte (1.000.000 bytes) por segundo MB/s

O que se ganha convertendo um sinal analógico para digital? A grande vantagem do sinal digital sobre o analógico é que ele não está sujeito a distorções e degradação quando é processado ou reproduzido. Cada vez que é feita uma geração de um sinal analógico ocorre um aumento de ruído.
No digital isso não acontece. A outra grande vantagem diz respeito à gravação do sinal. No digital ela é feita como uma memória, permitindo acesso randomico imediato a qualquer ponto. Mais a frente, quando dermos um panorama da edição e finalização em digital, veremos como o sinal digital revolucionou estas duas áreas.

Quando se trata da informação correspondente ao vídeo e ao áudio do sistema de televisão NTSC, o fluxo de bytes (de 8 bits) resultante da digitalização é enorme, da ordem de 20 MB/s. Bem, acho que fomos longe demais... Voltemos um pouquinho.

A Imagem do Vídeo
Cinema digital pressupõe captar imagens com uma câmra de vídeo (digital ou não), editar e finalizar estas imagens para depois transferi-las para uma mídia de exibição que pode ser televisão aberta ou por assinatura (analógicas até agora), em baixa ou alta definição, video home (VHS, DVD), cinema (filme 35mm) , internet de banda larga (streaming) e mais algumas que devem estar sendo desenvolvidas neste exato momento.

Então, como tudo começa com uma câmra de vídeo, é conveniente entender como funciona uma câmra e um gravador de vídeo. Como nosso propósito é o cinema digital vamos tentar nos referir sempre ao video digital, mas como a exibição na tv e até a monitoração das imagens são feitas em equipamentos analógicos, volta e meia teremos que nos referir a estes sistemas.

Olhando de perto para a tela de uma TV (Tudo o que for dito aqui se refere ao sistema 525/59.94/2:1 NTSC), v. vai perceber que a imagem é construida a partir de linhas horizontais. São 525 linhas, mas na verdade só vemos 483, pois as demais não contem informações sobre a imagem.

Cada linha dessas por sua vez é constituída por 720 pixels (do inglês picture element – elemento de imagem) Este elemento de imagem exibe informações sobre o brilho da imagem naquele ponto e sobre a quantidade das três cores primárias que constituem a cor dele (Síntese aditiva: em tv qualquer cor pode ser reproduzida pela soma na proporção correta das três cores primárias: vermelho, verde e azul abreviadas RGB, red, green and blue).

Para ter as informações sobre as três cores primárias basta ter informação sobre duas (R e B). Porque? Porque o brilho ou luminancia (representado por Y’) é a soma das três cores, RGB. Então se eu tenho um sinal para a luminancia (Y’ = R+G+B), um sinal para o azul menos a luminancia (B’-Y’) e um sinal para o vermelho menos a luminancia (R’-Y’), o que não for vermelho nem azul vai corresponder ao o verde G. Simples, não?

As 525 linhas não são traçadas sobre a tela de uma vez só. Quando a tv preto e branco foi inventada não existia tecnologia para operar numa banda passante (ver o texto anexo “O que é banda passante?”), que fosse capaz de captar, transmitir e exibir toda a informação da imagem de uma só vez.

Porisso, os engenheiros criaram o artifício de dividir estas linhas em dois grupos iguais - linhas impares e linhas pares - e traça-las alternadamente com uma diferença de milésimos de segundo, de modo que entrelaçadas, formassem uma imagem completa. Assim, o fotograma ( frame ) da TV é formado por dois campos ( fields ) entrelaçados.



Pixels por frame em vários formatos

Quando da introdução da cor, este sistema foi mantido e ainda hoje convivemos com este anacronismo. Os novos sistemas digitais já possuem a opção de traçar todas as linhas de uma vez só. Esta técnica é chamada de progressiva em oposição a anterior denominada entrelaçada.

Cada linha como dissemos tem um número de pixels. No quadro abaixo vemos o número de pixels existentes nos vários formatos de vídeo, incluindo monitores de computador e HDTV.

O CCD

O coração de uma câmra é o CCD (Charge-Coupled Device – Dispositivo de Carga Acoplada). Ironicamente o CCD é um componente analógico.

O CCD é um “chip” que suporta e transfere cargas elétricas em função da quantidade de luz que atinge suas células foto-sensíveis. Ou seja transforma fótons (luz) em elétrons (eletricidade).
Sua introdução no início da década de 80 trouxe uma revolução no design e na performance das câmeras, que até então usavam tubos catódicos (plumbicons, saticons etc.) como sensores.

Os CCDs apresentavam precisão na geometria e no registro, não “envelheciam”, não “queimavam” e reduziram bastante o “lag”, que é aquela persistência da imagem nos pontos luminosos (“cauda de cometa”).

Existem três tipos de CCD:

  •   Frame Transfer (FT)
  •   Interline Transfer (IT)
  •   Frame Interline Transfer (FIT).


Frame Transfer: Foi o primeiro. O chip FT tem dois conjuntos de sensores. Um é exposto a imagem produzida pela objetiva enquanto o outro é mascarado para não receber luz e é usado para armazenar a eletricidade que foi gerada a partir do outro conjunto.

Nos primeiros existia um problema de contaminação por luzes indesejadas que atingiam o chip no momento em que este estava transferindo, o que gerava aberrações na imagem.

O problema foi resolvido com a introdução de um obturador mecânico que bloqueava a luz só deixando ela atingir o chip no momento da captação.

Vantagens do FT: Não produz “smear” (aquela linha branca vertical que se formava na imagem a partir dos pontos com muitas luz), por isso lida bem com as altas luzes. Como só os sensores recebem luz, os pixels podem ser maiores e a sensibilidade aumenta.

Desvantagens: Exige um obturador mecânico que pode vir a apresentar problemas e que aumenta o tamanho do conjunto.


 

Interline Transfer: Neste os sensores só tem como função receber a imagem. As áreas de armazenamento estão situadas verticalmente entre os sensores e são mascaradas para evitar que luzes residuais os atinjam. Este arranjo faz com que os sensores sejam um pouco menores do que os CCDs FT, e consequentemente, menos sensíveis. Também apresentam mais “smear”.

Frame Interline Transfer: A função do CCD FIT é similar a do IT, exceto pela duração do apagamento vertical quando duas transferências de cargas elétricas tem lugar, ao invés de uma. Isto faz com que o tempo de transferência do FIT (clocking) seja até 40 vezes mais rápido que o IT. Esta característica do FIT é que permitiu a obturação eletrônica nas câmeras.

Por fim vale comentar as últimas famílias de CCDs, introduzida pela Sony e chamada de hole accumulator diode (HAD – diodo acumulador integral) e Hiper HAD.

Suas vantagens são: pouquíssima corrente residual (dark current), melhor intervalo dinâmico ( dynamic range), eliminação de lags, melhoria das características espectrais (sensibilidade cromática) e um obturador eletrônico para cada pixel. Tudo isto resulta numa relação sinal/ruído de 62 db.

Nos Hyper HAD, lentes minúsculas foram colocadas diante de cada pixel para concentar a luz ,o que dobrou a sensibilidade dos novos Hyper HAD com relação aos HAD anteriores. As câmeras equipadas com os Hyper HAD apresentam 800 linhas de resolução horizontal e sensibilidade f. 8 com 2000 lux.

Processamento do Sinal de Vídeo

Dos CCDs, os sinais (RGB) vão para pré amplificadores. Nesta fase não estão acessíveis para manipulação. A etapa seguinte é a digitalização - A transformação do sinal elétrico com variação contínua num fluxo de bytes - Já digitalizado, o sinal segue para o processo de amplificação dedicada onde se dará a manipulação criativa do sinal.

Nesta fase podem ser ajustados entre outros parâmetros: o pedestal geral, gamma, balanço de preto e de branco, seleção de ganho, fase da sub-portadora, fase horizontal, ganho do vermelho e azul, pedestal do vermelho e azul e obturação eletrônica.

Nas câmeras digitais, a regulagem de todos estes parâmetros, que assumem valores positivos e negativos, se dá em intervalos discretos. No domínio digital é fácil memorizar estes parametros e armazena-los até mesmo num chip removível. Neste caso, passamos a ter uma coleção de regulagens (set-ups), imediatamente acessíveis a qualquer momento.

Com o sinal digital, também é muito mais fácil igualar duas câmeras de mesmo modelo. Basta colocar os mesmos parâmetros nas duas.

Composto e Componente

Antes da introdução do vídeo digital, existiam duas opções básicas com relação ao sinal de vídeo analógico : composto e componente. O vídeo composto surgiu primeiro, como resultado da adaptação do sistema monocromático (preto e branco) para o colorido.

O desafio para os engenheiros era colocar as informações relativas a cor dentro do sinal já existente, que se utilizava de uma banda passante limitada ( 4.2 MHz). A solução foi “encaixar” a cor em intervalos do sinal de luminancia, intermodulando.

O problema resultante foi a interferência entre as duas informações. Os primeiros VTRs gravavam o sinal de vídeo composto.

Mais tarde separou-se a informação da crominancia da informação da luminancia e elas passaram a ser gravadas separadamente em 3 sinais Y (luminancia) R-Y (diferença de cor do vermelho) e B-Y (diferença de cor do azul). Os problemas de interferência cessaram e a qualidade melhorou muito.

Como para a nossa visão as variação de brilho (luminancia) são mais importantes do que as variações nas cores (crominancia), estas últimas podem ser representadas no sinal de vídeo com menos informações do que a luminancia. Nos sistemas componentes, o sinal da crominancia se utiliza da metade da freqüência do sinal de luminância.

O ITU-R BT.601

Quando da introdução da gravação digital do sinal de vídeo, foram introduzidos sistemas digitais compostos (D2) . Mas logo em seguida os sistemas digitais componentes predominaram (D1, Beta Digi, DV, DVCam etc).

Hoje quase todos os sistemas de vídeo digital partem de um padrão que, regulamentado em 1981 pelo International Telecommunications Union ITU, recebeu o nome de Recomendação ITU-R BT.601. O ITU-R BT.601 não é um padrão de interface de vídeo é um padrão de amostragem.

E este sistema que vamos examinar mais a fundo.

O ITU-R BT.601 determina os parametros para o vídeo digital componente para os sistemas de transmissão de TV 525 linhas / 59.94 quadros /seg e 625 linhas / 50 quadros/seg.
Ele especifica a amostragem ortogonal na freqüência de 13.5 MHz para luminancia e 6.75 MHz para os dois sinais de diferença de cor CB e CR, que são versões em escala dos sinais B-Y e R-Y.

Esta estrutura de amostragem é conhecida na pratica como "4:2:2." Uma nomenclatura que vem do passado, quando múltiplos da freqüência subportadora do NTSC eram adotados como frequencias de amostragem.

Assim o “4” significa quatro vezes a freqüência da subportadora do NTSC 3.375 MHz ou seja: 13.5 MHz. A informação relativa a cor, menos importante para nosso mecanismo de visão pode ser amostrada com a metade da freqüência 6.75 MHz ou “2”, duas vezes a freqüência da subportadora do NTSC, 3.375 MHz.

Uma linha ativa no vídeo digital é formada por 720 amostras de luminancia, e incluem espaços para a representação do apagamento (momento entre o final do traçado de uma linha e o início da próxima em que o sinal é nulo).

Embora originalmente o ITU-R BT.601 especificasse bytes de 8 bits, eles foram aumentados em 2 bits (bytes de 10 bits). Assim a inteface é de bytes de 10 bits, mesmo quando só 8 são utilizados.

Sistemas de Vídeo Digital

Do ITU-R BT.601 se originaram os sistemas de video digital com compressão mais difundidos na atualidade. Mini-DV, DVCam e DVPro. O algoritmo de codificação dos três é idêntico. As diferenças de largura de pista, velocidade da fita, fluxo de informação etc, estão na tabela abaixo.

É importante lembrar que na atualidade, todos os formatos digitais tem que ser convertidos para NTSC e PAL analógicos para serem transmitidos, exibidos em monitores ou televisores convencionais ou gravados em sistemas analógicos como o Betacam SP, MII etc.

Para comparação entre Betacam SP e os formatos digitais, visitem http://www.dvcentral.org/DV-Beta.html Para uma avaliação de dez câmeras DV, visitem http://www.dv.com/magazine/1999/0499/index.html

Compressão e Codecs

O cérebro processa informação visual a uma velocidade de 160 MB/s. O sinal de vídeo NTSC sem compressão tem um fluxo de informação acima de 20 MB/s. Para poder gravar a enorme quantidade de informação resultante da digitalização dos sinais de vídeo e áudio com a tecnologia existente, é necessário que estes dados sejam comprimidos.

O conceito de compressão não é estranho ao mecanismo da visão humana. Existem cerca de 130.000.000 de fotoreceptores no olho, mas apenas 1.000.000 de células ganglionares que processam a informação vinda destes fotoreceptores (cones e bastonetes). Assim nossa visão é “ comprimida” na razão de 1 : 130.

Neste processo parte da informação é descartada, sem que com isso deixemos de enxergar perfeitamente. Hoje sabemos que a visão não resulta de um mecanismo passivo de captação, mas que é construída no cérebro, e depende da sinergia de vários centros cerebrais.

Assim os melhores codificadores/decodificadores (CODECS) projetados para reduzir o fluxo de informação (bitstream) gerado pelo sinal de vídeo, são aqueles que “imitam” os processos que ocorrem no nosso mecanismo de visão. O texto anexo “ O Mecanismo da Visão e como os CODECS o imitam “ trata em detalhe deste assunto.

Existem vários métodos e processos de compressão adotados pela industria. Para exemplificar, iremos apresentar aqui um dos mais utilizados atualmente pela indústria: o MPEG.
O MPEG (Moving Picture Experts Group) é um padrão de compressão para áudio, vídeo e dados estabelecido pela União Internacional de Telecomunicação (ITU).

O padrão MPEG foi originalmente dividido em quatro tipos diferentes. Estes tipos não são atualizações de uma primeira versão original, mas variações independentes do MPEG projetadas para responder a diferentes larguras de banda e padrões de qualidade do vídeo digital.

O codec MPEG oferece três grandes vantagens sobre os demais esquemas de codecs existentes: Oferece compatibilidade universal. Propicia grandes taxas de compressão, reduzindo em até 200:1 o tamanho dos arquivos, e faz isso com quase nenhuma perda de qualidade na imagem final exibida.

O padrão MPEG não determina o quanto de compressão deve ser aplicada ao sinal. Assim os fabricantes de equipamento disputam entre si para oferecer esquemas de compressão cada vez melhores, o que é uma vantagem para os usuários.

Existem duas fases principais no MPEG: codificação e decodificação. Pode-se codificar o sinal de vídeo como uma seqüência de dados (bitstream) MPEG a partir de qualquer origem, inclusive aqueles vídeos capturados e editados no codec M-JPEG. Cabe observar que o processo de codificação é sempre muito mais complexo do que o de decodificação.

O fluxo de dados do MPEG compreende três camadas: vídeo, áudio e sistema. A camada do sistema contem informações sobre sincronização, acesso randômico, administração de amortecedores (buffers) que previnem super e subfluxos, e uma marcação de tempo (time code) para cada frame de vídeo.

Estas três camadas que podem ou não estar codificadas simultaneamente, são arranjadas num processo chamado multiplexação (muxing). A decomposição deste arranjo é chamada de demultiplexação (demuxing). Alguns sistemas fazem esta operação (mux) em tempo real enquanto outros requerem uma operação manual.

Deve se tomar muito cuidado com a qualidade do sinal de vídeo antes de transforma-lo em MPEG, pois qualquer ruído existente no sinal será interpretado pelo codificador como uma mudança na imagem, sendo portanto codificado e passando a fazer parte do bitstream.

Em inglês existe uma sigla para designar este problema: GIMGO (Garbage In = Mega Garbage Out ou seja lixo na entrada = megalixo na saída). Por isso no caso de um sinal ruidoso, deve-se filtrar o sinal de vídeo antes de codificá-lo.

Em vídeo digital utiliza-se o padrão MPEG 2. Foi estabelecido um padrão MPEG 3 para ser utilizado na televisão de alta definição ( HDTV ), mas depois que se percebeu que o MPEG 2 dava conta perfeitamente do volume de informação requerido pela HDTV, o MPEG 3 foi abandonado.

Algumas das regras que regem a captação de vídeo, tem ainda mais validade quando se trata de um sinal a ser codificado e decodificado em MPEG.

São elas:

  •   Evitar fundos com excesso de detalhes (por exemplo: arvores com vento), pois eles vão gerar arquivos enormes que exigirão grandes taxas de compressão, o que por sua vez degradará o sinal. O truque aí é desfocar o fundo para perder detalhe.
  •   Evite linhas retas verticais e diagonais no fundo (persianas p/ex) e quadros ,desenhos ou outras imagens complexas em foco.

Sistemas como o M-JPEG consideram o vídeo como uma série de imagens paradas que se sucedem. Já o MPEG introduziu o fator movimento entre os frames de uma maneira muito mais complexa e detalhada do que os codecs do tipo.

M-JPEG

Estes dois tipos de compressão são conhecidos como intraframe ( M-JPEG) e interframe (MPEG).

Na intraframe, como o nome indica, a compressão se dá dentro do frame, considerado como uma imagem discreta. Na interframe são estabelecidos frames de referência . Desta forma, frames subsequentes podem ser comparados aos que o antecedem e sucedem.

A compressão interframe permite taxas de compressão muito maiores porque apenas a diferença entre os frames é armazenada e não toda a informação de cada um deles.

O MPEG realiza a compressão usando três tipos de frames: I ou intraframe, P ou frame previsto e B ou frame bidirecional. Os intraframes são os únicos frames completos no fluxo do MPEG.

São os maiores arquivos e tem a informação completa, o que os qualifica como pontos de entrada no fluxo, via acesso randômico. Os frames P (previstos) são baseados no frame anterior (que pode ser um intra ou um previsto).

Como apenas as mudanças entre o novo frame e o frame de referência precisam ser armazenadas, os frames previstos costumam se muito comprimidos. Os frames bi-direcionais se referem ao mesmo tempo ao frame seguinte e ao anterior e são os mais comprimidos do fluxo. Como contém muito pouca informação, nunca são usados como frame de referência para os demais.

Existem duas outras técnicas empregadas na compressão MPEG que são importantes que sejam compreendidas: a compensação de movimento e a redundância espacial.

A compensação de movimento é a técnica que determina como o frame previsto ou bi-direcional se relaciona com o seu frame de referência. O primeiro passo na compressão do movimento e dividir o frame em unidades de 16 x 16 pixels, chamadas macroblocos.

Pela comparação dos macroblocos de um frame com os de outro, coincidências ou quase coincidências são encontradas. As semelhanças entre frames podem ser ignoradas, o que reduz significativamente a quantidade de informação que precisa ser armazenada.

Se estes macroblocos semelhantes mudam de posição entre dois frames este movimento é registrado por vetores de movimento armazenados no fluxo MPEG.

A próxima etapa no processo de codificação emprega a técnica da redundância espacial, que reduz mais ainda a informação, ao descrever a diferença entre macroblocos correspondentes. Utilizando-se de um processo chamado transformada discreta de coseno (TDC) (1), os macroblocos são divididos em blocos de 8x8 pixels que rastreiam mudanças em cor e luminancia no decorrer do tempo.

Vejamos um exemplo: Você tem um carro vermelho correndo contra o fundo de um deserto. Como v. tem poucas mudanças no fundo de frame para frame, o codec vai levar em consideração apenas as mudanças na aparência e posição do carro enquanto ele cruza o quadro.

Então vamos ter vetores de movimento que indicam algo como “ agora o carro está a direita, agora no centro, agora à esquerda do quadro e agora saiu do quadro”. Se ao invés disso acompanharmos o movimento do carro numa panorâmica, com ele no centro do enquadramento e o fundo passando rápido, ou seja: mudando de frame a frame, vamos ter mais vetores de movimento descrevendo cada macrobloco na paisagem e apenas um para o carro vermelho que diz: “mesma posição que no frame anterior”.

O fluxo de informação no caso da panorâmica será muito mais complexo e provavelmente corresponderá a imagens com menos qualidade, a menos que a quantidade de bits (bit rate) seja tão alta que consiga acomodar a complexidade da informação existente no sinal de vídeo.

O maior componente de um fluxo MPEG é o grupo de imagens (em inglês, GOP), que é uma unidade que compreende um frame I e seus parentes P e B.

Um grupo de imagens pode ser definido como a menor unidade do MPEG que ainda é passível de decodificação, o que significa que ela contém todos os frames de referência que são usados pelos seus referentes.

Mais informações sobre MPEG em http://bmrc.berkeley.edu/frame/research/mpeg/mpeg2faq.html e sobre compressão em geral em http://www.dspguide.com/datacomp.htm

Os formatos DV e DVCAM não se utilizam da MPEG2 (usada no Betacam SX), mas de uma compressão 5:1 com fluxo de informação constante a 25-Mb/s. Um sistema de compressão que é visto por muitos como um meio caminho entre o M-JPEG e o MPEG.

DV e DVCAM se utilizam do protocolo de transmissão de dados IEEE-1394 (FireWire, desenvolvido originalmente pela Apple Computer) para exportar e importar o sinal. Mais informações sobre o IEEE –1394 em http://www.1394ta.org/

(1) Transformada é uma operação matemática que transforma uma matriz de números num polinômio. É discreta porque atua sobre um sinal amostrado, e não sobre um sinal contínuo. E baseia-se na função trigonométrica coseno.

Edição

Captado, digitalizado, comprimido e gravado, o sinal de vídeo digital estará pronto para ser editado e finalizado.

Nos tempos do vídeo analógico, editava-se um vídeo copiando os trechos escolhidos nas fitas gravadas para uma outra fita. A característica principal deste processo era a sua linearidade, ou seja: se depois de editado v. quisesse introduzir mais um plano o vídeo teria que ser re-editado todo dali para a frente.

Não havia como “abrir espaço” para o novo plano, uma coisa que em cinema sempre foi possível. Era só desfazer a emenda e colocar o novo pedaço de filme entre os dois que anteriormente estavam unidos. No vídeo a única possibilidade de fazer isto era copiar todo o vídeo dali para frente, e emendar depois do novo plano. Como o sinal era analógico, a cada gravação-reprodução, ou geração, introduzia ruído no sinal , o que resultava numa degradação da imagem e do som.

A digitalização do sinal, possibilitou que ele fosse armazenado em discos magnéticos de acesso randomico. Estavam estabelecidas as bases para a edição não linear. A qualquer momento uma imagem nova pode ser colocada no master entre duas já existentes. Os montadores de cinema finalmente começaram a se interessar pelo vídeo...

Edição não-linear é portanto a que se utiliza do armazenamento do vídeo/audio em discos rígidos de acesso randomico. Não é mais necessário esperar que o tape enrole até chegar naquela cena gravada no final do cassete que v. quer usar.

Depois de transferir todos os takes que v. quer usar para o disco, você ira juntas-los em clips ao longo de uma linha de tempo que é exibida na tela de um monitor. Terminada a edição, v. a exporta novamente para um tape que será o seu “master”. Esta passagem pode se dar em tempo real ou precisar “render”, dependendo da velocidade de processamento do sistema que esta sendo utilizado.

Os maiores fabricantes de ilhas não lineares são a Avid (Media Composers dos mais variados modelos para vários tipos de aplicação, inclusive para editar cinema em off- line), Accom (antes Scitex e Imix), Quantel (Harry, Henry, Harriet, EditBox, etc.), Media100, D-Vision (que virou Discreet Logic Edit, e hoje é conhecida por Discreet edit).

Alguns destes sistemas se utilizam de plataformas abertas como MacOS, Windows NT, Truevision, Targa cards etc. A Sony e a Panasonic também fabricam sistemas não lineares para vídeo digital.

Mas a grande revolução na edição não linear de vídeo digital nos formatos DV, DVCAM e DVPRO estão nos sistemas que baseados em plataformas Mac ou Windows NT, utilizam o protocolo de transferência de dados IEEE 1394 (também conhecido como Firewirwe (Apple) e i-Link (Sony).

Sem alterar a compressão no sinal, este protocolo permite edição em tempo real com efeitos com um custo benefício insuperavel. Os principais softwares de edição que se utilizam do IEEE 1394 são : Adobe Premiere, ULead Media Studio, Speed Razor, MotoDV, Video Action e Final Cut Pro. Todos eles aceitam diversos plug-ins como; DPS Spark Plus, Pinnacle DV300 and DV200, Fast DVMaster, Canopus DVRex e DVRaptor, ProMax FireMAX entre outros.

Todas estas configurações se utilizam de discos rígidos de memória do tipo SCSI-2 ou ultra-ATA.

Mais informações sobre edição não linear para vídeo digital em http://www.adamwilt.com/DV-FAQ-editing.html#NLE

Finalização

Se na edição a revolução do digital foi radical, na finalização então nem se fala. Foi na pós produção que o alto custo inicial dos equipamentos digitais se justificou pela capacidade ilimitada de criação de camadas (layers) de vídeo e de efeitos de. O sinal digital se presta a todo tipo de manipulação e a ausência de ruído no processo de geração/reprodução, faz com que as possibilidades sejam quase infinitas.

A Finalização é o que confere o aspecto final ao vídeo, incorporando efeitos na imagem e no som, letreiros, janelas etc. Talvez seja a área no processo onde existe a maior oferta de opções, e consequentemente de custo. Por isso mesmo deve ser muito bem planejada para que não haja desperdício.

Primeiramente deve-se estudar bem a compatibilidade entre sistema e formato da captação e os recursos de finalização que iremos utilizar. Se captamos em DV ou DVCAM o caminho correto e fazer todo o processo se utilizando do protocolo IEEE 1394 (Firewire), assim asseguramos que o sinal estará sempre no dominio digital e com a mesma taxa de compressão.

É comum ver programas gerados em DV e DVCAM terem seu material exportado via componente analógico para sistemas que se utilizam de MPEG2, editados e finalizados aí para depois serem devolvidos ao formato originam da captação.

Certamente estas conversões geram artefatos que degradam a imagem do produto final. A regra de ouro é: Uma vez escolhido um trio domínio, sistema, formato, vá até a cópia final nele. A de prata é: Capte sempre com a melhor qualidade ao seu alcance pois no processo de edição, finalização e exibição, a tendência será sempre degradar.

A Convergência do Digital

O que vinha sendo previsto há algum tempo, esta se concretizando rapidamente: todas as formas de entretenimento digital estão se fundindo numa única corrente de bits. No gráfico acima podemos ver como conteúdos, meios de distribuição e plataformas de uso se relacionam formando uma enorme rede.

Contudo empecilhos de ordem técnica ainda se interpõem a realização do sonho da comunicação total e globalizada. Incompatibilidades entre sistemas na distribuição e nas plataformas vem se constituindo numa barreira de difícil superação. Para ficar num exemplo apenas: a escolha do sistema de transmissão de TV digital no Brasil tem provocado discussões e celeumas que atrasarão a implantação da TV digital entre nós.

A avaliação técnica indicou como melhor opção o sistema japonês, mas geopolíticamente e economicamente seria melhor adotarmos o sistema norte-americano. Além disso, qualquer que seja a decisão, ela terá que ser compartilhada pelos demais países do Mercosul. No momento, o único sistema mundialmente integrado é o que utiliza como plataforma o computador pessoal. Seu sucesso pode ser medido pelos números da internet.

O PC como plataforma é muito versátil. Texto, imagem still, som, imagem em movimento, todos estes formatos cabem nele. O que varia muito é a qualidade obtida, principalmente quando se trata de imagem em movimento. Além de exigir muita memória e processamento rápido o i-movie ,como é conhecido o cinema digital exibido via internet necessita para sua distribuição com qualidade razoável, de uma conexão que permita um fluxo de informação da ordem de 8Mbps. Com qualidade de tv este numero sobe para 30Mbps.

Entre os sistemas em uso temos: O ISDN (Integrated Services Digital Network) que é um conjunto de padrões CCITT/ITU para transmissão digital através de cabos telefônicos comuns (fios de cobre). Sua velocidade chega só a 128Kbps. Outro sistema é o DSL (Digital Subscriber Line) que também usa a linha telefônica, mas que opera simultaneamente com o serviço de voz.

Existem muitas variantes do DSL competindo no mercado (HDSL, SDSL,ADSL,VDSL, etc.) Nos USA estima-se que até 2003 1/3 dos assinantes de internet banda larga estarão usando DSL.

Atualmente a velocidade do DSL é 8Mbps, o que já permite uma melhoria na qualidade da imagem. Ainda através de cabo temos o sistema de tv a cabo que pode ser usado simultaneamente para internet. Sua velocidade 30Mbps permite a mesma qualidade de uma fita VHS.

Por outro lado, usando transmissão por antena ao invés de cabo, temos a DirecTV com 400Kbps que só faz algum sucesso nas áreas remotas onde ainda não existe cabeação.

Enquando a banda passante vem aumentando rapidamente, o desenvolvimento dos codecs ajuda a conseguir mais qualidade por bit transmitido. O objetivo aí é conseguir uma qualidade de imagem decente para usuários com modens de 56kbps, que são hoje a maioria, e qualidade broadcast (ou melhor que VHS) para os usuários de banda larga. Quick Time, Real System, Net Show, and MPEG-4 todos estão se desenvolvendo ao máximo para dar conta do desafio do streaming de filmes digitais na internet de banda larga.

Cinema Digital

Sob esta designação estão os filmes captados, editados e finalizados em digital, mas que podem ser exibidos tanto em projetores digitais como em filme cinematográfico de 35 ou 16mm. Como a rede mundial de distribuição e exibição de cinema está baseada em projetores de filme, para que o d-movie seja exibido nela torna-se necessária um conversão do suporte digital (data em hard disk ou tape), para o filme fotográfico.

Muitos são os processos oferecidos para realizar a transposição entre os dois suportes. A garantia de qualidade do produto final (cópia 35mm) vai depender de alguns fatores. Os mais importantes são a quantidade de informação digital de cada frame, o número de linhas do frame digital, a cadência do formato original, e se este é entrelaçado ou progressivo.

Os processos com mais qualidade usam um mínimo de 2 Kb por frame e um máximo de 4Kb/f. Quanto ao numero de linhas, o top é o HDTV 1125 linhas. Na cadência, o 24 fps é o ideal pois elimina a passagem de 30 fps do vídeo digital para os 24 fps da projeção do filme. Esta passagem que implica em descartar alguns fields provoca durante a projeção uma “flicagem” incomoda principalmente nos movimentos de câmra.


Esquema do projetor digital DMD

Na Europa, com o sistema de televisão standard (STV) PAL (625 linhas 25 fps), a passagem de vídeo digital para filme se dá muito melhor pois as cadencias são muito próximas e o formato ainda tem 100 linhas a mais. O scanning progressivo também tem vantagens sobre o entrelaçado pois elimina os artefatos decorrentes da compressão temporal que resulta do entrelaçamento dos dois campos (fields), que formam o frame.

Algumas empresas tem apresentado projetores digitais que permitem a projeção direta do vídeo digital. Embora 10X mais caros que os equipamentos de projeção de filme convencionais, acredita-se que a médio prazo eles devem prevalecer pois embora o custo inicial da instalação seja alto, o sistema vai eliminar a feitura das cópias cinematográficas e o tráfego das mesmas que representam um custo bem alto para a indústria.

Dos sistemas apresentados até o momento destaca-se o baseado num chip de micro espelhos (DMD). Os quase 4 milhões de micro espelhos proporcionam uma resolução de aproximadamente 2000 linhas horizontais com relação de contraste de até 1.000 : 1 , o que garante uma qualidade de projeção quase inindistinguível da cinematográfica.

Informações detalhadas sobre este sistema estão em http://www.spie.org/web/oer/march/mar99/micromirrors.html e http://www.ti.com/dlp/

Apêndice I

O que quer dizer linear em vídeo?

No senso estrito da palavra, representação linear de dados num sistemas de imagem, se refere a representação dos valores originais de luminância de uma cena numa escala linear. A representação linear de dados é largamente utilizada em imagens geradas por computador, porque os modelos de iluminação, difusão e outros fenômenos físicos são definidos linearmente.

Já o sistema de visão humano responde de forma logarítmica às variações de intensidade na iluminação. Sistemas de imagem digital com um numero limitado de bits, devem ser projetados para que tenham a necessária precisão nos níveis mais baixos (sombras), para que evitem artefatos (contouring) visíveis.

Isso pode ser obtido aplicando-se uma pré-correção logarítmica (gamma correction) nos dados lineares antes da digitalização. Com essa pré correção, o número de bits necessário para eliminar os artefatos no monitor pode ser reduzido de 12 bits em data linear para 8 bits em logarítmica (gamma corrected data).

O filme também é otimizado para a resposta do sistema de visão humano. As curvas de resposta de um filme (curvas H&D ) são logarítmicas. Quando da digitalização de filmes, é mais eficiente captar e armazenar os dados numa escala logarítmica.

A maioria das operações de processamento digitais são operações lineares aplicadas à imagem como um todo. Essas operações podem ser aplicadas a qualquer representação de dados: linear, densidade do negativo e vídeo com gamma corrigida entre outros. Na teoria, operações que envolvem reamostragem espacial e filtragem são melhor realizadas num espaço linear do que num espaço de densidade ou gamma corrigida.

Na prática, muitos sistemas digitais de filme e vídeo foram implementados diretamente num ambiente de correção de gamma, sem linearização.

Sites relacionados com o cinema digital

Topo