top of page

As câmeras convencionais dependem inteiramente de processos químicos e mecânicos, nem mesmo há necessidade de energia eléctrica para operar. Algumas utilizam energia para o flash e para o obturador. Câmeras digitais, no entanto, têm um micro-computador para gravar as imagens electronicamente.Tal como nas câmeras convencionais, a câmera digital contém uma série de lentes, que conduzem a luz para o sensor. Mas em vez de expor um filme fotográfico, utiliza um aparelho semicondutor, que registra a luz eletricamente através de uma gradação em volts, medindo a descarga elétrica gerada pela luz. O micro-computador então transforma essa informação elétrica e analógica em dados digitais, no caso de utilização de sensores CCD, tratando-se de uma CMOS, como veremos a seguir, a captação da imagem já é feita eletronicamente, de forma digital, poupando assim o tamanho e o preço deste tipo de sensor e facilitando sua transformação em imagem.Existem dois tipos de sensores de imagem que convertem a luz em cargas eléctricas, são eles:CCD - dispositivo de carga acopladoCMOS - complementary metal oxide semiconductorAssim que o sensor converte a luz em electrons, ele lê o valor (a carga acumulada) em cada célula da imagem. E aqui é que vêm as diferenças entre os dois sensores:O CCD – transporta a carga pelo chip e lê o valor na esquina da linha. Um conversor analógico-para-digital então troca o valor do pixel para o valor digital, pela medição da quantidade de carga em cada célula.O CMOS usam vários transistores para cada pixel para amplificar e mover a carga usando os tradicionais fios. O sinal já é digital por isso não necessita do conversor analógico-digital.

 

A resolução de uma imagem digital é a sua definição. Como a imagem na tela é formada pela justaposição de pequenos pontos quadriculados, chamados "pixels", a resolução é medida pela quantidade de pixels que há na área da imagem. Logo, sua unidade de medida é o "ppi", que significa "pixels per inch" ou pixels por polegada. A nomenclatura "dpi" - "dots per inches" é utilizada pela indústria gráfica e se relaciona com a quantidade de pontos necessários ´para uma impressão de qualidade, por isso, em termos fotográficos digitais deve-se utilizar a nomenclatura "ppi", que traduz a quantidade de pixels por linha do sensor ou da ampliação da fotografia.Dessa forma, em uma imagem de tamanho definido, quando maior sua resolução, mais pixels haverá por polegada em ambas as dimensões - altura e largura -, levando a conclusão que imagens de "alta resolução" possuem "pixels" pequeninos, até mesmo invisíveis a olho nu, e, imagens de "baixa resolução" possuem "pixels" grandes que acabam por dar o efeito "pixelation", que deixa imagem quadriculada pelo o tamanho exagerado de seus pontos. Isso é comum acontecer quando tentamos ampliar uma imagem de "baixa resolução". Porém, esse conceito vem sendo discutido atualmente, já que sabemos que a quantidade exagerada de pixels por linha do sensor nem sempre corresponde a qualidade efetiva de captação.Já se admite que o sensor deve conter muitos pixeis para ampliações maiores e melhor qualidade e nitidez, porém, se esses pontos/pixels registradores de luminosidade forem demasiadamente pequenos, sua qualidade pode ficar alterada e sua resolução subexplorada.Para otimizar o uso da resolução de imagens temos que atentar ao meio, ou mídia em que ela será veiculada. Algumas dicas:-Imagens para web e multimídia: 72 pixels por polegada (ppi, em inglês)-Imagens para impressão: 300 pixels por polegada (ppi, em inglês)-Imagens para impressão de banners, gráficas especiais ou gigantografia: acima de 600 pixels por polegada (ppi, em inglês).Nas câmeras digitais a resolução é dada por "megapixels", que nada mais são que "milhões de pixels", dados pela multiplicação da resolução da altura pela da largura da imagem. Por exemplo:Imagem com 120 px X 160px = 0.019MPX chamada também de padrão QSIF.Imagem com 480px x 640px = 0.307MPX chamada também de padrão VGA.Imagem com 4.200px x 2690px = 11.298MPX chamada também de padrão WUQSXGA.

 

 

 

A maior parte dos sensores utilizam o filtering para captar a luz nas suas três cores primárias. Assim que a câmera gravar as três cores, combina-as para criar o espectro todo.Isto é feito de várias maneiras.Três sensores separados, presentes em câmaras de alta qualidade, em que cada um regista uma determinada cor. Existe um divisor de luz, que divide a luz pelas três cores que vão incidir em três sensores diferentes, cada sensor capta uma determinada cor. Nestas câmaras os três sensores vêm exactamente a mesma imagem só que em gamas de luz diferentes. Combinando as imagens dos três sensores, forma-se uma só a cores.Um sensor, que vai captando a luz que vai atravessar um filtro vermelho, verde e azul (que está em rotação), ou seja o sensor grava a informação recebida para cada momento em que passa por um filtro diferente. A imagem não é rigorosamente a mesma para cada cor, mesmo que este processo seja feito em milésimos de segundo.Ainda temos o sistema mais económico, que é ter uma matriz em que cada uma das células é uma cor primária, o que se faz é interpolação, ou um palpite educado, baseado na informação da célula vizinha, contudo essa interpolação, tão combatida pelos profissionais pode ser minimizada com o aumento de pixels, ou sensores de luminosidade, diminuindo a margem de erro.O sistema mais comum é o Bayer filter pattern, que é uma matriz onde alterna em cada linha de acordo com dois tipos de linha: uma é a sucessão vermelho e verde, e a outra linha é a sucessão azul e verde. Portanto no total temos a mesma quantidade de células verdes do que a soma das células azuis e vermelhas.A razão disto é que o olho humano é mais sensível à luz verde.Ora temos apenas um sensor e a informação de cada cor é gravada ao mesmo tempo. Então temos um mosaico de vermelho, verde e azul, onde cada pixel tem diferente intensidade. As câmaras têm então um algoritmo de "des-mosaico": a cor verdadeira de cada pixel será determinado pelo valor médio dos pixeis adjuntos. Existe também um outro sistema, o Foveon X3 sensor, que permite captar quatro cores, ciano, magenta, amarelo e preto ou CYMK, m inglês, e não três como os convencionais.

 

Durante o final de 1990 o desenvolvimento de digital de consumo ainda câmeras continuaram em um ritmo rápido. A maioria dos fabricantes considerou a produção de melhoresCCDs (Charge Coupled Devices) como chave, pois o número de pixels no CCD determina em grande parte a resolução da imagem. Em 1998, foram introduzidas as primeiras câmeras megapixel de consumo, menos de um ano depois, os mesmos fabricantes estavam produzindo 2,3 câmeras megapixel. Durante este período, os preços de câmeras digitais caíram e outras características, tais como lentes de zoom, foram adicionados para atrair mais clientes para este mercado em crescimento.

Câmera: MX-2700 
Fabricante: Fuji  
Data: 1999

Em setembro de 2000 Canon EOS D30 introduziu o, o primeiro digitais SLR para o mercado consumidor. A câmera tem um 3,25 megapixel CMOS sensor de desenvolver pela Canon. A EOS D30 foi a primeira alta qualidade SLR câmera para usar um CMOS Sensor em vez de um CCD . 

Câmera: EOS D30 
Fabricante: Canon  
Data: 2000

Em Novembro de 2000 a Sharp ea J-Phone introduziu a primeira câmera de telefone no Japão. O J-SH04 é um telefone móvel que inclui uma câmera com uma 110,000-pixelCMOS sensor de imagem.

Câmera: J-SH04 
Fabricante: afiada  
Data: 2000

Em 2002, a Contax introduziu o NDigital a primeira SLR câmera digital com um CCD do mesmo tamanho de um quadro de 35 mm. Para a mesma distância focal do NDigital daria, pois, o mesmo ângulo de visão como uma câmara de 35 mm.

Câmera: NDigital 
Fabricante: Contax  
Data: 2002

 

bottom of page