Fecha actual Mié Oct 23, 2024 12:15 am


La cruda realidad "MPx Reales"

Noticias sobre fotografía, reflexiones, fotógrafos y obras, exposiciones,...

Moderadores: Guillermo Luijk, Pablo Valido, laucsap60, klomp, Siniestro

Re: La cruda realidad "MPx Reales"

Notapor SantiEsp » Mar Ago 20, 2013 12:15 am

Guillermo Luijk escribió:Si en esas 3 combinaciones la que peor nitidez da es la D7000 con el 105, se cumple que para tener mucha nitidez en la imagen final:
1. Objetivos del sistema
2. Cumplido 1, sensor lo más grande posible

Eso sí, la D800 no me cabe en mi bolsa, así que me quedo con la E-P2 y objetivos del sistema :D


En ésto último totalmente de acuerdo, además pensando que las m4/3 con sus ópticas superan a algunas APS-c que tampoco me caben en la bolsa ;) :lol:
SantiEsp
 
Mensajes: 532
Registrado: Sab Dic 31, 2011 2:16 pm
Ubicación: Madrid

Re: La cruda realidad "MPx Reales"

Notapor Manolo Portillo » Mar Ago 20, 2013 12:33 am

SantiEsp escribió:A ver manolo, un pixel está compuesto de 4 fotodiodos con un filtro cada uno, dos filtros verdes, uno azul y uno rojo, de tal manera que cada uno de ellos deja pasar los fotones en función de su color, o en funcion de la longitud de onda a la que vibran. Estos fotones que pasan generan una energía o corriente eléctrica en cada uno de los 4 fotodiodos de los que está compuesto el pixel, en función de ésos valores electricos y aplicando un algoritmo que sinceramente no conozco calculan el color del pixel y ese color lo codifican a 0 y 1, en un total de 8 bits, aunque creo que los hay de 12.


Seamos rigurosos, please. Cuando hablamos de píxeles de un sensor, realmente estamos hablando de fotocaptores.
Pixel es una contracción de picture element, y se refiere a la unidad de información de una imagen en mapa de bits, independientemete de la profundidad (o niveles de luminosidad por canal) que tenga cada uno.
Un pixel, por tanto, no está formado por cuatro fotodiodos ni por ninguno. Pixel y fotodiodo son cosas muy diferentes.

Pero coloquialmente y por extensión llamamos pixeles a los fotocaptores del sensor, y en ese caso, cada pixel es un fotocaptor y no cuatro fotocaptores.
Avatar de Usuario
Manolo Portillo
 
Mensajes: 3356
Registrado: Jue Feb 04, 2010 7:27 pm
Ubicación: Murcia

Re: La cruda realidad "MPx Reales"

Notapor SantiEsp » Mar Ago 20, 2013 12:49 am

Manolo, puedo entender que no me creas a mi, ya que llevo poco en ésto de la fotografía, pero me dedico a temas informáticos y electrónicos desde los 13 años... a ver si a éstos si los crees:

http://es.wikipedia.org/wiki/Mosaico_de_Bayer

Saludos y ya si que me voy a la cama :D 8-)
SantiEsp
 
Mensajes: 532
Registrado: Sab Dic 31, 2011 2:16 pm
Ubicación: Madrid

Re: La cruda realidad "MPx Reales"

Notapor Manolo Portillo » Mar Ago 20, 2013 1:23 am

Gracias, pero no tengo que mirar la Wiki para saber lo que es la matriz de Bayer. Hasta ahí llego.

Si lo que querías decir es que en un sensor con filtro de Bayer cada cuatro captores con su respectivo filtro de color generan realmente un picture element o pixel en color, estamos de acuerdo. Y después, el revelador raw, el de la cámara o el que sea, interpola (inventa) los otros tres que han desaparecido en función de los adyadentes, de modo que la imagen final tiene los mismos pixeles (inventados o no) que fotocaptores tenía el sensor. El algoritmo que usen para ello es indiferente para lo que nos ocupa.

Pero es que no has dicho eso. Has dicho que cada cuatro fotodiodos son un pixel. Que el tamaño de salida final o ampliación no depende del tamaño del sensor ni de la imagen en él proyectada. Que un pixel gordo es más fiel a la realidad que otro flaco, pero que eso da igual porque la información que transmiten es la misma. Has añadido no sé que cosas más de 8 ó 12 bits que no sé a cuento de que vienen en esta discusión, y eso no es muy correcto.

Los bits y los canales que tenga un pixel pueden ser muchos o pocos, pero no por ello deja de ser un pixel y un pixel no son cuatro fotodiodos, aunque lo digan en esa Wiki que no he tenido el gusto de leer. Existen sensores que no llevan filtro de Bayer como el Foveon y el monocromático de Leica, en el que cada pixel es generado por un único fotocaptor y no por cuatro.

Incluso en una imagen captada con un sensor con filtro de Bayer se puede realizar un procesado sin interpolar y en ese caso, cada pixel de imagen correspoderá a un fotocaptor del sensor, no a cuatro.

En fin, buenas noches que ya es muy tarde.
Avatar de Usuario
Manolo Portillo
 
Mensajes: 3356
Registrado: Jue Feb 04, 2010 7:27 pm
Ubicación: Murcia

Re: La cruda realidad "MPx Reales"

Notapor ntsour » Mar Ago 20, 2013 9:50 am

Que me disculpen el "ruido" los protagonistas de los debates del hilo pero a mi me está costando seguirlos. En el afán de entenderlos creo que ayuda primero entender los conceptos que se describen en los artículos abajo (a falta de un curso completo de óptica/fotografía):

http://www.falklumo.com/lumolabs/articl ... index.html
http://www.cambridgeincolour.com/tutori ... graphy.htm
http://www.luminous-landscape.com/essay ... tml#_end13

Si alguien puede recomendar otras lecturas mas sencillas o más complejas o incluso en español bienvenidas son.

Es un hilo interesante desde luego, sobre todo para aquellos que estamos empezando ahora...
ntsour
 
Mensajes: 121
Registrado: Dom Dic 16, 2012 8:03 pm

Re: La cruda realidad "MPx Reales"

Notapor tonilupi » Mar Ago 20, 2013 10:44 am

Buf..., menudo hilo. Me gusta :-)

Partiendo el problema en cachitos pequeños, que son más fáciles de afrontar, y después de recuperarme del shock que me producen ciertas informaciones que leo y que chocan con mis creencias:

En un sensor con filtro Bayern, el algoritmo de demosaico genera o "se inventa" 4 pixels por cada 4 fotocaptores. Al que le guste leer y tenga tiempo le recomiendo analizar el código del DCRAW.
En un sensor Foveon, que tiene tres capas de color, por cada tres fotocaptores "apilados" se genera un pixel.
El sensor de Leica ese no lo conozo.
Más de una vez he pensado que sería interesante quitarle el filtro Bayern a un sensor y tirar en BN.

Más adelante intentaré sacar algo más de tiempo para poder seguir compartir mis creencias con vosotros, a ver si al final podemos crear la Biblia del Pixel.
tonilupi
 
Mensajes: 60
Registrado: Sab Ene 19, 2013 10:37 pm

Re: La cruda realidad "MPx Reales"

Notapor gonzabg74 » Mar Ago 20, 2013 11:31 am

Yo creo que todo esto es un poco lioso. No creo que ninguno de nosotros tenga en cuenta tantos cálculos a la hora de comprar tal o cual cámara u objetivos.

Pero hay varias cosas de las que tengo dudas si son ciertas o no:

1- Cuanto mas calidad dé un objetivo, mejor. En la mayoría de casos objetivos fijos.
2- Usar objetivos para FF en cámaras APS-C conlleva menor calidad que si esos objetivos se usan en FF. ¿Porqué?, porque una cámara APS-C sólo 'recoge' la parte central de ese objetivo y da como resultado una imagen de, por ejemplo, 16 mpx. Mientras que la cámara FF 'reocge' todo lo que entra a través del objetivo y dá una imagen de, por ejemplo, 20 mpx. Pero esto también dependería de los mpx de la cámara: entiendo pues, que una cámara APS-C de 8 mpx usando un objetivo FF nos dará mas calidad que una APS-C de 16 mpx con el mismo objetivo. Pero una FF de 20 mpx nos dará mas calidad que las otras dos APS-C. Siempre y cuando el objetivo sea de calidad.

Un saludo.
gonzabg74
 
Mensajes: 1369
Registrado: Mar Nov 01, 2011 10:35 am

Re: La cruda realidad "MPx Reales"

Notapor SantiEsp » Mar Ago 20, 2013 11:37 am

Manolo Portillo escribió:Si lo que querías decir es que en un sensor con filtro de Bayer cada cuatro captores con su respectivo filtro de color generan realmente un picture element o pixel en color, estamos de acuerdo. Y después, el revelador raw, el de la cámara o el que sea, interpola (inventa) los otros tres que han desaparecido en función de los adyadentes, de modo que la imagen final tiene los mismos pixeles (inventados o no) que fotocaptores tenía el sensor. El algoritmo que usen para ello es indiferente para lo que nos ocupa.


Exactamente éso quería decir, lo llevo diciendo desde el principio, pero el revelador Raw para nada inventa los otros tres, que no se porque dices que han desaparecido. Hay algo de confusión, o éso creo en el tema de los pixeles, cuando se dice que un sensor tiene 16Mpix, tienes razón en que tiene 16.777.216 fotodiodos, pero cada uno de éstos fotodiodos sólo da un valor de intensidad de un color, para generar un pixel de color es necesario interpolar/calcular el color en función del valor de 4 de éstos fotodiodos, 2 verdes, 1 rojo, y uno azul. La gracia de la distribución de la matriz bayer es precisamente que es capaz de conseguir casi los 16Mpix de color, porque cada fotodiodo está "rodeado" de 2 verdes, él mismo y uno azul o rojo. El valor de intensidad de color de cada fotodiodo se guarda en un fichero binario codificado en 8 bits que no es otra cosa que una fila de 16.777.216 grupos de 8 bits(01010101010100101010101010101010101010010101010101...., así hasta 134.217.728 bits, también guarda información de la cámara, del objetivo, de la apertura de la velocidad, etc,. Ése es el fichero Raw, y para nada guarda ninguna información del tamaño del sensor con el que fue tomada la imagen.

Lo que te quiero transmitir y ya veo que no soy capaz, es que si el sensor es mayor, la información será más fiable porque los fotodiodos han recibido más fotones y por ése motivo pueden precisar más la intensidad de ése color.

Cuando revelamos y pasamos a JPG por ejemplo, el programa revelador o la cámara, si disparamos también en ese formato, coge la información de 4 fotodiodos, en el que hay dos verdes, 1 rojo, y uno azul, e interpola/calcula el color resultante de esa combinación, eso es un pixel de color, ése pixel ya tiene 24 bits, para poder representar el "color verdadero". Ese valor binario se almacena también en el disco duro, tarjeta de memoria o lo que sea, en 0s y 1s. A continuación se mueve una columna a la derecha y vuelve a hacer lo mismo utilizando el valor de dos fofodiodos de los del primero más dos nuevos, así sucesivamente hasta que llega al final de la primera línea y vuelve a la segunda donde vuelve a hacer lo mismo que en la primera, y así sucesivamente hasta que se acaban los 134.217.728 bits del raw.

Además si es en JPG, busca patrones de colores muy parecidos y si los hay, en vez de almacenar el color real calculado de un pixel de color almacena una dirección donde le dice el color que tiene ése pixel, ésto lo hace para comprimir el fichero y que ocupe menos espacio, megas, en el disco duro, aunque se pierdan tonalidades de color, por ése motivo los JPG no ocupan todos lo mismo, y su tamaño depende de la cantidad de pixeles de color que el algoritmo de compresión decida que son iguales.

Por lo tanto y el motivo inicial de la discusión, no hay una imagen más pequeña almacenada en el disco o tarjeta de memoria, si el sensor es más pequeño, o más grande si el sensor es mas grande, no hay imagen, no hay negativo, que después debas ampliar más o menos, si un sensor mayor reporduce más fielmente la realidad lo hace en el el momento de la captura porque los fotodiodos son de más tamaño y pueden capturar más fotones.

Espero que por fin me entiendas y comprendas que decir que un sensor más pequeño captura menos información que uno grande, con el mismo numero de Mpix, es un error.

No voy a hablar del foveon porque es otra historia aunque, básicamente es lo mismo, y no creo que merezca la pena complicar más el tema sobre todo porque el utilizado en el 90% de las cámaras es el de la matriz de bayer.

Como verás, o quizás no, hay concetos, como tú les llamas, a veces incluso rozando la falta de respeto, que algunos foreros tenemos muy claros. ;)

Y cambiando de tema, o no, vamos de lo que va el post :D , mi conclusión es que, como decía Guillermo:

1. Objetivos del sistema
2. Cumplido 1, sensor lo más grande posible

Vamos que los de DxO Mark "tienen razón", y éso para mi es nuevo, quizás para vosotros no, pero hasta ahora yo pensaba que el tamaño del sensor no influía en la nitidez :evil:

Salu2
SantiEsp
 
Mensajes: 532
Registrado: Sab Dic 31, 2011 2:16 pm
Ubicación: Madrid

Re: La cruda realidad "MPx Reales"

Notapor ntsour » Mar Ago 20, 2013 12:22 pm

SantiEsp escribió:
Espero que por fin me entiendas y comprendas que decir que un sensor más pequeño captura menos información que uno grande, con el mismo numero de Mpix, es un error.

Salu2


Quieres decir que ambos sensores pueden idealmente captar y almacenar en el raw la misma información?

Que para combinaciones de sistemas con lente "equivalentes" (en el sentido que se describe en http://www.falklumo.com/lumolabs/articles/equivalence/) efectivamente creo que podrían ser iguales exactamente.

Pero que en la practica, por las ventajas de tamaño que tiene el sistema del sensor/lentes grande es posible que en el raw final del sensor grande se guarde mas información por tener potencialmente mayor resolución? O sea que en este caso si hacemos compresión sin perdida el fichero final será mayor por contener mayor información a pesar de que los raws de ambos tenga el mismo tamaño en bits.
ntsour
 
Mensajes: 121
Registrado: Dom Dic 16, 2012 8:03 pm

Re: La cruda realidad "MPx Reales"

Notapor vicenparra » Mar Ago 20, 2013 1:08 pm

La misma cantidad pero no el mismo valor.
Un sensor mejor puede ser mas preciso que uno peor, teniendo la misma resolución.

Enviado desde mi MB525 usando Tapatalk 2
Panasonic Gx7 y Oly Pen 8, Oly M5 Mk2, Samyang 7.5mm 3.5, Pana 14 mm, Pana 20mm 1.7, Oly 45mm 1.8, Sigma 30mm ex dn.
Avatar de Usuario
vicenparra
 
Mensajes: 382
Registrado: Mié Ago 15, 2012 6:18 am
Ubicación: Madrid

Re: La cruda realidad "MPx Reales"

Notapor tonilupi » Mar Ago 20, 2013 1:33 pm

vicenparra escribió:La misma cantidad pero no el mismo valor....

No estoy de acuerdo.
Una vez convertida la señal analogica a digital el valor sera el mismo, otra cosa distinta es que el fotodiodo mayor en tamaño o mejor en tecnologia ofrezca una relacion señal/ruido mayor, con lo que el valor obtenido podra ser mas aproximado al real.
tonilupi
 
Mensajes: 60
Registrado: Sab Ene 19, 2013 10:37 pm

Re: La cruda realidad "MPx Reales"

Notapor SantiEsp » Mar Ago 20, 2013 2:24 pm

ntsour escribió:Quieres decir que ambos sensores pueden idealmente captar y almacenar en el raw la misma información?


Exactamente la misma cantidad de información, lo que puede variar es la calidad de la misma. Pero si a dos sensores de distinto tamaño y de igual número de Mpix, le damos unas condiciones fáciles de luz, contraste, etc. la información además de tener la misma cantidad, tendrá la misma calidad.

Imaginaos que sois un fotodiodo y que os toca currar en un sensor pequeño, te metes en tu "despacho", el cual tiene una ventanita de 10x10cm, imaginaos que los fotones son pelotas verdes, azules y rojas de 5cm de diámetro. A ti te han tocado las azules y a tu ventanita solo van a llegar pelotas azules porque hay un tipo antes que solo deja pasar las azules y las mete en un embudo con una salida del tamaño de tu ventana. Tu trabajo consiste en descubrir la intensidad del azul en función del número de pelotas que entran por ésa ventanita. El rango de medida de la intensidad va de 0 a 255. Si no entra ninguna, la intensidad es 0 y para comunicárselo al dpto de "traducción" le envías un telegrama con 00000000, sin embargo si entran 255 o más le envías 11111111.

Ahora bien el tiempo que está abierta la ventana no es mucho, y en ése tiempo tienen que entrar las suficientes pelotas como para que sea un a muestra representativa de la intensidad del color azul del trocito de la imagen que nos ha tocado. Las pelotas se mueven un poco como les da la gana(vibran) y como la ventana es muy pequeña las han tenido que juntar mucho, y se puede dar el caso de que algunas reboten contra otras y no lleguen a la ventana, así que es posible que en ése tiempo entren 6 cuando realmente deberían haber entrado por ejemplo 20, con lo cual tu estimación de la intensidad del azul ya no es lo precisa que debería.

Al día siguiente te toca un FF, con una pedazo de ventana de 1x1m, el mismo número de pelotas van hacía la misma, pero esta vez mas separadas ya que no hace falta juntarlas tanto porque la ventana es más grande.

¿En cual de ésos dos despachos pensáis que hay menos posibilidades de equivocarse a la hora de calcular la intensidad real del azul de ese trocito de imagen que nos toca?

Pero al dpto de "traducción" le llegan la misma cantidad de datos y por lo tanto de información.

Perdonad por el ejemplo tan "tonto" :lol: :lol:

Salu2
SantiEsp
 
Mensajes: 532
Registrado: Sab Dic 31, 2011 2:16 pm
Ubicación: Madrid

Re: La cruda realidad "MPx Reales"

Notapor dukenukem » Mar Ago 20, 2013 2:31 pm

La cosa es...a tamaños "normales" de impresión o visualización en pantalla ¿alguien es capaz de encontrar diferencias entre una foto tirada con una FF y otra con una Micro 4/3?

A ver quién tiene narices a hacer una prueba ciega :lol: :lol:
Avatar de Usuario
dukenukem
 
Mensajes: 3191
Registrado: Mar Ago 23, 2011 3:49 pm
Ubicación: Entre Llanes y Tapia

Re: La cruda realidad "MPx Reales"

Notapor taklamakan » Mar Ago 20, 2013 2:47 pm

SantiEsp escribió:
Manolo Portillo escribió:Si lo que querías decir es que en un sensor con filtro de Bayer cada cuatro captores con su respectivo filtro de color generan realmente un picture element o pixel en color, estamos de acuerdo. Y después, el revelador raw, el de la cámara o el que sea, interpola (inventa) los otros tres que han desaparecido en función de los adyadentes, de modo que la imagen final tiene los mismos pixeles (inventados o no) que fotocaptores tenía el sensor. El algoritmo que usen para ello es indiferente para lo que nos ocupa.


Exactamente éso quería decir, lo llevo diciendo desde el principio, pero el revelador Raw para nada inventa los otros tres, que no se porque dices que han desaparecido. Hay algo de confusión, o éso creo en el tema de los pixeles, cuando se dice que un sensor tiene 16Mpix, tienes razón en que tiene 16.777.216 fotodiodos, pero cada uno de éstos fotodiodos sólo da un valor de intensidad de un color, para generar un pixel de color es necesario interpolar/calcular el color en función del valor de 4 de éstos fotodiodos, 2 verdes, 1 rojo, y uno azul. La gracia de la distribución de la matriz bayer es precisamente que es capaz de conseguir casi los 16Mpix de color, porque cada fotodiodo está "rodeado" de 2 verdes, él mismo y uno azul o rojo. El valor de intensidad de color de cada fotodiodo se guarda en un fichero binario codificado en 8 bits que no es otra cosa que una fila de 16.777.216 grupos de 8 bits(01010101010100101010101010101010101010010101010101...., así hasta 134.217.728 bits, también guarda información de la cámara, del objetivo, de la apertura de la velocidad, etc,. Ése es el fichero Raw, y para nada guarda ninguna información del tamaño del sensor con el que fue tomada la imagen.

Lo que te quiero transmitir y ya veo que no soy capaz, es que si el sensor es mayor, la información será más fiable porque los fotodiodos han recibido más fotones y por ése motivo pueden precisar más la intensidad de ése color.

Cuando revelamos y pasamos a JPG por ejemplo, el programa revelador o la cámara, si disparamos también en ese formato, coge la información de 4 fotodiodos, en el que hay dos verdes, 1 rojo, y uno azul, e interpola/calcula el color resultante de esa combinación, eso es un pixel de color, ése pixel ya tiene 24 bits, para poder representar el "color verdadero". Ese valor binario se almacena también en el disco duro, tarjeta de memoria o lo que sea, en 0s y 1s. A continuación se mueve una columna a la derecha y vuelve a hacer lo mismo utilizando el valor de dos fofodiodos de los del primero más dos nuevos, así sucesivamente hasta que llega al final de la primera línea y vuelve a la segunda donde vuelve a hacer lo mismo que en la primera, y así sucesivamente hasta que se acaban los 134.217.728 bits del raw.

Además si es en JPG, busca patrones de colores muy parecidos y si los hay, en vez de almacenar el color real calculado de un pixel de color almacena una dirección donde le dice el color que tiene ése pixel, ésto lo hace para comprimir el fichero y que ocupe menos espacio, megas, en el disco duro, aunque se pierdan tonalidades de color, por ése motivo los JPG no ocupan todos lo mismo, y su tamaño depende de la cantidad de pixeles de color que el algoritmo de compresión decida que son iguales.

Por lo tanto y el motivo inicial de la discusión, no hay una imagen más pequeña almacenada en el disco o tarjeta de memoria, si el sensor es más pequeño, o más grande si el sensor es mas grande, no hay imagen, no hay negativo, que después debas ampliar más o menos, si un sensor mayor reporduce más fielmente la realidad lo hace en el el momento de la captura porque los fotodiodos son de más tamaño y pueden capturar más fotones.

Espero que por fin me entiendas y comprendas que decir que un sensor más pequeño captura menos información que uno grande, con el mismo numero de Mpix, es un error.

No voy a hablar del foveon porque es otra historia aunque, básicamente es lo mismo, y no creo que merezca la pena complicar más el tema sobre todo porque el utilizado en el 90% de las cámaras es el de la matriz de bayer.

Como verás, o quizás no, hay concetos, como tú les llamas, a veces incluso rozando la falta de respeto, que algunos foreros tenemos muy claros. ;)

Y cambiando de tema, o no, vamos de lo que va el post :D , mi conclusión es que, como decía Guillermo:

1. Objetivos del sistema
2. Cumplido 1, sensor lo más grande posible

Vamos que los de DxO Mark "tienen razón", y éso para mi es nuevo, quizás para vosotros no, pero hasta ahora yo pensaba que el tamaño del sensor no influía en la nitidez :evil:

Salu2



Bien explicado. No entiendo porqué algo tan obvio es tan difícil de entender por algunos. :roll:
taklamakan
 

Re: La cruda realidad "MPx Reales"

Notapor Manolo Portillo » Dom Ago 25, 2013 9:33 pm

Gobo escribió:Voy a meter baza... :D
16Mpx son 16Mpx independientemente del tamaño del pixel, del sensor y de lo que sea. El archivo resultante, si los fabricantes no manipulan, es idéntico, y si la fotografía se ha hecho con el mismo objetivo, suponiendo que resuelva las lineas necesarias, las imágenes resultantes serán idénticas.


16 MP son 16 MP independientemente del tamaño del sensor, claro que sí, y cuatro ruedas son cuatro ruedas independientemente de su tamaño y de cualquier otra consideración. Por tanto, todos los coches que tienen cuatro ruedas tienen la misma estabilidad.
¿Verdadero o falso?.

Lo que dices es falso, Gobo. Y como demostración un ejemplo muy simple que creo y espero que sea fácil de entender.

La difracción. ¿Por qué afecta más la difracción, a igualdad de diafragma, a un sensor pequeño que a uno grande, independientemente del número de fotocaptores que tenga cada uno?
Los círculos de Airy de difracción, serán iguales (del mismo diámetro) en ambos casos y ocuparán más píxeles pequeños que grandes (o más superficie relativa de sensor, al margen del tamaño del pixel) por lo que serán más evidentes y empeorarán más la resolución en el sensor pequeño que en el grande, porque aparecerán más ampliados en la imagen final.

Por tanto, las imágenes resultantes ampliándolas al mismo tamaño NO son idénticas ni tienen la misma resolución, por la sencilla razón de que la pequeña LA HEMOS AMPLIADO MÁS.
16 MP son 16 MP independientemente del tamaño del sensor, claro que sí, pero la imagen e información que producen NO SON IGUALES ni independientes del tamaño del sensor ni del tamaño del pixel.

Aparte de que, como dice Guillermo, con un mismo objetivo y distintos tamaños de sensores, es IMPOSIBLE que las imágenes resultantes sean idénticas, pues la del sensor pequeño es un recorte de la del sensor grande, con más resolución en el caso de sensores con los mismos MP y con la misma si los dos sensores tuviesen los mismos px/mm.

EL TAMAÑO DEL FORMATO Y, POR TANTO, DE AMPLIACIÓN SÍ IMPORTAN EN LA RESOLUCIÓN FINAL DE LA IMAGEN.

taklamakan escribió:No entiendo porqué algo tan obvio es tan difícil de entender por algunos. :roll:

Eso mismo me pregunto yo. 8-)
Avatar de Usuario
Manolo Portillo
 
Mensajes: 3356
Registrado: Jue Feb 04, 2010 7:27 pm
Ubicación: Murcia

Re: La cruda realidad "MPx Reales"

Notapor Principiodei » Lun Ago 26, 2013 12:18 am

Queda claro que un FF dará más calidad final. Entiendo que para sacar unas copias a 20x15 dará igual que uses una cámara micro4tercios que una FF.

Mi duda: si tenemos una misma escena fotografiada con ambas cámaras, utilizando focales equivalentes y un mismo encuadre; en una aplicación para una exposición fotográfica... ¿Qué tamaño máximo de impresión podré utilizar con cada fotografía para que la calidad de la imagen impresa sea apta para una exposición?

Me gustaría saber cuál es el límite para una impresión en ambos formatos ¿puede un sensor m4/3 dar para sacar una impresión de calidad en A2 o en A1?

Perdonad mi ignorancia. Pero estas dudas me asaltan leyendo este hilo.
APARENTAR tiene más letras que SER.
OMD EM5
http://www.flickr.com/photos/emiliopinto/
Avatar de Usuario
Principiodei
 
Mensajes: 220
Registrado: Vie Jul 12, 2013 8:50 pm
Ubicación: Huelva

Re: La cruda realidad "MPx Reales"

Notapor Manolo Portillo » Lun Ago 26, 2013 12:46 am

Principiodei escribió: ¿Qué tamaño máximo de impresión podré utilizar con cada fotografía para que la calidad de la imagen impresa sea apta para una exposición?

Pues depende de 4 cosas principalmente: de la calidad del objetivo, del número de píxeles, del tamaño del sensor (o del soporte que sea) y de la distancia de observación.
A más tamaño de sensor es posible una mayor ampliación manteniendo la resolución (aunque algunos de por aquí estén profundamente convencidos de lo contrario y piensen que gracias al milagro de los ceros y los unos el tamaño da igual y que la ampliación no existe), y a más píxeles del sensor mayor ampliación será posible también.

El límite en el que no importa una mayor resolución lo marca la que es capaz de resolver el ojo a una distancia dada de observación, pues como dijo el griego, "el hombre es la medida de todas las cosas."
El ojo, a una distancia normal de observación (30-50 cm) distingue unos 4 ó 6 pl/mm (depende del ojo, claro); por tanto, toda ampliación que alcance esa resolución, y esté pensada para observarse a esa distancia o más, es perfectamente válida.

Para una típica copia de 10x15 cm que se mira a 25 cm de distancia la más miserable compacta de 2 MP y cualquier móvil van sobradísimos de resolución aunque a lo mejor carecen de otras cosas. No hacen falta una FF ni una de gran formato para que esa copia tenga una resolución suficiente.

Una valla publicitaria de 13 metros de ancho, que se ve desde la autopista perfectamente nítida, tiene una resolución ridícula y no necesita más, con 36 px/pulgada (14 px/cm ó 1,4 px/mm) del archivo de impresión sobra. Pero si pudieses acercarte a 50 cm de distancia de ella solo verías puntos gordotes y ninguna imagen definida.

Todo es relativo a lo que se pretende y los límites en estas cosas siempre han sido los mismos, incluso antes de que existieran los megapíxeles: el uso que se le vaya a dar, la pasta que cueste y el ojo del hombre. ;)
Avatar de Usuario
Manolo Portillo
 
Mensajes: 3356
Registrado: Jue Feb 04, 2010 7:27 pm
Ubicación: Murcia

Re: La cruda realidad "MPx Reales"

Notapor Arenaza » Lun Ago 26, 2013 5:18 am

Creo que el concepto de ampliación se está utilizando con distinto significado y esto da lugar a equívocos. Quizá el desacuerdo sera más una cuestión semántica que de fondo.

Un fichero digital no tiene "tamaño" de imagen, es solamente un conjunto de códigos que representan elementos de una matriz. Nadie puede adivinar a partir de un fichero raw cuál es el tamaño del sensor por la sencilla razón de que es una información que no figura por ninguna parte, ni directa ni indirectamente. Por tanto, en sentido estricto no existe ampliación de imagen. La posible relación o proporción entre el tamaño de la imagen que capta el sensor y la imagen final obtenida sobre papel queda destruida totalmente en el momento en que se codifica en un fichero binario y se convierte en una información "abstracta", no física. En este sentido el concepto de ampliación que se maneja en fotografía química no tiene ningún significado en fotografía digital.

Otra cosa diferente es que, a igualdad de píxeles, un sensor grande produce unos códigos binarios que representan de manera más precisa la información luminosa que han recibido que un sensor pequeño. Esto es lo que se podría llamar "calidad" de la información elaborada por el sensor, pero en ningún caso "cantidad" de información. El código tiene idénticas dimensiones en ambos casos, lo que sucede es que puede decir cosas un poco diferentes.

El resultado es que, a igualdad de píxeles, en general los sensores grandes producen códigos que permiten obtener reproducciones finales de la imagen de mayor tamaño que los códigos producidos por sensores más pequeños porque la información contenida en esos códigos es de mejor calidad en el sensor grande que en el pequeño, pero no hay más información en uno que en el otro.

Pero, ojo, eso es debido a una cuestión de calidad de información, producida por distintos factores como difracción, etc., no debida al tamaño de imagen captada por el sensor. En la fotografía química sí se podía hablar de tamaño de negativo porque la calidad de la película y el grano eran uniformes de manera que el tamaño del negativo influía directamente en la "cantidad de información recogida" que se traspasaba al papel, cosa que no sucede en el sensor digital cuya base de información es el píxel y estamos hablando de sensores de distinto tamaño pero con el mismo número de píxeles, por tanto de ficheros binarios del mismo tamaño.

En sentido estricto, cuando reproducimos fotos digitales sobre papel no deberíamos hablar de "ampliaciones" , vocablo que procede del argot químico y que presupone un original que se amplía, sino de reproducciones en distinto formato.

Llevando las cosas al extremo, la imagen digital de mayor tamaño sería la que tuviese mayor número de píxeles, aunque fuese de un sensor pequeño, porque sería la que daría un fichero final con más cantidad de información, aunque fuese de mala calidad. Pero esto seguiría siendo equívoco por lo que es mejor hablar de tamaño (o peso) del fichero digital pero no de tamaño de la imagen captada.

En resumen, creo que es una cuestión semántica de a qué llamamos "tamaño" de la imagen captada y su "ampliación" correspondiente. En sentido coloquial quizás se pueda utilizar para referirse al tamaño del sensor, pero personalmente no me gusta nada porque puede inducir a confusión de conceptos por analogía con la fotografía química. Prefiero mil veces hablar de peso de los ficheros y formato de las reproducciones que de tamaño de la imagen y su ampliación. Bien entendido que las cuestiones de calidad son otra cosa: A igualdad de píxeles generalmente sensor grande da mejor calidad que sensor pequeño y por tanto permite realizar reproducciones de formato más grande.
Olympus OM-D M-5 y algunos objetivos Zuiko y Pana.
Arenaza
 
Mensajes: 1027
Registrado: Sab Dic 15, 2012 10:25 am
Ubicación: Barcelona

Re: La cruda realidad "MPx Reales"

Notapor Manolo Portillo » Lun Ago 26, 2013 11:25 am

Arenaza escribió:Un fichero digital no tiene "tamaño" de imagen, es solamente un conjunto de códigos que representan elementos de una matriz. Un fichero digital no tiene "tamaño" de imagen, es solamente un conjunto de códigos que representan elementos de una matriz. Nadie puede adivinar a partir de un fichero raw cuál es el tamaño del sensor por la sencilla razón de que es una información que no figura por ninguna parte, ni directa ni indirectamente. Por tanto, en sentido estricto no existe ampliación de imagen. La posible relación o proporción entre el tamaño de la imagen que capta el sensor y la imagen final obtenida sobre papel queda destruida totalmente en el momento en que se codifica en un fichero binario

Falso. No representan elementos de ninguna matriz. SON ELEMENTOS DE UNA MATRIZ QUE DEFINEN UN CONJUNTO DE PIXELES QUE SE VISUALIZARÁN ORDENADOS EN UN PLANO, ES DECIR, UNA IMAGEN QUE TIENE UN DETERMINADO TAMAÑO EN EL MOMENTO DE CODIFICARLA.
Por eso aunque tengan los mismos píxeles y la codificación tenga el mismo número o cantidad de datos, esos datos (QUE DEFINEN UNA IMAGEN) no son iguales si los sensores tienen diferentes tamaños, pues las imágenes captadas por ellos y después codificadas por el procesador son de distintos tamaños.

El que un fichero digital no guarde información de tamaño no significa que la imagen de partida no lo tenga. Y esa imagen de partida, que tiene un tamaño, es lo que se ha codificado, no ha sido ninguna otra cosa extraña

En sensores de, por ejemplo, 16 MP la salida final o copia del sensor mayor tiene más resolución y menos difracción que la del sensor pequeño, POR LA SENCILLA RAZÓN DE QUE LA IMAGEN ORIGINAL CODIFICADA, QUE SÍ TIENE UN TAMAÑO, SE HA AMPLIADO MENOS. Si no es por eso, ¿por qué es?.

UNA IMAGEN PEQUEÑA, DIGITAL O NO, HAY QUE AMPLIARLA MÁS QUE UNA GRANDE PARA REPRESENTARLA Y VERLA AL MISMO TAMAÑO, Y POR ESO TIENE MENOS RESOLUCIÓN FINAL A IGUALDAD DE LO DEMÁS.

El concepto de ampliación es perfectamente válido tanto en digital como en película.
Avatar de Usuario
Manolo Portillo
 
Mensajes: 3356
Registrado: Jue Feb 04, 2010 7:27 pm
Ubicación: Murcia

Re: La cruda realidad "MPx Reales"

Notapor SantiEsp » Lun Ago 26, 2013 11:55 am

Manolo Portillo escribió:EL TAMAÑO DEL FORMATO Y, POR TANTO, DE AMPLIACIÓN SÍ IMPORTAN EN LA RESOLUCIÓN FINAL DE LA IMAGEN.


Creo que mezclas los términos resolución de una imagen, que en fotografía química si se hacía, con la nitidez y con la resolución de un sensor.

La resolución de un sensor viene dada únicamente por el número de pixeles que contiene, es decir, puntos en los que se puede dividir una imagen, cada uno de éstos puntos puede tener uno de los 16 millones de colores que permite diferenciar una codificación de 24 bits, pero solo uno de ellos, es decir no hay puntos mitad rojo mitad verde, o es verde, o es rojo, o es negro, etc.

Con un mismo sensor, y en función de la óptica que utilicemos, podremos obtener más o menos resolución/nitidez/definición en la imagen final, pero la cantidad de información o resolución del sensor es la misma, las imágenes almacenadas en el disco duro,(en 0s y 1s, sí, que le vamos a hacer, así es la era digital, y todo se pasa a ceros y unos, aunque no lo parezca 8-) ), ocupan lo mismo, es decir, misma cantidad de información.

A la hora de imprimir una imagen se considera que 300ppp (puntos por pulgada), o lo que es lo mismo pixeles por pulgada, es una resolución óptima. Para saber cual es la resolución de impresión máxima que permite una imagen digital hay que dividir el ancho de esa imagen (por ejemplo, 3200 entre la resolución de impresión 300, = 10,6 pulgadas). Esto significa que la máxima longitud de foto que se puede obtener en papel para una foto digital de 3200 píxeles de largo es de 10,6 pulgadas de largo en calidad 300 ppp.

Ahora bien éso es en teoría, para un uso normal de una fotografía, pero dependerá muy mucho de la distancia a la que vayamos a ver la foto, y en éso si tienes razón, no es lo mismo una foto de sobremesa, que un poster, que una vaya publicitaria.

Pero en definitiva, cuantos más pixeles tenga la imagen, mayor podrán ser el tamaño de las impresiones, ahora bien si la imagen, no tiene nitidez, ni definición, y es un truño de foto, pues lo seguirá siendo, sólo que más grande.

Principiodei escribió:Queda claro que un FF dará más calidad final.


Nooo, no queda tan claro, es decir si :shock: :lol: ... a ver.... y éso creo que es importante porque es de lo que va el hilo:

SE PUEDE HACER LA MISMA FOTO, CON LA MISMA CALIDAD, CON UNA M4/3 QUE CON UNA FF

Y éso es importante que quede claro. El conjunto sensor/óptica es el que da la calidad de la imagen.

La conclusión fundamental de éste hilo es que un sensor de mayor tamaño tiene más facilidades/posibilidades de captar la imagen reflejando más fielmente la realidad, pero para nada quiere decir que uno más pequeño con una óptica adecuada no pueda hacerlo igual de bien. y de nuevo me remito al ejemplo de que la OM-D/Oly 60mm es más nítida que la D7000/Nikon 105mm, según DxO Mark y sus P-Mpix claro.

Y ésta facilidad/posibilidad no es más que una cuestión puramente estadística debido al tamaño de los pixeles, y a que cuanto mayor sean más superficie de material fotosensible tienen y por lo tanto es más probable que "capturen" los fotones necesarios para que sea una muestra representativa, y por lo tanto más real posible al "valor" del color del trocito de la imagen que les ha tocado.


Iba a publicar éste post y he visto que has puesto otro Manolo, y ya no sé si estamos diciendo lo mismo :roll:

Si lo que quieres decir es que como un sensor más pequeño parte de una imagen más pequeña a la hora de codificarla, puede "equivocarse" más fácilmente que uno más grande que parte de una imagen más grande... estamos de acuerdo... y el motivo es lo que llevo diciendo desde hace un montón de post :D

Ahora bien si lo que dices es que no se puede hacer la misma foto con un FF que con un m4/3, entonces no 8-)
SantiEsp
 
Mensajes: 532
Registrado: Sab Dic 31, 2011 2:16 pm
Ubicación: Madrid

AnteriorSiguiente

Volver a General



¿Quién está conectado?

Usuarios navegando por este Foro: No hay usuarios registrados visitando el Foro y 13 invitados