Venga va, cojo la
perragorda otra vez
Manolo Portillo escribió:Ya, totalmente ciertos y rigurosos, con exactas mediciones hechas por tí con diferentes sensores, objetivos y ampliaciones, ¿verdad?. Iguales o mejores que las que hacen los de DxO Mark, seguro.
¿Puedes contarnos cuáles son esos hechos totalmente ciertos y rigurosos en los que te basas y como has hecho esas mediciones para deducir lo que afirmas?. Tal vez sirvan para iluminar nuestros oscuros cerebros.
A lo que me refería con hechos ciertos y rigurosos es al funcionamiento de un sensor fotografico, fotodiodos, resolución, manera en la que se almacena la información, etc.,
Para éso no hacen falta mediciones ni nada de éso, sólo hace falta leer, y lo más importante, comprender lo que lees.
Manolo Portillo escribió:A ver, explica según esos hechos totalmente ciertos y rigurosos en los que te basas por qué partiendo de dos cámaras con los mismos MP y con el mismo objetivo, la salida final de la de formato mayor TIENE MÁS RESOLUCIÓN (no me cuentes historias de jpgs, ni de calidades de color, ni de realidad fiel, ni de ceros y unos que ya me las sé), estamos hablando de RESOLUCIÓN.
Explica como es posible lo anterior si tienen los mismos MP y el tamaño y la ampliación no importan.
Ten en cuenta que lo anterior no son opiniones ni suposiciones, SON MEDICIONES bien hechas por quienes saben de eso y, además de saber de eso, disponen del utillaje y tecnología para hacerlas con precisión.
Vaya, volvemos al motivo del hilo, genial!.
. Que iba precisamente de los P-Mpix de DxO y a su valoración de la nitidez utilizando conjuntos de cámara/objetivo.
Pues en éste caso, y tal y como concluimos algunos post atrás, es simplemente porque ése objetivo está diseñado para FF y si lo usas en una ASP-c o DX pierdes parte de la resolución que te puede ofrecer el objetivo, ya que no utilizas toda la lente para proyectar la imagen en el sensor.
Por favor, explica tú éste caso :
http://www.dxomark.com/index.php/Lenses/Compare-Camera-Lenses/Compare-lenses/(lens1)/897/(lens2)/261/(brand1)/Olympus/(camera1)/793/(brand2)/Nikkor/(camera2)/680Un sensor más pequeño con más nitidez que uno mayor a mismo número de Mpix.
Manolo Portillo escribió:Sí, todos los que afirmáis que el tamaño original de imagen ya no importa una vez codificado y que por tanto no hay que ampliar, ni que influye en el resultado final, estáis equivocados.
Una falsedad no deja de serlo por el número de personas que la digan, da igual que la digan una o un millón que falsedad sigue siendo.
Me suena al chiste ése de:
Ten cuidado que hay un tipo que va en dirección contraria por la autopista... Uno?, uno no, cientossss Como veo que el ejemplo de las pelotas no ha "funcionado" voy a intentar explicar como funciona un fotodiodo, que no olvidemos que es un pixel de un sensor.
Un fotodiodo no es más que una superficie de un material fotosensible, normalmente silicio, con dos polos, cada uno de ellos conectado a una batería. En condiciones de oscuridad, es decir, sin fotones bombardeando al silicio no hay corriente electrica y por lo tanto la tensión entre los dos polos supongamos que es 5Voltios.
Éste material fotosensible esta formado, como todos al final, por átomos, parece lógico pensar que en función de la superficie que le demos tendrá mas átomos o menos expuestos a la lluvia de fotones.
Cuando un fotón choca contra uno de los electrones de éstos átomos con la suficiente energía provoca que ése electrón salga expulsado de ése átomo y se genera un hueco, que será rellenado instantáneamente por otro que saldrá de la batería a la que está conectado el fotodiodo.
En función de la cantidad de electrones que salen despedidos de los atomos y son rellenados por los de la batería se genera una corriente eléctrica que hace que la tensión que teníamos en plena oscuridad de 5 voltios disminuya, ésa disminución es directamente proporcional a la cantidad de fotones que chocan contra los átomos del material fotosensible.
Aquí es donde influye el tamaño del sensor, aquí es donde si tenemos más superficie, tenemos más posibilidades de que esa "captura" de fotones sea representativa de ése punto de la imagen., Además de que un fotodiodo no es un cuadrado o rectangulo perfecto al lado de otros, normalmente tienen formas irregulares y circuitería entre medias donde también chocan fotones... y éstos se pierden.
Para que los fotones lleguen a ése fotodiodo previamente hemos tenido que abrir el obturador y los hemos filtrado para que solo lleguen de unos de los siguientes colores, verde, rojo y azul, es decir, la tensión que tenemos en los polos de ése fotodiodo representa la cantidad de fotones de un color que le están llegando.
Eso ha ocurrido con los 16 millones y pico de fotodiodos que tenemos, es decir, los 16 millones y pico de puntos en los que pretendemos dividir la imagen. En un sensor de 16Mpix, claro.
Cuando cierra el obturador tenemos 16 millones y pico de niveles de tensión que debemos almacenar, porque ésa, es la foto, es la imagen que hemos dividido en 16 millones y pico de puntos.
En un disco duro, tarjeta de memoria, etc. sólo se pueden almacenar ceros y unos, no valores de tensión. Así que éstos valores de tensión se convierten mediante conversores analógico/digitales a 8 bits, 8 ceros y unos, en función del valor de tensión que tengan, 0V=00000000, 0,1V=00000001.... 5V=11111111(los valores de tensión son inventados)... y se almacenan en un fichero informático.
Que alguien me explique, ¿como es posible que un pixel de un sensor FF puede tener más información que otro pixel de un sensor de un m4/3 o de un móvil por el simple hecho de ser mas grande?