Fecha actual Sab Nov 23, 2024 2:01 am
Moderadores: IOM60, laucsap60, klomp, Siniestro, Guillermo Luijk, Pablo Valido
Guillermo Luijk escribió:Que ya Manolo, pero para el caso que ocupa eso es irrelevante. Imagina que el encuadre es un plano perpendicular al sensor con esto:
SantiEsp escribió:¿Seria la misma foto si en vez de un encuadre plano y paralelo al sensor fuese por ejemplo una florecilla?, si nos olvidamos de la PDC y el fondo lo tenemos desenfocado, como por ejemplo en macro... ¿obtenemos más nitidez con un sensor más grande con la misma óptica?
SantiEsp escribió:...parece obvio que el sensor de mayor tamaño tendrá más nitidez, mayor tamaño físico de pixeles con una imagen de mayor tamaño, resolverá mucho mejor...
Manolo Portillo escribió:¿Pero no has escrito antes que el tamaño "físico" da igual, que el tamaño del sensor no importa, que todo se reduce al número de píxeles y a ceros y unos, que la ampliación es la misma independientemente del tamaño del sensor y de la imagen proyectada/generada por el objetivo, que los píxeles son iguales y tienen la misma información independientemente de su tamaño?
¿Como es posible que, ahora, de repente, el más grande tenga más "nitidez", si son iguales según la Teoría de la Ampliación Inversa?
¿En qué quedamos, cojones?
Guillermo Luijk escribió:Sí, pero es que la comparación es mala porque con sensores de distinto formato lo óptimo no es usar la misma óptica sino ópticas optimizadas para cada sistema. Así los objetivos de M4/3 lo tienen más fácil para arrojar muchos lp/mm porque dada una focal no se diseñan para cubrir un sensor FF sino un círculo mucho menor. En un sensor FF en cambio hay más compromiso de nitidez centro a extremos en cada focal.
SantiEsp escribió:...pero una vez hecha la foto, y que cada pixel haya enviado el valor que ha captado ya da igual, un sensor mayor será mas preciso a la hora de resolver ése valor que uno más pequeño, y la información que envíe será mas fiel a la realidad, pero no envía más información, envía la misma, a mismo número de pixeles claro.
SantiEsp escribió:Entre m4/3 y APS-c también me han llamado la atención algunos como el primero que ponía, más nitidez para el conjunto OM-D/Oly 60mm, que D7000/Nikon 105mm VR. En éste caso imagino que el valor de lp/mm será bastante mayor el del Oly para m4/3 que el del 105mm para el APS-c, sin embargo el mismo objetivo en una d800, gana por goleada a los dos anteriores, quizás por lo que dices y que ése objetivo está diseñado para FF.
Guillermo Luijk escribió:Si en esas 3 combinaciones la que peor nitidez da es la D7000 con el 105, se cumple que para tener mucha nitidez en la imagen final:
1. Objetivos del sistema
2. Cumplido 1, sensor lo más grande posible
Eso sí, la D800 no me cabe en mi bolsa, así que me quedo con la E-P2 y objetivos del sistema
SantiEsp escribió:A ver manolo, un pixel está compuesto de 4 fotodiodos con un filtro cada uno, dos filtros verdes, uno azul y uno rojo, de tal manera que cada uno de ellos deja pasar los fotones en función de su color, o en funcion de la longitud de onda a la que vibran. Estos fotones que pasan generan una energía o corriente eléctrica en cada uno de los 4 fotodiodos de los que está compuesto el pixel, en función de ésos valores electricos y aplicando un algoritmo que sinceramente no conozco calculan el color del pixel y ese color lo codifican a 0 y 1, en un total de 8 bits, aunque creo que los hay de 12.
Manolo Portillo escribió:Si lo que querías decir es que en un sensor con filtro de Bayer cada cuatro captores con su respectivo filtro de color generan realmente un picture element o pixel en color, estamos de acuerdo. Y después, el revelador raw, el de la cámara o el que sea, interpola (inventa) los otros tres que han desaparecido en función de los adyadentes, de modo que la imagen final tiene los mismos pixeles (inventados o no) que fotocaptores tenía el sensor. El algoritmo que usen para ello es indiferente para lo que nos ocupa.
SantiEsp escribió:
Espero que por fin me entiendas y comprendas que decir que un sensor más pequeño captura menos información que uno grande, con el mismo numero de Mpix, es un error.
Salu2
vicenparra escribió:La misma cantidad pero no el mismo valor....
ntsour escribió:Quieres decir que ambos sensores pueden idealmente captar y almacenar en el raw la misma información?
SantiEsp escribió:Manolo Portillo escribió:Si lo que querías decir es que en un sensor con filtro de Bayer cada cuatro captores con su respectivo filtro de color generan realmente un picture element o pixel en color, estamos de acuerdo. Y después, el revelador raw, el de la cámara o el que sea, interpola (inventa) los otros tres que han desaparecido en función de los adyadentes, de modo que la imagen final tiene los mismos pixeles (inventados o no) que fotocaptores tenía el sensor. El algoritmo que usen para ello es indiferente para lo que nos ocupa.
Exactamente éso quería decir, lo llevo diciendo desde el principio, pero el revelador Raw para nada inventa los otros tres, que no se porque dices que han desaparecido. Hay algo de confusión, o éso creo en el tema de los pixeles, cuando se dice que un sensor tiene 16Mpix, tienes razón en que tiene 16.777.216 fotodiodos, pero cada uno de éstos fotodiodos sólo da un valor de intensidad de un color, para generar un pixel de color es necesario interpolar/calcular el color en función del valor de 4 de éstos fotodiodos, 2 verdes, 1 rojo, y uno azul. La gracia de la distribución de la matriz bayer es precisamente que es capaz de conseguir casi los 16Mpix de color, porque cada fotodiodo está "rodeado" de 2 verdes, él mismo y uno azul o rojo. El valor de intensidad de color de cada fotodiodo se guarda en un fichero binario codificado en 8 bits que no es otra cosa que una fila de 16.777.216 grupos de 8 bits(01010101010100101010101010101010101010010101010101...., así hasta 134.217.728 bits, también guarda información de la cámara, del objetivo, de la apertura de la velocidad, etc,. Ése es el fichero Raw, y para nada guarda ninguna información del tamaño del sensor con el que fue tomada la imagen.
Lo que te quiero transmitir y ya veo que no soy capaz, es que si el sensor es mayor, la información será más fiable porque los fotodiodos han recibido más fotones y por ése motivo pueden precisar más la intensidad de ése color.
Cuando revelamos y pasamos a JPG por ejemplo, el programa revelador o la cámara, si disparamos también en ese formato, coge la información de 4 fotodiodos, en el que hay dos verdes, 1 rojo, y uno azul, e interpola/calcula el color resultante de esa combinación, eso es un pixel de color, ése pixel ya tiene 24 bits, para poder representar el "color verdadero". Ese valor binario se almacena también en el disco duro, tarjeta de memoria o lo que sea, en 0s y 1s. A continuación se mueve una columna a la derecha y vuelve a hacer lo mismo utilizando el valor de dos fofodiodos de los del primero más dos nuevos, así sucesivamente hasta que llega al final de la primera línea y vuelve a la segunda donde vuelve a hacer lo mismo que en la primera, y así sucesivamente hasta que se acaban los 134.217.728 bits del raw.
Además si es en JPG, busca patrones de colores muy parecidos y si los hay, en vez de almacenar el color real calculado de un pixel de color almacena una dirección donde le dice el color que tiene ése pixel, ésto lo hace para comprimir el fichero y que ocupe menos espacio, megas, en el disco duro, aunque se pierdan tonalidades de color, por ése motivo los JPG no ocupan todos lo mismo, y su tamaño depende de la cantidad de pixeles de color que el algoritmo de compresión decida que son iguales.
Por lo tanto y el motivo inicial de la discusión, no hay una imagen más pequeña almacenada en el disco o tarjeta de memoria, si el sensor es más pequeño, o más grande si el sensor es mas grande, no hay imagen, no hay negativo, que después debas ampliar más o menos, si un sensor mayor reporduce más fielmente la realidad lo hace en el el momento de la captura porque los fotodiodos son de más tamaño y pueden capturar más fotones.
Espero que por fin me entiendas y comprendas que decir que un sensor más pequeño captura menos información que uno grande, con el mismo numero de Mpix, es un error.
No voy a hablar del foveon porque es otra historia aunque, básicamente es lo mismo, y no creo que merezca la pena complicar más el tema sobre todo porque el utilizado en el 90% de las cámaras es el de la matriz de bayer.
Como verás, o quizás no, hay concetos, como tú les llamas, a veces incluso rozando la falta de respeto, que algunos foreros tenemos muy claros.
Y cambiando de tema, o no, vamos de lo que va el post , mi conclusión es que, como decía Guillermo:
1. Objetivos del sistema
2. Cumplido 1, sensor lo más grande posible
Vamos que los de DxO Mark "tienen razón", y éso para mi es nuevo, quizás para vosotros no, pero hasta ahora yo pensaba que el tamaño del sensor no influía en la nitidez
Salu2
Gobo escribió:Voy a meter baza...
16Mpx son 16Mpx independientemente del tamaño del pixel, del sensor y de lo que sea. El archivo resultante, si los fabricantes no manipulan, es idéntico, y si la fotografía se ha hecho con el mismo objetivo, suponiendo que resuelva las lineas necesarias, las imágenes resultantes serán idénticas.
taklamakan escribió:No entiendo porqué algo tan obvio es tan difícil de entender por algunos.
Usuarios navegando por este Foro: Chemax y 4 invitados