xprim escribió:Mmmm, yo hablo de nitidez, no de información. Si lo llevamos a un extremo: entre un sensor de 1Mpx y otro de 100Mpx, con cual se vería más nítido en un monitor 8K?
O es del todo independiente?
No creo tener claro a qué llamas nitidez.
Si llamas nitidez a qué imagen se ve más "enfocada" cuando las miras en pantalla al 100%, a igualdad de todo lo demás (formato de sensor, óptica,...) se verá más nítida la imagen que provenga del sensor con menos Mpx porque ese sensor habrá sido menos exigente con la óptica. Pero esa nitidez no sirve para nada a la hora de imprimir o reescalar si tienes muy pocos Mpx. Un recorte enano puede ser nitidísimo contemplado así pero como lo imprimas la calidad será pésima porque la cantidad de información total es baja.
Si en cambio pones la imagen a pantalla completa, entonces se reescalará para adaptarse a ella. Si el monitor tiene menos resolución que la imagen de menos Mpx (p. ej. Full HD o 4K vs sensor de 20Mpx) difícilmente notarás diferencia, pero en todo caso la imagen proveniente del sensor de muchos Mpx nunca se verá peor (suponiendo que el programa que haya hecho el reescalado no haya hecho alguna chapuza; ojo con esto porque los reveladores RAW y Photoshop, para lograr agilidad del interface hacen reescalados muy básicos en modo edición). Si en cambio hablamos de un monitor de más resolución que el sensor (p.ej. 8K vs sensor de 20Mpx) seguramente verás más detalles si la foto se hizo con un sensor de 40 Mpx que con uno de 20 Mpx porque en un caso la imagen se reescaló a la baja y en el otro se interpoló al alza.
En definitiva que cuantos más Mpx de sensor verás las imágenes siempre iguales o mejores, dependiendo del dispositivo de salida.
Salu2!