Una forma de demostrar que esta equivalencia colorimétrica, si se hacen las cosas de determinada forma, es real, sería en lugar de perfilar las dos cámaras por separado (es decir diseñar un flujo de revelado RAW para cada una), convertir los valores RAW de una de ellas al espacio de la otra, y entonces una vez convertidos podrán revelarse con el mismo proceso que se haría con la otra cámara. Por ejemplo:
- Cámara 1: Sony A7 II (RAWs ARW convertidos a DNG)
- Cámara 2: Samsung S20 FE (mi móvil) (RAWs directamente en DNG)
Pasos:
- Se fotografía con ambas cámaras una carta de color IT8, y se obtienen los valores RAW de cada canal RGB en cada cámara.
- Con la comparación entre valores RAW origen (Samsung) / destino (Sony) se obtiene un proceso (en mi caso una red neuronal; pero podría ser una LUT o cualquier otro proceso de regresión con los suficientes grados de libertad) que convierte las combinaciones RGB del móvil a las combinaciones RGB de la Sony.
- Hecho esto ya se pueden coger los valores RAW del Samsung resultantes de fotografiar una escena de prueba, convertirlos al espacio Sony, e incrustarlos en un RAW de Sony donde se haya fotografiado la misma escena. Tendríamos un RAW con un trozo de imagen proveniente de la Sony y otro del Samsung.
- Si al revelarlos (con el procesado propio de los RAW de Sony) los colores de la parte proveniente de cada cámara son indistinguibles (o muy parecidos), significa que hemos convertido con éxito un sensor en el otro.
Se ha entendido algo? cómo lo veis?
Salu2!