Aparte de cómo de bien/mal funcione, hay algo interesante en todo esto y que no se suele conocer: Nvidia solo es (o solo era) un fabricante de tarjetas gráficas. Por qué un fabricante de tarjetas gráficas se mete en la investigación de la inteligencia artificial? El motivo va más allá de que esto sea una aplicación fotográfica, es una cuestión de potencia de cálculo. Y no me refiero a la potencia requerida para dibujar los paisajes conforme uno pinta (que es mínima), sino a la que se requirió antes de tener la aplicación lista, al
entrenar la red neuronal para que la aplicación fuera capaz de hacer lo que hace.
Las redes neuronales existen hace la tira de años (más de 50), pero sólo han tenido aplicaciones de esta espectacularidad de forma relativamente reciente porque hasta entonces no había potencia de cálculo para entrenar redes neuronales de la complejidad que se requiere. O al menos no de forma fácilmente accesible.
Y ahí es donde entran en juego las tarjetas gráficas: unos espabilados encontraron en las GPU's de las tarjetas gráficas la potencia de cálculo a coste irrisorio que se necesitaba para entrenar estas redes neuronales, una aplicación para la que no fueron diseñadas pero que se les dio realmente bien. Digo que no fueron diseñadas para esto porque aunque el trasfondo sean aplicaciones gráficas, el entrenamiento de la red neuronal tiene en realidad poco que ver con imágenes, es potencia numérica bruta.
De ahí que ahora empresas como Nvidia, hasta ahora solo fabricantes de hardware, se hayan metido a investigar estas aplicaciones, porque si de algo sí saben es de diseñar GPU's.
AlexNet fue la primera red neuronal súper popular entrenada por un estudiante usando una GPU:
https://en.m.wikipedia.org/wiki/AlexNetSe hizo famosa al ganar por amplio margen la competición anual ImageNet de reconocimiento de imágenes en 2012, hace dos telediarios prácticamente:
https://en.m.wikipedia.org/wiki/ImageNetSalu2!