IMAGE: Google Research

Es una de las imágenes habitualmente más criticadas de muchas películas o series: el momento en que alguien toma una imagen borrosa, y le aplica un algoritmo que la va mejorando hasta mostrar algo que no se veía en la imagen original, y que, por supuesto, acaba siendo clave en el desarrollo de la trama argumental.

En la práctica, ese tipo de necesidades surgen cada vez con más frecuencia: simplemente escalar una imagen para utilizarla con un tamaño superior genera que los píxeles originales simplemente incrementen su tamaño, con las consecuencias de pérdida de fidelidad que todos conocemos: bordes aserrados, imagen progresivamente borrosa, etc. Pero dado que un pixel en la imagen original es una imagen uniforme con un color determinado, ¿cómo mejorar una imagen si la información original de la misma ha quedado fuera de la misma?

Una entrada en el Google AI Blog titulada «High fidelity image generation using diffusion models« propone utilizar una técnica estadística, los modelos de difusión, propuestos originalmente en 2015 y que habían tenido un uso relativamente escaso, al ámbito de las imágenes. Fundamentalmente, consiste en la adición de ruido gaussiano a la imagen original, corrompiendo progresivamente todos sus detalles hasta convertirla en puro ruido, para posteriormente pedir al algoritmo que revierta el proceso, construyendo una imagen en alta resolución a partir del ruido utilizando como guía la imagen de baja resolución. Utilizando esos modelos de difusión en cascada y repitiendo el proceso un número suficientemente elevado de veces, las imágenes obtenidas son no solamente muy estables, sino que son estimadas como reales por un número razonable de observadores humanos si se les pregunta si la imagen que están viendo proviene de una cámara.

Animated GIF - Find & Share on GIPHY

La idea es poder utilizar ese tipo de técnica para, por ejemplo, obtener imágenes mejoradas de fotografías antiguas o incluso de imágenes de diagnóstico médico, a modo de super-resolución. Básicamente, como en varios episodios de CSI o como en la escena de Blade Runner en la que el protagonista utilizaba una fotografía para extraer detalles minúsculos de la misma y poder hacer deducciones a partir de ellos: auténtica ciencia-ficción, que ahora – lógicamente con sus obvios límites – empieza a parecerlo un poco menos.

Simplemente la posibilidad de aumentar el tamaño de las fotografías sin experimentar una pérdida relevante de calidad ya tiene, por si sola, aplicaciones de todo tipo a la hora de reutilizarlas, por ejemplo, en diferentes contextos.

¿Y ahora? ¿A quién vamos a creer? ¿Al algoritmo, o a nuestros propios ojos?

Enrique Dans

DEJA UNA RESPUESTA