Free counter and web stats

domingo, 3 de noviembre de 2013

Un método restaura imágenes digitales a partir de versiones mucho más pequeñas Un algoritmo informático permite rehacer documentos gráficos a partir de entre el uno y el 10% del original

E
.http://www.tendencias21.net/Un-metodo-restaura-imagenes-digitales-a-partir-de-versiones-mucho-mas-pequenas_a26060.html

Un ingeniero informático de la Universidad Pública de Navarra ha desarrollado algoritmos de reducción y optimización de imágenes que permiten recuperar imágenes perdidas a partir de versiones más pequeñas (un 1 ó 10% del original). El sistema está dirigido a situaciones en las que se pierde información en una transmisión, por ejemplo.



El Juicio Final (Capilla Sixtina) tras su restauración. Restaurar imágenes digitales es similar a recuperar pinturas deterioradas.Fuente: Wikipedia.
El Juicio Final (Capilla Sixtina) tras su restauración. Restaurar imágenes digitales es similar a recuperar pinturas deterioradas.Fuente: Wikipedia.
Daniel Paternain Dallo, ingeniero en Informática por la Universidad Pública de Navarra, ha desarrollado en su tesis doctoral algoritmos de reducción y optimización de imágenes que permiten, a partir de una imagen reducida (con entre el 1 y 10% de la información de la imagen original), restaurar el 100% de los píxeles de la imagen inicial. 

“Con esos algoritmos obtenemos imágenes de gran calidad y muy similares a la original. Incluso, hemos comprobado que si perdemos el 100% de los píxeles de la imagen original, podemos restaurar, con muy alta calidad, una imagen perdida utilizando tan solo la información de la imagen reducida”, señala en la nota de prensa de la UPNA. 

La investigación de Daniel Paternain se enmarca en el procesamiento digital de imágenes, una disciplina que se ha desarrollado enormemente en los últimos cuarenta años. De hecho, la alta calidad de las imágenes digitales actuales se debe, en parte, a que cada vez hay mayor resolución espacial (mayor cantidad de píxeles); es decir, se puede utilizar mucha más cantidad de información para representar una misma escena. 

Según señala el investigador, los dos principales problemas de las imágenes de alta resolución son el coste de almacenarlas o transmitirlas (por internet, por ejemplo) y la gran cantidad de tiempo que los ordenadores necesitan para procesarlas. Para solucionar estos problemas de manera simultánea, la tesis de Daniel Paternain propone varios algoritmos de reducción de imágenes, tanto en color como en escala de grises. “El objetivo —explica— es disminuir la cantidad de píxeles que contiene la imagen, pero tratando de mantener toda o la mayor cantidad posible de información y propiedades que contenía la imagen original”. 

La idea principal de los algoritmos desarrollados consiste en dividir la imagen en pequeñas zonas que se tratan de manera individual. “Para cada zona, buscamos un valor que sea el menos diferente simultáneamente a todos los píxeles que forman esa zona. Siguiendo esta metodología somos capaces de diseñar algoritmos muy eficientes en tiempo de ejecución y capaces de adaptarse a las propiedades locales de cada zona de la imagen”. 

En primer lugar, ha desarrollado un algoritmo de reducción de imágenes en escala de grises. Para ello, se utilizan funciones de agregación, “que son de gran aplicabilidad porque estudian la forma de combinar varias fuentes de información, homogéneas o heterogéneas, en un único valor que los represente”. 

Además, para las imágenes en color, en las que cada píxel contiene más cantidad de información, ha estudiado las denominadas funciones penalti. “Esta herramienta matemática nos permite, mediante algoritmos de optimización, seleccionar automáticamente la función de agregación más adecuada para cada zona de una imagen en color”.