Ir al contenido

El misterio de la resolución

¿Qué significa resolución? Siempre me llamó la atención lo confuso que resulta para las personas vinculadas a la gráfica el significado de esta palabra. Si bien ello no les impide utilizarla a diario casi desaprensivamente, esa confusión se hace evidente al pedirles que expliquen el concepto.

Buscando en mi memoria las respuestas que obtengo al hacer esa pregunta, surge una interesante colección de ellas:

  • Es una medida de calidad de la imagen. Esta es quizá la respuesta más común, y que probablemente obtendríamos de un gráfico;
  • Es el número de megapíxeles de mi cámara. Un fotógrafo podría darnos esta opinión.
  • Es una medida de lo pequeño que son los puntos empleados para imprimir en algún sistema de impresión. Un fabricante de impresoras, un preprensista, podrían brindarnos una explicación de este tipo.
  • Es la cantidad de pixeles de ancho y de alto que tiene un monitor, o una pantalla en general. Quienes trabajan en video estarían a gusto con esta definición.
  • Es la cantidad de información que puedo obtener de una fotografía “física” (por ejemplo en papel o en película) al “escanearla” (digitalizarla) mediante, bueno, un escáner (¿se acuerdan qué era eso?). En la época en la que un escáner era el punto de entrada al flujo de trabajo digital, esta era una definición adecuada.
  • Es el tamaño real de los objetos más pequeños que puedo distinguir en una imagen. Un científico no necesitaría nada más para aplicar el concepto.

Todos los consultados estarían de acuerdo que, en principio, cuanto más resolución se tenga, mejor; esto es suficiente para la mayoría. Sin embargo, quizás no estarían tan de acuerdo sobre las unidades de medida que usan para expresarla, ya que cada uno de ellos tiene su preferencia: puntos por pulgada (dpi), muestras por pulgada (spi), pixeles por pulgada (ppi), pixeles (a secas), megapixeles, líneas por pulgada (lpi), centímetros a la menos uno (cm-1) y hasta metros. ¿Será que están hablando de cosas muy diferentes que por casualidad se describen con la misma palabra, o en realidad son diversos puntos de vista de una misma cosa?

El lector ya habrá sospechado que la verdad esta cerca de la segunda opción, así que vayamos al punto (o al pixel…)

Una cuestión semántica

La palabra resolución viene de resolver. Históricamente, las primeras aplicaciones de la captura digital de imágenes se realizaron en el ámbito científico, donde lo interesante era conocer las dimensiones que tenían los objetos fotografiados. Imaginen una foto satelital donde vemos un río; ese río, ¿qué ancho tiene?

Esa captura digital da como resultado una serie de muestras numéricas tomadas regularmente a lo alto y ancho de esa imagen. Para “entenderla” es necesario saber qué distancia “en la realidad” existen entre dos muestras consecutivas para averiguar qué tamaño tendría un objeto real mostrado en esa imagen: contando cuántas muestras “ocupa” ese objeto, puedo averiguar sus dimensiones.

De esta forma, cada muestra representa un elemento de imagen (picture element, en inglés, expresión de la cual deriva pixel), en el sentido de que es el menor “pedacito” de imagen de la que tengo información.

creek
Izquierda: Imagen de 300 x 300 pixeles abarcando un área de 30 km de lado. La resolución es 30.000 m / 300 = 100 m. Objetos de menor tamaño a este valor (caminos, ríos, árboles) no pueden observarse. Centro: Imagen de 300 x 300 pixeles de la misma zona, con un acercamiento para abarcar un área de 300 m de lado. La resolución es ahora de 1 metro. Objetos mayores a ese tamaño (camino, río, árboles) se perciben con claridad. Derecha: Detalle ampliado. Un conteo del número de pixeles abarcado por el río nos da 16; siendo la resolución de 1 metro, concluimos que el río tiene 16 m de ancho.

Está claro que si un objeto tuviera un tamaño menor a la distancia entre muestras adyacentes  podría no haber sido capturado, y no nos enteraríamos de su existencia al examinar la imagen. Digamos que la distancia entre muestras consecutivas representa en la realidad 100 metros; entonces, los objetos de dimensiones menores no serán visibles en esa imagen. Un científico dirá que la resolución (capacidad de resolver) es de 100 metros; aquí tenemos un ejemplo de una resolución expresada en metros.

¿Cómo se obtienen esos pixeles? Básicamente, se hace incidir la luz de la escena a capturar en un dispositivo sensor formado por una serie de celdas dispuestas horizontal y verticalmente, comúnmente un CCD (Coupled Charged Device, nombre de la tecnología empleada originalmente para ese fin, aunque hoy también se emplean otras tecnologías, por ejemplo CMOS). Cada celda es capaz de medir cuánta luz incide sobre la misma, y representa una muestra; la cantidad de muestras dependerá de cuántas celdas hay en cada dirección, es decir, del tamaño del CCD. Este principio domina la técnica de captura de imágenes en la actualidad, y se aplica desde los mencionados satélites hasta las cámaras digitales actuales (incluyendo las que hoy tienen tabletas y celulares).

Averiguar el tamaño de los objetos de una escena por este mecanismo sólo es posible cuando la imagen es relativamente “plana” (los objetos tienen una profundidad despreciable comparado con su extensión superficial) y por lo tanto todas sus partes están prácticamente a la misma distancia del sensor; esto se produce en el registro en altura de pequeñas porciones de la superficie de la Tierra (imágenes satelitales), de objetos aislados muy distantes (imágenes astronómicas) o la captura de una imagen plana mediante escaneo (como cuando digitalizamos una fotografía impresa o un dibujo). En estas condiciones, la resolución dependerá de las dimensiones del área capturada, de la óptica utilizada y del número de celdas del sensor: un área cuadrada de la superficie terrestre de 100 km de lado, proyectada con la óptica adecuada sobre un CCD de 200 celdas (pixeles) por lado, nos darán una resolución de 100 km/200 = 0,5 km; en esta imagen sólo podrán resolverse detalles iguales o superiores a este tamaño, y así diremos que su resolución es de 500 metros.

Captura estándar de una imagen por medio de un CCD. En este ejemplo, con un CCD de apenas 16 pixeles de altura, la resolución resultante es de 3,2 m / 16 = 0,2 m ó 20 cm; este es el menor detalle que la imagen digital puede mostrar.

Sin embargo, al fotografiar una escena típica, con elementos en primer plano, otros de fondo y el resto en cualquier posición intermedia, donde la profundidad es comparable al ancho y alto, esa condición no se cumple y no podríamos hablar de una resolución en la imagen, al menos no de esta forma. Esto hace que sea engañoso preguntar: “¿qué resolución tiene una cámara digital?” sin hacer muchas aclaraciones previas. No obstante, sabemos que la capacidad de capturar detalle depende del número de pixeles disponibles: la misma escena, fotografiada desde la misma posición, con igualdad de calidad óptica, presentará tanto mayor detalle cuanto más pixeles utilice para capturarla. Como las condiciones de captura que utiliza un fotógrafo son muy diversas, sólo podemos referirnos a la capacidad de resolver detalle a través del número de pixeles que ofrece la cámara; este número dividido por un millón nos da el mismo dato en la forma comercialmente conocida de megapíxeles.

La resolución en la gráfica

En las aplicaciones gráficas, en cambio, no nos interesa averiguar las dimensiones de ningún objeto dentro de la imagen; sólo nos interesa tener suficientes muestras de la escena para dos cosas:

  1. Capturar el detalle de interés;
  2. Reproducir ese detalle en algún medio.

De los tres ejemplos de captura mencionados, sólo en el escaneo tenemos la posibilidad trabajar a partir de una imagen perfectamente “plana” (sea en papel o en película). La técnica no cambia, pero al ser la “escena” estrictamente plana existe una relación directa entre distancia y muestras: si en una pulgada lineal de imagen se toman 200 muestras, diremos que la imagen está capturada a 200 spi (samples per inches, esto es, muestras por pulgada).

Pero, ¿muestra y pixel no son lo mismo? No exactamente; existe una sutil diferencia conceptual. Mientras la muestra se considera como el valor luminoso representativo en un punto de la imagen (quizás ignorando un entorno del mismo), el pixel es ese pequeño cuadrado que se llena por completo con un único valor de color, y que utilizan los monitores para reproducir la imagen. Justamente, en una pantalla de tecnología LCD es donde se puede emplear propiamente el término pixeles por pulgada (ppi, pixels per inch), ya que en estos dispositivos los pixeles existen físicamente y tiene perfecto sentido contar cuántos de ellos caben en una cierta longitud. En los últimos años se hizo popular este dato, como una forma de mostrar el avance tecnológico que permite lograr pantallas de alta densidad, comunes en celulares de alta gama. Aun así, los fabricantes insisten en emplear el término dpi, cuando lo correcto es ppi. En adelante, contaré con la complicidad del lector para conformarnos al uso común y decir dpi cuando debiéramos decir ppi; el contexto nos dirá a cuál nos referimos realmente. Ahora bien, algunos “dpi” ya son célebres….

Los famosos 72 dpi

Siempre se asocia el término “baja resolución” a una cantidad que resulta suficiente para la pantalla, que por alguna razón adquirió el valor de 72 dpi. ¿Cuál es el origen de este número “mágico”?

En los inicios del desktop publishing, Apple buscaba que sus monitores fueran lo más fieles posibles al impreso; habiendo dedicado tanto empeño en las primeras impresoras LaserWriter, que ponían la potencia de PostScript en manos de las masas, era lógico tomar ciertos recaudos para lograr en pantalla una precisión comparable. Parecía razonable, entonces, pedir que un texto escrito en cuerpo 10 puntos, se vea en pantalla como si hubiera sido impreso, es decir, con un tamaño de 10 puntos. Una sencilla relación de 1 punto = 1 pixel lograría ese objetivo. Recordando que el punto tipográfico moderno se define como 1/72 de la pulgada, bastaba entonces construir monitores con una resolución de 72 dpi. Una imagen de ciertas dimensiones en puntos, empleando esta resolución, se mostraría “a igual tamaño” en pantalla; de allí a considerar 72 dpi como “resolución de pantalla” estándar sólo hay un paso.

Esto nos permite comprender la interacción entre una imagen digital y un monitor. Siendo que ambos están formados por pixeles, la estrategia más natural que tiene un programa al presentar imágenes en pantalla es establecer una relación de uno a uno: cada pixel de imagen llena un pixel del monitor. Para confusión de muchos, programas como Photoshop llaman a esta modalidad “visualización al 100%”, lo que sugiere erróneamente que estamos viendo el verdadero “tamaño de impresión”, lo que sólo es verdad si la resolución del monitor coincide con lo declarado por la imagen. La realidad es que la imagen son pixeles, más una indicación interna llamada “resolución” que nos “sugiere” el tamaño de esos pixeles al imprimirlos. Fuera de las aplicaciones científicas, la resolución guardada numéricamente dentro de la misma no nos dice otra cosa. Dos imágenes de 400 x 300 pixeles, una a 72 dpi y la otra a 300 dpi, se verán en un navegador de internet exactamente al mismo tamaño, ocupando la misma área de pantalla. Lo mismo sucede en Photoshop si se colocan ambas imágenes una al lado de la otra y se visualizan al 100%. Si se imprimieran, en cambio, la segunda ocuparía menos de la cuarta parte de la primera.

Hasta aquí hablamos de capturar una imagen o reproducirla en una pantalla, pero cosa muy distinta es imprimirla. Sabemos que es muy difícil y poco práctico crear un sistema de impresión que nos permita depositar con precisión gotas de una cantidad variable de tinta en un papel (como si fuera un “pixel” impreso); es mucho más fácil y controlable colocar gotas pequeñas de tamaño fijo y ajustar su intensidad agrupándolas o alejándolas entre sí según alguna estrategia. Quienes fabriquen esos sistemas de impresión dirán que son capaces de depositar (imprimir) cierta cantidad de gotas (puntos) por cada pulgada de longitud; esto da origen a la idea de una resolución o capacidad de resolver puntos individuales impresos mediante ese sistema, expresada en puntos por pulgada o dpi (dots per inch). Aquí debería ya quedar claro qué tan íntimamente unidos están la impresión y el concepto de dpi como para que no sea lícito su uso en otro contexto.

Más aún, esos puntos no son comparables a pixeles: la razón fundamental es que mientras un único pixel puede presentar millones de colores diferentes, un punto impreso tiene sólo dos valores posibles. La limitación que supone imprimir con gotas de tamaño (y color) fijo se compensa empleando puntos suficientemente pequeños, inaccesibles a la visión humana normal, de forma que con una sabia distribución de ellos, utilizando los colores primarios, se forme un área o “punto” mayor cuyo apariencia resulte en el color deseado. Esta es la técnica conocida como tramado, y viene esencialmente en dos sabores, que veremos enseguida; en este punto damos por sentado que el lector conoce algo de cuatricromía y del modelo de color sustractivo, ya que hoy no hablamos de color sino de resolución…

Ahora bien, ¿qué tan pequeño debe ser un punto para que sea “inaccesible a la visión humana normal”? ¿Cuánto puede resolver una persona con visión sana?

La “resolución” del ojo humano y los 300 dpi

El ojo humano distingue detalles espaciales mediante la diferencia angular entre los rayos de luz que llegan a la retina. Los oftalmólogos suelen medir nuestra capacidad de resolución visual mediante diversas técnicas. Una de las más sencillas consiste en poner delante de una persona una imagen formada por finas líneas alternativamente blancas y negras, de cierto espesor, y buscar a qué distancia máxima el sujeto percibe las líneas como tales; pasada esa distancia, el ojo ya no puede “resolver” la diferencia entre líneas y todo se funde en un plano gris. Un simple cálculo que involucra el espesor de las líneas y esa distancia máxima permite calcular la resolución angular.

Definición estándar (simplificada) de la agudeza visual normal.

La agudeza visual normal (o 20/20 en la notación de Snellen) se define como una resolución angular de 1 minuto de arco, equivalente a una capacidad de resolver líneas alternativamente blancas y negras (máximo contraste) de 1,5 mm de espesor a 5 metros de distancia. Este dato nos permite hacer algunos cálculos. Se suele considerar que la distancia estándar de lectura es de unos 25 cm; una regla de tres nos dice que, a esa distancia, ese límite se convierte en 0,075 mm. Un punto de tinta negra en un papel blanco, como en el caso de texto impreso, debería tener al menos ese tamaño poder distinguirse claramente. En una pulgada caben 25,4 / 0,075 = 338 de esos puntos, lo que sugiere que deben ser impresos en el orden de 300 dpi para “equipararse” a la visión humana media.

Claro está, éstas son condiciones particulares. Si el contraste entre líneas es menor, la habilidad del ojo humano para resolverlas disminuye. Por otro lado, muchas personas, especialmente jóvenes, alcanzan mayores resoluciones angulares, de hasta 0,4 minutos de arco. Por último, el ojo no es una simple cámara fotográfica; se parece más una cámara de video. Constantemente se mueve en pequeños ángulos (movimientos microsacádicos) y de esa forma “actualiza” continuamente la imagen en el cerebro, rellenándola con más detalles. Esto explica por qué muchas personas pueden distinguir impresos en 300 dpi de otros en 600 dpi.

A una distancia mayor, los mismos puntos pueden ser proporcionalmente más grandes (menor resolución lineal) y mantener la misma resolución angular. Por lo tanto, a 50 cm de distancia, típica de la visualización de un monitor, la resolución equivalente es del orden de 150 dpi. Los monitores comerciales actuales se ubican entre los 90 y los 220 dpi, por lo cual difícilmente resulten objetables para juzgar el detalle de una imagen.

Hemos aceptado implícitamente hasta aquí que un punto impreso de color arbitrario equivale a un pixel del monitor, pero ya sabemos que no es posible “imprimir” esos puntos directamente…

La trama convencional

Aunque esta forma de presentarlo no es usual, la trama convencional es lo más parecido que tenemos a un “pixel impreso”. En efecto, sabemos que podemos lograr una variedad de colores superponiendo puntos de tinta translúcida de los cuatro colores de proceso, siempre que cada punto tenga una “intensidad variable”. Como no es viable depositar cantidades variables de tinta, la solución consiste en imprimir puntos de diámetro variable (dots o puntos de mediotono) formados mediante puntos mucho más pequeños de intensidad fija (spots o puntos de “láser”, en alusión a su técnica de generación). Esto nos lleva a dos resoluciones diferentes. Por un lado, los puntos de diámetro variable se disponen en una retícula imaginaria, a diferentes ángulos según el color para minimizar el efecto moiré. La cantidad de estos puntos por unidad de longitud es lo que se conoce como lineatura, ya que suele verse esta disposición como una serie de líneas paralelas de puntos; su medida habitual es líneas por pulgada (lpi, lines per inches) o también líneas por centímetro (1/cm o cm-1, unidad común en normas europeas). Por el otro, tenemos la resolución requerida para ubicar los spots en el sustrato, que suele llamarse resolución de láser y se mide en dpi, aunque en realidad se refiere a la capacidad del equipo de ubicar los puntos; es más correcto definir este parámetro como capacidad de direccionamiento (addressability), ya que la resolución efectiva (visual) de la imagen impresa dependerá además de todos los procesos de impresión posteriores.

Alcanzar el ideal óptico de un punto de mediotono por pixel implica llegar a los confines de los 300 lpi; pero sabemos que esta lineatura no es típica más que en ciertos impresos de excepcional calidad. Quien atenta contra alcanzar valores tan altos es la ganancia de punto, esto es, el aumento de valor tonal por efecto de la difusión de la tinta en el papel, altamente dependiente del tipo de sustrato, que limita el menor tamaño de punto reproducible y pone un límite superior a la lineatura alcanzable.

Fijada esa lineatura, ¿cómo reproducir puntos de diámetro variable a partir de puntos fijos? La solución conocida es disponer de una celda cuadrada formada por spots, dentro de la cual se “marcan” algunos y otros no para crear el efecto de un punto mayor de tamaño variable (cuáles se marcan y cuáles no dependerá del algoritmo de tramado particular empleado). Si el 50% de los puntos de la celda están marcados, diremos que hemos creado un punto de mediotono del 50%.

halftoneEl tamaño D de la celda de mediotono viene fijado por la lineatura L = 1/D. Los puntos de láser tienen un ancho d y están determinados por la resolución R = 1/d del dispositivo de impresión. La figura muestra que la cantidad de puntos n que caben en cada lado de la celda es n = D/d = R/L. Como el total de puntos de la celda es n2, la cantidad de niveles puntos de mediotono que podemos generar será

niveles = (Resolución / Lineatura) 2,

sin contar el punto de 0% (sustrato sin marcar). Si se piensa que son deseables al menos 100 = 102 niveles para reproducir la escala tonal en pasos de 1%, significa que la resolución del dispositivo debe ser al menos 10 veces la lineatura. Los RIPs basados en PostScript o PDF trabajan en 8 bits, representando 256 = 162 valores tonales; el mismo cálculo nos exige una resolución al menos 16 veces mayor. Si se desean 150 lpi, será necesario un equipo con una resolución de al menos 150 x 16 = 2400 dpi.

La trama estocástica

am-fm
Trama convencional (AM) vs trama estocástica (FM).

La estrategia aquí es imprimir puntos de tamaño fijo, variando la distancia entre ellos, en lugar de acumularlos en puntos de tamaño variable. Si fijamos la resolución del equipo de salida, sólo resta decidir el tamaño del punto fijo, que estará formado por uno o más spots. Por ejemplo, un tamaño de punto estocástico típico son 20 micrones, aproximadamente 2 x 2 spots a 2400 dpi.

Al no existir aquí una lineatura, no podemos establecer una relación con la resolución análoga al caso anterior. Eso no quita que quienes promueven esta técnica intenten dar una lineatura convencional equivalente a un tamaño de punto estocástico dado. Es usual buscar la equivalencia por tres caminos diferentes:

  • Calcular la lineatura cuyo punto de 1% (el menor reproducible) tenga igual tamaño que el punto estocástico dado. Por simplicidad, asumiendo una celda de mediotono de 10 x 10 spots, el cálculo muestra que la lineatura equivalente a un tamaño de punto dE (en micrones) es L (lpi) = 2540 / dE En este caso, una trama estocástica de 10 micrones sería análoga a una trama convencional de 254 lpi.
  • Buscar la lineatura capaz de reproducir el mismo detalle visual que la trama estocástica dada. Este es un terreno más espinoso y deben hacerse más suposiciones para llegar al número. Es muy común difundir una equivalencia de 650 lpi para puntos de 10 micrones, aunque los argumentos para llegar a esta conclusión son discutibles.
  • Establecer una equivalencia “litográfica”, por el mecanismo de igualar el número de transiciones entre marcas y sustrato en ambos sistemas. Aparentemente éste es el mecanismo usado por la mayoría de los proveedores de soluciones de trama estocástica, quienes calculan una lineatura equivalente de 480 lpi para puntos de 10 micrones.

Una resolución final

Este concepto tiene el encanto de parecer “condensar” en una sola palabra un parámetro clave en cuestiones gráficas, pero esta simplificación es engañosa si uno desconoce las ideas subyacentes. El lector habrá presenciado imágenes “a 72 dpi” que se ven “mejores” que otras “a 300 dpi”. Este hecho de la experiencia nos muestra que, si bien útil, la resolución es un dato que siempre debe ser puesto en contexto. Entendiendo esto, podremos usar esa información de manera útil y tomar las decisiones correctas. Después de todo, ¿no es ésta acaso la responsabilidad de cualquier profesional?

Publicado enGeneralImágenes

Se el primero en comentar

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *