“¿La NASA usa Photoshop?”
Por supuesto, si no Photoshop, entonces otro software de procesamiento de imágenes. Encontrará una respuesta aquí que sugiere que hay una guerra de calaveras detrás de esto. Eso es exagerar la realidad a lo grande. Veamos que implica
Las cámaras digitales son sensores intrínsecamente de escala de grises. Responden a la intensidad, y eso es todo. Obtenemos imágenes en color al hacer varias exposiciones de la misma imagen, usando varios filtros de colores diferentes. Para imágenes visuales, usualmente usamos filtros rojo, verde y azul; A esto lo llamamos “imágenes tricolores”. Cada una de estas imágenes es una escala de grises, pero todas son diferentes. Aprovechamos esto para crear la imagen de color final.
La técnica utiliza cada imagen en escala de grises como una capa de color separada. Estos se apilan uno encima del otro y se combinan para producir una imagen en color. Las cámaras en color de una sola toma hacen exactamente lo mismo, pero de una manera muy inteligente. El dispositivo imaginario en la cámara a color incluye un filtro Bayer. Aquí hay una ilustración de ese artículo de Wikipedia:
Cada píxel que ve en la pantalla LCD en la parte posterior de su cámara está construido a partir de cuatro píxeles “en bruto” agrupados. [1] Otra ilustración de ese artículo de Wikipedia muestra cómo funciona esto.
El procesador de imágenes dentro de la cámara extrae píxeles de la imagen en bruto y los baraja para que se alineen. (Podríamos imaginar que la matriz roja se movió hacia arriba y hacia la izquierda, y la matriz verde se movió hacia arriba). Combinamos estos para producir un solo píxel digital. Un formato de píxel muy simple utiliza 8 bits de datos rojos, 8 bits de datos verdes y 8 bits de datos azules para formar un píxel de 24 bits. Hay otros que proporcionan más profundidad de color o píxeles más compactos.
Necesitamos conocer las características de los filtros para poder generar la imagen en color correctamente. Esto nos permite asignar pesos a cada plano de color para obtener la mezcla correcta. A menudo encontrará diferentes modos de color en su cámara: estos hacen malabares con los pesos para producir más saturación, más contraste, un tono sepia o lo que sea que el diseñador de la cámara pueda imaginar.
Para las imágenes astronómicas profesionales, usualmente usamos un generador de imágenes en escala de grises con filtros seleccionables, típicamente montados en una rueda de filtros. Aquí hay un ejemplo.
(Imagen cortesía de SBIG: CFW-402 RGBC)
El cuarto filtro es un filtro transparente.
Utilizamos este enfoque porque obtenemos el mejor uso posible de todos los píxeles de la cámara y obtenemos una filtración constante en todo el marco.
Aquí están los cuadros en escala de grises de mi propia imagen de M57, la Nebulosa del Anillo
Y aquí está la imagen final:
No es tan bueno, no soy tan bueno en astrofotografía, pero así es exactamente como se hace.
No me molesté en nada más que la corrección aproximada del color, pero es razonable. Los filtros se encuentran en un conjunto comercial estándar de filtros, con características conocidas. Usé esas características, junto con las características del chip de imágenes para calcular el porcentaje de capas R, G y B que se suman para obtener la imagen final. Es un poco difícil de hacer, así que utilicé un programa genérico de cálculo de balance de color para obtener los números. No es tan difícil, pero es un poco tedioso, y a veces puedo ser un tipo perezoso.
Ese es el enfoque utilizado en todos los observatorios astronómicos profesionales, así como con las cámaras de imágenes en naves espaciales como New Horizons, el Hubble Space Telescope y los rovers de Marte.
Puede usar filtros y cámaras para longitudes de onda no visibles (como infrarrojo) o para bandas muy estrechas (como la luz producida por azufre ionizado, que muestra algunas nebulosas). Para aquellos, solo tiene que elegir un color para asignar a cada capa. Esa técnica se llama imágenes en color falso (ver: https://en.wikipedia.org/wiki/Fa …). Hay algunos enfoques para la selección de color. Una es elegir colores que se distingan muy fácilmente, y verás esto en cosas como imágenes de radar y mapas meteorológicos. Otra es elegir colores que sean artísticamente agradables. Eso, por supuesto, es una cuestión de gusto y juicio, y puedes discutir sobre eso indefinidamente.
¿Se pueden distorsionar las imágenes para mostrar cosas extrañas? Por supuesto que pueden. Aquí está la cosa: hemos podido hacer eso desde los primeros días de fotografía.
Si solo desea una imagen bonita para el fondo de pantalla de su computadora, realmente no importa. Si quieres hacer un análisis científico serio, querrás las imágenes en bruto. Cada observatorio tiene políticas de acceso a esas imágenes. En el caso de las imágenes del Telescopio Espacial Hubble, los archivos sin formato están disponibles de forma abierta, al igual que las especificaciones de las características de las imágenes y los filtros. Si no le gustan las imágenes que se han publicado, obtenga los archivos sin formato y haga los suyos.
Ahí tienes.
Por cierto, no estoy empleado por la NASA ni por ninguna otra agencia espacial. Soy astrónomo aficionado y miembro de la Royal Astronomical Society of Canada (ver: https://en.wikipedia.org/wiki/Ro …). El único interés que tengo aquí es ayudar a las personas a aprender más sobre astronomía y ciencia en general.
Animo a cualquiera que esté interesado a hacer la investigación. Los detalles pueden parecer abrumadores. Afortunadamente, puede excavar tan profundamente como desee y dejar la mayor parte del contenido esencial al software, todo lo cual es comercial, y algunos de ellos son gratuitos o bastante económicos.
—–
[1] Hay cuatro filtros de color en una matriz Bayer porque necesitamos una matriz regular para cubrir el generador de imágenes rectangular. La solución habitual es usar uno azul, uno rojo y dos filtros verdes. Esto funciona bien porque el ojo humano es más sensible a las longitudes de onda verdes.