¿La NASA usa Photoshop?

Hasta hace poco, los científicos tenían la opción de color o resolución, pero no ambas. Han optado por la resolución. Al rechazar la resolución a favor del color, las imágenes transmitidas a la Tierra se enviaron en escala de grises (blanco y negro). Si bien estas imágenes son muy detalladas, carecen de color y, por lo tanto, no son muy atractivas para el público en general. Después de todo, ¿quién quiere ver una foto en blanco y negro de la tierra?

Lo que sucede es que un equipo de talentosos profesionales de Photoshop tiene la tarea de convertir esta imagen en escala de grises en una imagen a todo color. Tienen una cierta cantidad de licencia creativa con los colores que usan.

Tan pronto como un teórico de la conspiración escucha “Photoshop”, sus gritos suben y afirman que la NASA es falsa y que las imágenes de la Tierra son CGI. No son CGI (imágenes generadas por computadora), son simplemente fotografías coloreadas.

Avance rápido hasta hoy. Actualmente hay satélites en órbita que tienen sensores de cámara avanzados que son muy superiores a los sensores más antiguos. La primera cámara digital tenía 10.000 píxeles (0.01 megapíxeles). Compare esto con el sensor ARGUS-IS que tiene 1,8 gigapíxeles.

Ya no se debe elegir la resolución o el color; Los científicos ahora pueden tener ambos. Para ver algunas fotos impresionantes de la Tierra completa a todo color, haga clic en el enlace que proporcionaré a continuación. Estas fotos del hemisferio completo se envían a todo color. Photoshop ya no es necesario. La única operación realizada en estas fotos es un pequeño ajuste para la distorsión causada por la difracción de la atmósfera de la Tierra.

https://himawari8.nict.go.jp/

Trabajé en la NASA, a cargo de la revisión del sitio web del telescopio espacial Hubble. En ese momento, usaban mucho Photoshop y otras herramientas gráficas para manipular el tipo de imágenes espaciales de las que estás hablando.

Esto no solo implicaba limpiar una imagen, o unir algunas, o agregar marcas para mostrar dónde estaba algo. También incluyó alterar la apariencia fundamental de las imágenes, para hacerlas más bonitas, más deseables, etc.

De hecho, muchos de los gráficos más bellos que usa la NASA como sello distintivo, para obtener soporte, son en este sentido en gran medida falsos. La famosa foto de la Nebulosa del Águila (adjuntaré una versión de ella), por ejemplo, fue originalmente en escala de grises, la coloración es completamente humana.

Por lo tanto, su galardonada belleza, la herramienta promocional básica de la Oficina de Alcance Público, es solo un truco de relaciones públicas.

Esto es consistente con lo que aprendí sobre la NASA, en general. El único enfoque de cada parte de la organización que encontré fue obtener ganancias a través de un mayor financiamiento, utilizando cualquier medio que fuera necesario, incluidos los trucos de relaciones públicas. Gastaron una pequeña fortuna en una herramienta para “medir la capa de ozono” que no agregaba ninguna información útil. Cuando pregunté por qué, me dijeron que tener un astronauta apuntando un instrumento a través de una ventana del transbordador hacia la Tierra, por inútil que fuera, era una gran foto para aumentar los fondos. El concepto de Fear Equals Funding abundaba allí, así como una obsesión por asegurarse de que no se hiciera nada demasiado rápido o eficiente, para garantizar que los presupuestos siempre se agotaran, preferiblemente que los proyectos se quedaran cortos, incluso si podrían haberse hecho con dinero. de sobra.

La belleza de esta imagen es a través de colores añadidos por humanos, a través de Photoshop o alguna otra herramienta. La cosa real no se parecería en nada a esto.

Primero, sí, esta imagen fue creada uniendo imágenes, como muchas de las modernas. Esto se debe a que nuestros satélites tienden a orbitar cerca de la Tierra y tienen cámaras diseñadas para tomar imágenes de cerca de partes de la Tierra. Por lo tanto, muchos de ellos no pueden tener todo el planeta en un solo marco.

Entonces, de nuevo, sí, el científico que hizo esta imagen clonó algunas de las nubes. La explicación está aquí:

“Luego creó un” mapa de nubes unidas a partir de 200 escenas de satélite “, así como un mapa topográfico para agregar elevación a las masas de tierra de nuestro planeta. Algunas de las nubes están clonadas porque, como me dijo por correo electrónico,” hay lagunas entre órbitas cerca del ecuador, y no hay forma de llenarlas con datos reales “”.

Los secretos detrás de la imagen terrestre más famosa de todos los tiempos

Hay muchas fotografías de la “Tierra azul”. Muchos de ellos se hacen cosiendo fotografías tomadas de cerca.

Otros son fotografías individuales.

Para saber cuál es cuál, debe buscar el original y leer la descripción.

También imágenes de cerca de la Tierra, unidas, a menudo muestran solo una pequeña porción del globo terrestre. Por lo tanto, es posible que no muestren ni siquiera la mitad del globo, porque simulan la vista desde la nave espacial que está cerca.

Aquí hay una selección de algunas de las fotos individuales de la Tierra realizadas por naves espaciales distantes

Tierra desde la órbita lunar, imagen del Apolo 8 de la Tierra AS8-14-2383 tomada por el astronauta William Anders usando una cámara Hasselblad con una lente de 3 pulgadas.

Fotografía de la Tierra y la Luna tomada por la nave espacial Galileo. La Tierra y la Luna parecen mucho más cercanas entre sí de lo que están: imagen acortada.

Foto de la nave espacial Messenger, camino a Mercurio.

Earth and Moon from Mars Reconnassance orbiter – Colores de la Tierra atenuados

La Tierra como un punto azul pálido fotografiado por Cassini desde Saturno, a través de sus anillos.

Los obtuve de: Observando la Tierra desde el espacio

10 Vistas de la Tierra desde la Luna, Marte y más allá [Presentación de diapositivas]

Ver también

El lado oscuro de la luna capturado por el satélite de la NASA a un millón de millas de la Tierra

Este es otro video esta vez de la Luna pasando detrás de la ‘cámara de un millón de millas’ del satélite DSCOVR de la Tierra captura el eclipse lunar – BBC News

Creo que este mito comenzó originalmente con la “sesión de fotos” de las imágenes del telescopio espacial Hubble.

Lo que hace el Hubble es tomar tres fotos del mismo objeto, solo en diferentes longitudes de onda del espectro de luz. Esto aparecería en blanco y negro en una computadora. Para Marte, asignaron la longitud de onda equivalente a los colores (como los perciben los humanos), y luego los combinaron para formar una imagen completa. A continuación se muestra una buena representación de lo que está sucediendo.

Para algo como la Nebulosa del Águila, escogieron longitudes de onda más relevantes del espectro, para detectar la composición elemental del objeto, luego asignaron diferentes colores a esas longitudes de onda. La razón detrás de esto es para propósitos de percepción humana, por lo que podemos distinguir visualmente los elementos, especialmente en el área roja del espectro.

Si no cambiaran estos colores, sería todo marrón muy rojizo, y sería muy difícil distinguir diferentes elementos. Si quisieran una imagen de la Nebulosa del Águila como los humanos la verían realmente, usarían longitudes de onda similares a las que se usaron en la fotografía de Marte; sin embargo, eso no generaría muchos datos interesantes.

Esto no se utiliza para fines de relaciones públicas en absoluto, es para la ciencia. Y además, en mi opinión, las fotos en blanco y negro de la Nebulosa del Águila son igualmente asombrosas para mí.

Puede leer más sobre esto en http://hubblesite.org

HubbleSite – Detrás de las fotos – Marte
HubbleSite – Detrás de las imágenes – Nebulosa del Águila

“¿La NASA usa Photoshop?”
Por supuesto, si no Photoshop, entonces otro software de procesamiento de imágenes. Encontrará una respuesta aquí que sugiere que hay una guerra de calaveras detrás de esto. Eso es exagerar la realidad a lo grande. Veamos que implica

Las cámaras digitales son sensores intrínsecamente de escala de grises. Responden a la intensidad, y eso es todo. Obtenemos imágenes en color al hacer varias exposiciones de la misma imagen, usando varios filtros de colores diferentes. Para imágenes visuales, usualmente usamos filtros rojo, verde y azul; A esto lo llamamos “imágenes tricolores”. Cada una de estas imágenes es una escala de grises, pero todas son diferentes. Aprovechamos esto para crear la imagen de color final.

La técnica utiliza cada imagen en escala de grises como una capa de color separada. Estos se apilan uno encima del otro y se combinan para producir una imagen en color. Las cámaras en color de una sola toma hacen exactamente lo mismo, pero de una manera muy inteligente. El dispositivo imaginario en la cámara a color incluye un filtro Bayer. Aquí hay una ilustración de ese artículo de Wikipedia:


Cada píxel que ve en la pantalla LCD en la parte posterior de su cámara está construido a partir de cuatro píxeles “en bruto” agrupados. [1] Otra ilustración de ese artículo de Wikipedia muestra cómo funciona esto.

El procesador de imágenes dentro de la cámara extrae píxeles de la imagen en bruto y los baraja para que se alineen. (Podríamos imaginar que la matriz roja se movió hacia arriba y hacia la izquierda, y la matriz verde se movió hacia arriba). Combinamos estos para producir un solo píxel digital. Un formato de píxel muy simple utiliza 8 bits de datos rojos, 8 bits de datos verdes y 8 bits de datos azules para formar un píxel de 24 bits. Hay otros que proporcionan más profundidad de color o píxeles más compactos.

Necesitamos conocer las características de los filtros para poder generar la imagen en color correctamente. Esto nos permite asignar pesos a cada plano de color para obtener la mezcla correcta. A menudo encontrará diferentes modos de color en su cámara: estos hacen malabares con los pesos para producir más saturación, más contraste, un tono sepia o lo que sea que el diseñador de la cámara pueda imaginar.

Para las imágenes astronómicas profesionales, usualmente usamos un generador de imágenes en escala de grises con filtros seleccionables, típicamente montados en una rueda de filtros. Aquí hay un ejemplo.

(Imagen cortesía de SBIG: CFW-402 RGBC)
El cuarto filtro es un filtro transparente.

Utilizamos este enfoque porque obtenemos el mejor uso posible de todos los píxeles de la cámara y obtenemos una filtración constante en todo el marco.

Aquí están los cuadros en escala de grises de mi propia imagen de M57, la Nebulosa del Anillo

Y aquí está la imagen final:


No es tan bueno, no soy tan bueno en astrofotografía, pero así es exactamente como se hace.

No me molesté en nada más que la corrección aproximada del color, pero es razonable. Los filtros se encuentran en un conjunto comercial estándar de filtros, con características conocidas. Usé esas características, junto con las características del chip de imágenes para calcular el porcentaje de capas R, G y B que se suman para obtener la imagen final. Es un poco difícil de hacer, así que utilicé un programa genérico de cálculo de balance de color para obtener los números. No es tan difícil, pero es un poco tedioso, y a veces puedo ser un tipo perezoso.

Ese es el enfoque utilizado en todos los observatorios astronómicos profesionales, así como con las cámaras de imágenes en naves espaciales como New Horizons, el Hubble Space Telescope y los rovers de Marte.

Puede usar filtros y cámaras para longitudes de onda no visibles (como infrarrojo) o para bandas muy estrechas (como la luz producida por azufre ionizado, que muestra algunas nebulosas). Para aquellos, solo tiene que elegir un color para asignar a cada capa. Esa técnica se llama imágenes en color falso (ver: https://en.wikipedia.org/wiki/Fa …). Hay algunos enfoques para la selección de color. Una es elegir colores que se distingan muy fácilmente, y verás esto en cosas como imágenes de radar y mapas meteorológicos. Otra es elegir colores que sean artísticamente agradables. Eso, por supuesto, es una cuestión de gusto y juicio, y puedes discutir sobre eso indefinidamente.

¿Se pueden distorsionar las imágenes para mostrar cosas extrañas? Por supuesto que pueden. Aquí está la cosa: hemos podido hacer eso desde los primeros días de fotografía.

Si solo desea una imagen bonita para el fondo de pantalla de su computadora, realmente no importa. Si quieres hacer un análisis científico serio, querrás las imágenes en bruto. Cada observatorio tiene políticas de acceso a esas imágenes. En el caso de las imágenes del Telescopio Espacial Hubble, los archivos sin formato están disponibles de forma abierta, al igual que las especificaciones de las características de las imágenes y los filtros. Si no le gustan las imágenes que se han publicado, obtenga los archivos sin formato y haga los suyos.

Ahí tienes.

Por cierto, no estoy empleado por la NASA ni por ninguna otra agencia espacial. Soy astrónomo aficionado y miembro de la Royal Astronomical Society of Canada (ver: https://en.wikipedia.org/wiki/Ro …). El único interés que tengo aquí es ayudar a las personas a aprender más sobre astronomía y ciencia en general.

Animo a cualquiera que esté interesado a hacer la investigación. Los detalles pueden parecer abrumadores. Afortunadamente, puede excavar tan profundamente como desee y dejar la mayor parte del contenido esencial al software, todo lo cual es comercial, y algunos de ellos son gratuitos o bastante económicos.

—–
[1] Hay cuatro filtros de color en una matriz Bayer porque necesitamos una matriz regular para cubrir el generador de imágenes rectangular. La solución habitual es usar uno azul, uno rojo y dos filtros verdes. Esto funciona bien porque el ojo humano es más sensible a las longitudes de onda verdes.

No entiendo por qué la gente hace todo lo posible para que la NASA parezca que está engañando a la gente. Creo que estos intentos son un mal servicio. Si algo, las imágenes photoshopeadas no están destinadas a engañar a nadie, sino que ayudan a explicar qué es lo que estamos viendo.

¿Te diste cuenta de que nuestros ojos ven una fracción del espectro, pero el universo contiene luz que abarca todo el espectro? ¿Cómo se supone que la NASA te muestre una fracción del universo y espere que lo entiendas? Ciertamente, están haciendo imágenes en falso color para mostrar el espectro variado en una longitud de onda que puedes ver. Una vez que la NASA llega a ese punto, la pregunta es: “¿Darle a la gente la virsion de 4 bits y 16 colores de Nintendo de la imagen o darles una imagen, científicamente precisa, pero visualmente agradable?”

Si la NASA está fingiendo todo, ¿cuál es la alternativa? ¿Qué habrías hecho diferente?

La realidad es que, en el futuro previsible, el 99,99999998571429% de la población humana nunca abandonará el planeta. La ciencia que tiene la NASA no tendrá un impacto directo en usted o en mí, aparte de algunos de los productos que vemos en nuestra vida diaria. Pero si la NASA, la ESA y otras agencias espaciales no avanzan con su trabajo, entonces se acabó el juego para todos, hasta la última persona. Al menos con ellos tenemos una oportunidad. La NASA es como el boleto de lotería de la humanidad, cuanto más gastan, mayores son las probabilidades de ganar un premio gordo.

La esperanza es que la tecnología desarrollada tratando de colonizar el espacio salvará innumerables vidas a largo plazo. Si sabemos cómo funcionan otros planetas, sabremos más sobre el nuestro.

Intenta sostener una pelota de baloncesto en tu cara. Toca tu nariz con eso. Luego, cierra un ojo. Ahora, ¿cuánto del baloncesto puedes ver? Solo una pequeña porción, ¿verdad?

Eso es similar a un satélite en órbita terrestre baja tratando de obtener una foto de todo el planeta. Está demasiado cerca. Por lo tanto, se combinan múltiples imágenes detalladas y se mapean en un modelo 3D para obtener resultados realmente hermosos.

Esta es solo una de las razones para utilizar el software de imágenes como una herramienta excepcional para visualizar no solo la Tierra, sino también el resto del sistema solar.

Y sí, también se han tomado algunas imágenes, desde lejos, de todo el planeta y la luna juntos (ver la respuesta de Robert Walker).

Y no, la Tierra no es plana.

Editar: 21/10/2015

Supongo que la NASA ha estado haciendo “Photoshopping” una nueva imagen cada dos horas durante los últimos meses. Gran nueva página web de la NASA está disponible!

DSCOVR :: EPIC :: Cámara policromática de la Tierra

¡Elija cualquier día de un calendario desplegable y vea una animación de varias imágenes de la Tierra giratoria para ese día! Además, proporcionan una herramienta para acercar y observar los patrones climáticos. ¡Y también son muy precisos! Todos los patrones de nubes coinciden con el clima real que se observa localmente.

¡La NASA debe mantener a todo un equipo de “artistas falsos” muy ocupado!

Editar: 26/07/2016

Aquí hay un video increíble de la NASA Goddard que muestra la rotación de la Tierra durante un año completo de imágenes en un lapso de tiempo:

“Un año en la Tierra: visto desde 1 millón de millas”

¿Quién dice que estos son de la NASA? ¿Un teórico de la conspiración de youtube?

En lugar de creer en un youtuber de “tierra plana” que no cita referencias, y que probablemente hizo la clonación él mismo, ¿por qué no vas a visitar el sitio web de la NASA y revisas las imágenes tú mismo, desde la boca de los caballos, por así decirlo? . Estas imágenes se han reutilizado y reutilizado una y otra vez. Encontrar uno que haya sido Photoshoppeado no es sorprendente.

Todo lo que se necesitaría es la existencia de una imagen no clonada de toda la Tierra tomada desde el espacio profundo para demostrar que el video está fabricado.

Y adivina qué . . . La NASA tiene bastantes. Aquí hay uno
http://i.imgur.com/ptES77M.jpg
Tomado a un millón de millas de la Tierra, una de las primeras imágenes tomadas por la Cámara de Imágenes Policromáticas de la Tierra (EPIC) de la NASA.
Fuente: NASA

Por cierto, la famosa imagen de Blue Marble, tomada por Apollo 17 el 7 de diciembre de 1972, es anterior al desarrollo de Photoshop (1987), aunque no es anterior a la edición de fotografías. Pero no había una “herramienta de clonación” antes de Photoshop. Antes de Photoshop, tales ediciones fueron hechas por artistas y un aerógrafo.

Ninguna NASA NO utiliza Photoshop. En un momento, la NASA usó el software ERDAS para el procesamiento de imágenes y, al igual que ahora, la NASA usa una combinación de ERDAS imagine y ESRI arc GIS para fotografiar imágenes de proceso de imagen de las sondas, porque el USGS usa AMBOS ERDAS y ARC GIS. Leica compró ERDAS hace varios años. ERDAS es mucho más sofisticado que Photoshop o cualquier otro software de procesamiento de imágenes. Si una agencia del gobierno de EE. UU. utiliza un software o más, es muy probable que varias agencias de EE. UU. utilicen el mismo software.

@https: //en.wikipedia.org/wiki/Er…
@https: //en.wikipedia.org/wiki/Ar…

Mi fuente es confiable y creíble, pero prefiero mantener para mí quién es mi fuente.

Es muy probable que la Agencia Nacional de Inteligencia Geopatiail también use ERDAS y ArcGIS.

La NASA edita sus imágenes. Pero la mayoría de las veces, simplemente combina miles de imágenes en una, lo que aumenta la resolución. Por ejemplo, si tomara una fotografía de su automóvil, sería una fotografía decente, pero no suficiente para alguien que quiera ver cada pequeño rasguño en el automóvil. En este caso (hipotéticamente), podría tomar 100 fotos de partes más pequeñas de su automóvil y combinarlas para formar una imagen grande. Por supuesto, no tiene tiempo para hacerlo completamente a la perfección, por lo que su automóvil puede parecer 1 pulgada más largo de lo que realmente es o algo así. Creo que eso es lo que está sucediendo en el video que proporcionó. Además, en toda la imagen del globo, creo que también es una combinación de toneladas de fotos, por lo que tal vez haya superposición de imágenes duplicadas, haciendo que África se vea accidentalmente 10 millas más ancha de lo que realmente es. Francamente, es ridículo pensar que esto es “prueba” de una Tierra plana.

¡Bueno sí! Tienen que pintar con aerografía todas las ciudades y tecnología alienígenas, esas molestas naves espaciales que tienden a aparecer en imágenes del espacio y otros planetas. ¡Sin embargo, no pueden conseguirlos todos! Muchos ojos de águila miran a Marte mientras hablamos, seleccionando pequeños detalles como un láser blaster (¿o es un adorno de capucha? Quizás un aspersor de jardín)

Hasta cierto punto, pero no cambian la imagen original de la mañana al cortarla o agregarle partes, mejoran el esquema de color para hacer que la imagen tenga una imagen más fina y más detallada y una saturación más precisa

Por lo general no lo hacen. A veces se usan imágenes compuestas, y estas solo se unen para ver la imagen completa. A veces, muestran la visualización de un artista de algo que realmente no se ha observado directamente, como una vista de un agujero negro donde el horizonte de eventos es más grande que un punto en el cielo.

Las fotos del alunizaje, las tomas de la tierra y muchas otras fotos se publican con poca o ninguna manipulación.

¡Seguro lo hacen!

Cómo la NASA usa Photoshop para ver lo invisible

Sí, todas las fotos de Marte se han fotografiado, todas las galaxias, planetas, asteroides y la luna se están fotografiando, es como las modelos en una revista más que maquillaje.

Es por eso que hay mucha expectación en torno a Marte, todos los expertos en ovnis piensan que la NASA está cubriendo pruebas extraterrestres debido a las fotos tomadas de MARS y además de cómo el rover lleva más de 10 años funcionando sin tener reparaciones de ningún tipo que sean muy extrañas. si me preguntas.

Mi página web personal
COOLMARKET

Respuesta básica: sí. Ejecuté el capítulo ACM / SIGGRAPH del Área de la Bahía antes de que Adobe realmente despegara. El vicepresidente de mi capítulo es un artista gráfico que hace trabajos de pintura para la Oficina de Asuntos Públicos y otros aspectos de relaciones públicas que todavía trabajan allí.

Sí, por supuesto, si eres un experto en photoshop.