Combinando más de 400 fotografías obtenidas por la sonda Curiosity, el fotógrafo Andrew Bodrov prácticamente ha creado un “tour virtual” de Marte en cuatro gigapíxeles que no tiene desperdicio.
Ciencia y Tecnología
Una mirada a los ultimos avances en ciencia
viernes, 29 de marzo de 2013
Una megapanoramica de Marte a todo de talle
Combinando más de 400 fotografías obtenidas por la sonda Curiosity, el fotógrafo Andrew Bodrov prácticamente ha creado un “tour virtual” de Marte en cuatro gigapíxeles que no tiene desperdicio.
domingo, 17 de marzo de 2013
Intel, investigando para el futuro
En su día Intel llegó a dominar el mercado de los PC fabricando los
chips más avanzados del mundo, superando a sus competidores en lo
relativo a la Ley de Moore y produciendo procesadores de mayor rendimiento a un coste unitario más bajo. Sin embargo, los teléfonos inteligentes y las tabletas de hoy día no requieren necesariamente un rendimiento de vanguardia, y a los inversores les preocupa que la longeva estrategia ganadora de Intel no se traduzca en beneficios a medida que estos dispositivos reduzcan las ventas de PC. De hecho, en el mercado móvil, Intel sigue estando muy por detrás de sus competidores.
Durante un informe de ganancias la semana pasada, el director general de la compañía, Paul Otellini, tuvo que tranquilizar a los analistas y asegurar que las fábricas de 'vanguardia' de Intel siguen siendo su "mayor activo individual", suficiente para justificar 13.000 millones de dólares (9.600 millones de euros) de gasto de capital en 2013 para mantener dicha posición de vanguardia.
En los próximos dos años se pondrá a prueba esa teoría, ya que Intel
tiene la intención de finalmente reclamar su posición como fabricante de
los procesadores más avanzados del mundo móvil. Dichos procesadores se
fabricarán con transistores diminutos, de 22 nanómetros, que Intel
planea presentar este año antes de pasar con relativa rapidez a la venta
de chips móviles fabricados con un proceso de 14 nanómetros en 2014. Intel lleva vendiendo chips móviles desde hace algún tiempo, aunque los primeros teléfonos inteligentes y tabletas con procesadores Intel no fueron lanzados hasta 2012. Hasta ahora, el mercado de chips de teléfonos inteligentes ha estado formado principalmente por diseños de ARM, más eficientes en cuanto a energía, vendidos por empresas como Qualcomm y fabricados en fundiciones como TMSC y Samsung.
Otellini tiene razón al afirmar que Intel se pondrá por delante gracias a su tecnología de 22, 14 y, en última instancia, 10 nanómetros, y que esta ventaja puede ser su mejor esperanza para convencer a los fabricantes de dispositivos de que compren sus nuevos procesadores móviles, junto con nuevos diseños de chip más eficientes.
"El problema de Intel es que no van a llegar a ninguna parte solo por el hecho de ser Intel. En este caso, su experiencia previa no les sirve de ayuda. Igualarse a los demás tampoco cambia las cosas demasiado. Tienen que ser mejores", señala Linley Gwennap, analista principal del Grupo Linley.
Estos chips también serán diseñados para ayudar a resolver el mayor problema responsable del retraso de Intel a la hora de entrar en el mercado móvil: puesto que su diseño inicial estaba basado en PC con capacidad para ser enchufados a la red, sus chips consumían demasiada batería.
Intel ha diseñado nuevos chips mejorados. Hoy día, la arquitectura de
chip inteligente 'Atom' de 32 nanómetros de Intel, utilizada en un
total de siete dispositivos vendidos en 20 países, ya es "igual o mejor
que los mejores diseños de ARM", afirmó Otellini la semana pasada. En el
futuro, y en combinación con una arquitectura más pequeña que permita
incluir más transistores en el chip, Intel podría crear procesadores de
mayor rendimiento que también puedan consumir menos energía, señala
Gwennap. Estas ventajas podrían resultar especialmente atractivas para aquellos fabricantes de dispositivos que busquen crear teléfonos inteligentes que actúen más como tabletas, o tabletas que actúen más como potentes ordenadores portátiles, señala Len Jelinek, analista jefe de fabricación de semiconductores en IHS iSuppli. Tal y como Otellini señaló la semana pasada, la línea divisoria entre los dos factores de forma se está difuminando.
Aún así, y a medida que intente incrementar sus ventas entre los fabricantes de dispositivos, la tecnología de fabricación avanzada de Intel no podrá resolver una serie de grandes barreras. "No importa lo buenos que sean tus transistores, aún así tienes que crear productos que satisfagan las necesidades del mercado", indicó Gwennap.
Por ejemplo, Intel lo tendrá difícil para diseñar una combinación adecuada de características y especificaciones en sus chips, integrando distintos elementos como por ejemplo wifi, capacidad celular, funciones gráficas y GPS. Durante los últimos años, Intel ha adquirido una serie de empresas para que le ayuden con esta iniciativa, aunque no ha demostrado que pueda incorporarlas sin problemas.
Por otro lado, Intel tiene que luchar contra la percepción de que ARM es el diseñador por defecto de chips móviles. Los fabricantes de dispositivos, que trabajan con ciclos de producción rápidos, podrían considerar el cambio a Intel como algo arriesgado hasta que su tecnología móvil esté más probada, señala Jelinek.
Y, por último, Intel se enfrenta a varios riesgos a la hora de calcular cuánta capacidad de fabricación de alto coste debe construir. Los chips móviles son más pequeños, por lo que será más difícil mantener las fábricas ocupadas incluso con una gran cantidad de pedidos.
Todas estas cuestiones son cruciales para el negocio de Intel, ya que las ventas de PC se desploman. Intel hizo referencia a estos cambios radicales la semana pasada con el anuncio de una desaceleración de su negocio de placas base para ordenadores de escritorio, para así poder centrarse en ultrabooks ligeros, tabletas y teléfonos.
La compañía está haciendo algunos progresos. En la actualidad, por ejemplo, entre los siete diseños de teléfonos inteligentes con chips de Intel se encuentran modelos de ZTE y Lenovo, dos de los principales vendedores de teléfonos inteligentes en China. Por otro lado, sus chips Clover Trail se pueden encontrar hoy día en 10 tabletas.
Jelinek anticipa que Intel será "parte de la revolución inalámbrica" en el futuro. "A Intel se le da realmente bien proporcionar la próxima generación de tecnología. Simplemente ha tardado mucho tiempo en hacerlo".
domingo, 16 de diciembre de 2012
Una vista de 360º
Alguna vez has soñado con tener ojos en la parte posterior de su cabeza?
Con FlyVIZ , diseñado por ingenieros franceses, le permite disfrutar de una visión en tiempo real de 360 ° de su entorno.
Combina un sistema de adquisición de imágenes panorámicas (situado en
la parte superior de la cabeza) con una pantalla montada en la cabeza
(HMD) y un ordenador portátil para la transformación de las imágenes en tiempo real en una forma que los seres humanos pueden verlo.
"Prevemos posibles aplicaciones en distintos campos donde la capacidad aumentada humana (un extenso campo de visión) podrían ser beneficiosos, como la vigilancia, la seguridad, o el entretenimiento", dicen los inventores.
"En materia de seguridad y aplicaciones de seguridad, los soldados, los policías o los bomberos podrían beneficiarse de la visión omnidireccional para evitar peligros potenciales o localizar objetivos con mayor rapidez. En situaciones menos críticas, algunas aplicaciones de vigilancia con una carga de trabajo visual de altura, en todas las direcciones del espacio, por ejemplo, también podría ser interesante, tales como la regulación del tráfico.
"FlyViz también podría transformarse en aplicaciones de entretenimiento y dispositivos, así como materiales experimentales para la nueva percepción y los estudios de la neurociencia".
Las aplicaciones de realidad aumentada también podrían mejorar este aparato, sugieren los ingenieros.
Con FlyVIZ , diseñado por ingenieros franceses, le permite disfrutar de una visión en tiempo real de 360 ° de su entorno.
Combina un sistema de adquisición de imágenes panorámicas (situado en
la parte superior de la cabeza) con una pantalla montada en la cabeza
(HMD) y un ordenador portátil para la transformación de las imágenes en tiempo real en una forma que los seres humanos pueden verlo."Prevemos posibles aplicaciones en distintos campos donde la capacidad aumentada humana (un extenso campo de visión) podrían ser beneficiosos, como la vigilancia, la seguridad, o el entretenimiento", dicen los inventores.
"En materia de seguridad y aplicaciones de seguridad, los soldados, los policías o los bomberos podrían beneficiarse de la visión omnidireccional para evitar peligros potenciales o localizar objetivos con mayor rapidez. En situaciones menos críticas, algunas aplicaciones de vigilancia con una carga de trabajo visual de altura, en todas las direcciones del espacio, por ejemplo, también podría ser interesante, tales como la regulación del tráfico.
"FlyViz también podría transformarse en aplicaciones de entretenimiento y dispositivos, así como materiales experimentales para la nueva percepción y los estudios de la neurociencia".
Las aplicaciones de realidad aumentada también podrían mejorar este aparato, sugieren los ingenieros.
jueves, 13 de diciembre de 2012
¿Vivimos en una simulación de ordenador? Cómo poner a prueba la idea.
El concepto de que podríamos estar viviendo en una simulación por ordenador viene de un documento de 2003 publicado en Philosophical Quarterly por Nick Bostrom , un profesor de filosofía en la Universidad de Oxford.
Con las limitaciones actuales y las tendencias de la computación,
pasarán décadas antes de que los investigadores sean capaces de
realizar simulaciones incluso primitivas del universo.
Sin embargo, un equipo de la Universidad de Washington ha sugerido
pruebas que se pueden realizar ahora, o en el futuro próximo, que puede
resolver la cuestión.
En la actualidad, los superordenadores utilizan una técnica llamada enrejado cromodinámico cuántico (LQC), y a partir de las leyes físicas fundamentales que gobiernan el universo, puede simular sólo una porción muy pequeña del universo, en la escala de una 100-billonésima parte de un metro, un poco más grande que el núcleo de un átomo, dijo Martin Savage , profesor de física de la Universidad de Washington.
Eventualmente, sin embargo, las simulaciones más potentes serán capaces de modelar en la escala de una molécula una célula e incluso un ser humano. Pero tomará muchas generaciones de crecimiento en potencia de cálculo para poder simular una gran parte suficiente del universo para comprender las limitaciones de los procesos físicos que indiquen que estamos viviendo en un modelo computacional.
Sin embargo, Savage dijo, hay señales de las limitaciones de recursos en los actuales simulaciones de que puedan existir, así como en las simulaciones en un futuro lejano, como la huella de una red subyacente, si se utiliza para modelar el continuo espacio-tiempo.
Las supercomputadoras que realizan cálculos LQC esencialmente dividen el espacio-tiempo en una cuadrícula de cuatro dimensiones. Esto permite a los investigadores examinar lo que se llama la fuerza nuclear fuerte, una de las cuatro fuerzas fundamentales de la naturaleza y la que une las partículas subatómicas llamadas quarks y gluones juntos en neutrones y protones en el núcleo de los átomos.
"Si usted hace las simulaciones lo suficientemente grande, deberia surgir algo así como nuestro universo", dijo Savage. En ese caso sería una cuestión de buscar una "firma" en nuestro universo que tuviera un análogo en las actuales simulaciones a pequeña escala.
Savage y sus colegas sugieren que la firma podría aparecer como una limitación de la energía de los rayos cósmicos.
En un artículo que han publicado en arXiv , dicen que los rayos cósmicos de alta energía no viajaría a lo largo de los bordes de la red en el modelo, pero viajaría en diagonal, y que no interactúan igualmente en todas las direcciones, ya que de otro modo es lo que se esperaria..
"Esta es la primera firma comprobable de esa idea", dijo Savage.
Si tal concepto resultase ser realidad, aumentaría también otras posibilidades. Por ejemplo, el co-autor Zohreh Davoudi sugiere que si nuestro universo es una simulación, entonces los que dirigen podría estar ejecutando otras simulaciones también, esencialmente creando otros universos paralelos al nuestro.
"Entonces la pregunta es, '¿Puede usted comunicarse con esos otros universos si se están ejecutando en la misma plataforma?'", Dijo.
Hay, por supuesto, muchas advertencias a esta extrapolación. La más importante de ellas es la suposición de que el crecimiento exponencial de las computadoras continuará en el futuro. Relacionado con esto está la posible existencia de la singularidad tecnológica, lo que podría alterar la curva de manera impredecible.
Y, por supuesto, la extinción humana terminaría el crecimiento exponencial - o su simulación.
Con las limitaciones actuales y las tendencias de la computación,
pasarán décadas antes de que los investigadores sean capaces de
realizar simulaciones incluso primitivas del universo.
Sin embargo, un equipo de la Universidad de Washington ha sugerido
pruebas que se pueden realizar ahora, o en el futuro próximo, que puede
resolver la cuestión.En la actualidad, los superordenadores utilizan una técnica llamada enrejado cromodinámico cuántico (LQC), y a partir de las leyes físicas fundamentales que gobiernan el universo, puede simular sólo una porción muy pequeña del universo, en la escala de una 100-billonésima parte de un metro, un poco más grande que el núcleo de un átomo, dijo Martin Savage , profesor de física de la Universidad de Washington.
Eventualmente, sin embargo, las simulaciones más potentes serán capaces de modelar en la escala de una molécula una célula e incluso un ser humano. Pero tomará muchas generaciones de crecimiento en potencia de cálculo para poder simular una gran parte suficiente del universo para comprender las limitaciones de los procesos físicos que indiquen que estamos viviendo en un modelo computacional.
Sin embargo, Savage dijo, hay señales de las limitaciones de recursos en los actuales simulaciones de que puedan existir, así como en las simulaciones en un futuro lejano, como la huella de una red subyacente, si se utiliza para modelar el continuo espacio-tiempo.
Las supercomputadoras que realizan cálculos LQC esencialmente dividen el espacio-tiempo en una cuadrícula de cuatro dimensiones. Esto permite a los investigadores examinar lo que se llama la fuerza nuclear fuerte, una de las cuatro fuerzas fundamentales de la naturaleza y la que une las partículas subatómicas llamadas quarks y gluones juntos en neutrones y protones en el núcleo de los átomos.
"Si usted hace las simulaciones lo suficientemente grande, deberia surgir algo así como nuestro universo", dijo Savage. En ese caso sería una cuestión de buscar una "firma" en nuestro universo que tuviera un análogo en las actuales simulaciones a pequeña escala.
Savage y sus colegas sugieren que la firma podría aparecer como una limitación de la energía de los rayos cósmicos.
En un artículo que han publicado en arXiv , dicen que los rayos cósmicos de alta energía no viajaría a lo largo de los bordes de la red en el modelo, pero viajaría en diagonal, y que no interactúan igualmente en todas las direcciones, ya que de otro modo es lo que se esperaria..
"Esta es la primera firma comprobable de esa idea", dijo Savage.
Si tal concepto resultase ser realidad, aumentaría también otras posibilidades. Por ejemplo, el co-autor Zohreh Davoudi sugiere que si nuestro universo es una simulación, entonces los que dirigen podría estar ejecutando otras simulaciones también, esencialmente creando otros universos paralelos al nuestro.
"Entonces la pregunta es, '¿Puede usted comunicarse con esos otros universos si se están ejecutando en la misma plataforma?'", Dijo.
Hay, por supuesto, muchas advertencias a esta extrapolación. La más importante de ellas es la suposición de que el crecimiento exponencial de las computadoras continuará en el futuro. Relacionado con esto está la posible existencia de la singularidad tecnológica, lo que podría alterar la curva de manera impredecible.
Y, por supuesto, la extinción humana terminaría el crecimiento exponencial - o su simulación.
miércoles, 12 de diciembre de 2012
El chip que aumentará la velocidad de internet
IBM, la empresa tecnológica estadounidense, ha anunciado el desarrollo de un chip que, a través de impulsos de luz, permitirá la transmisión de información a una velocidad mayor.
La nueva tecnología, llamada «nanofotónica de silicio»,
permite la integración de diferentes componentes en un chip de silicio.
De esta manera, según la compañía, se aprovecha de los impulsos de luz
(en lugar de usar señales eléctricas) para la comunicación, y «proporciona una autopista para enormes volúmenes de datos» entre procesadores de servidores a una mayor velocidad que los actuales sistemas existentes.
Según ha dicho el equipo que desarrolla esta tecnología a la BBC, el uso de la luz en lugar de flujos de electrones para transmitir información tiene dos ventajas. La primera es que los datos pueden ser enviados a mayor distancia desde distintas partes del servidor, sin riesgo de perder información. Y, además,
la luz permite transferir más cantidad de datos y a más velocidad que
con los cables convencionales. Así, según este artículo, IBM ha hecho posible que este proceso de conversión tenga lugar en el chip
de la computadora que integra los componentes ópticos de lado a lado de
los circuitos eléctricos de una misma pieza de silicio, y pueden ser
fabricados a un costo relativamente bajo.
Está programado que la propia IBM aporte más detalles sobre este descubrimiento esta misma semana en el Encuentro Internacional de Aparatos Eléctricos («IEEE International Electron Devices Meeting») en San Francisco.
lunes, 3 de diciembre de 2012
Voyager 1 alcanza una región en el espacio desconocida
La
nave espacial Voyager 1, lanzada en 1977, ha llegado a una nueva región
al borde del sistema solar llamada "carretera magnética".
Esto es emocionante porque los científicos creen que es la última región antes de que la sonda espacial entre en el espacio interestelar, que es el espacio entre los sistemas solares. Una vez que la Voyager 1 llegue a esta zona, se convertirá en el primer objeto hecho por el hombre en salir de nuestro sistema solar.
¿Cómo saben los científicos que el Voyager 1 ha llegado a una nueva región del espacio?
El Sol emite una corriente de partículas cargadas, llamadas viento solar, que forman una burbuja alrededor de nuestro sistema solar conocida como heliosfera. El espacio interestelar también emite partículas cargadas, o de baja energía de rayos cósmicos, pero éstos son impedidos de entrar en nuestra atmósfera por el campo magnético del sol.
En junio, los nuevos datos mostraron que la intensidad de las partículas energéticas del interior de la heliosfera se iban desacelerando, mientras que la intensidad de las partículas cargadas cerca de la carcasa exterior de la burbuja, conocida como la heliopausa, fueron cada vez más fuerte.
Los cambios de intensidad de las partículas son un fuerte indicio de que la Voyager 1 estaba saliendo de la heliosfera. Pero había un problema. Si la nave estaba a punto de hecho el espacio interestelar, entonces el campo magnético del Sol, también debe cambiar de dirección de intensidad ya que es accionado por el campo magnético interestelar. Eso no sucedió. De hecho, el campo magnético del Sol se hizo más fuerte.
Estos investigadores llevaron a creer que la Voyager 1 había entrado en una región del espacio que nunca se había visto antes. En esta nueva frontera, las líneas del campo magnético del Sol conectado con el campo interestelar, a su vez, producen la creación de una "autopista" que permite que las partículas del Sol alejarse y las partículas del espacio interestelar para fluir.
"Creemos que [la carretera magnética] es la última etapa de nuestro viaje al espacio interestelar", dijo el científico del proyecto Voyager Edward Stone en un comunicado. "Nuestra mejor estimación es que es probable que sólo unos pocos meses a un par de años de distancia. La nueva región no es lo que esperábamos, pero hemos llegado a esperar lo inesperado de la Voyager."
Esto es emocionante porque los científicos creen que es la última región antes de que la sonda espacial entre en el espacio interestelar, que es el espacio entre los sistemas solares. Una vez que la Voyager 1 llegue a esta zona, se convertirá en el primer objeto hecho por el hombre en salir de nuestro sistema solar.
¿Cómo saben los científicos que el Voyager 1 ha llegado a una nueva región del espacio?
El Sol emite una corriente de partículas cargadas, llamadas viento solar, que forman una burbuja alrededor de nuestro sistema solar conocida como heliosfera. El espacio interestelar también emite partículas cargadas, o de baja energía de rayos cósmicos, pero éstos son impedidos de entrar en nuestra atmósfera por el campo magnético del sol.
En junio, los nuevos datos mostraron que la intensidad de las partículas energéticas del interior de la heliosfera se iban desacelerando, mientras que la intensidad de las partículas cargadas cerca de la carcasa exterior de la burbuja, conocida como la heliopausa, fueron cada vez más fuerte.
Los cambios de intensidad de las partículas son un fuerte indicio de que la Voyager 1 estaba saliendo de la heliosfera. Pero había un problema. Si la nave estaba a punto de hecho el espacio interestelar, entonces el campo magnético del Sol, también debe cambiar de dirección de intensidad ya que es accionado por el campo magnético interestelar. Eso no sucedió. De hecho, el campo magnético del Sol se hizo más fuerte.
Estos investigadores llevaron a creer que la Voyager 1 había entrado en una región del espacio que nunca se había visto antes. En esta nueva frontera, las líneas del campo magnético del Sol conectado con el campo interestelar, a su vez, producen la creación de una "autopista" que permite que las partículas del Sol alejarse y las partículas del espacio interestelar para fluir.
"Creemos que [la carretera magnética] es la última etapa de nuestro viaje al espacio interestelar", dijo el científico del proyecto Voyager Edward Stone en un comunicado. "Nuestra mejor estimación es que es probable que sólo unos pocos meses a un par de años de distancia. La nueva región no es lo que esperábamos, pero hemos llegado a esperar lo inesperado de la Voyager."
jueves, 29 de noviembre de 2012
La Antártida también se derrite
www.abc.es
Un estudio concluye que se acelera la pérdida de masa helada en ambos polos, no solo en Groenlandia
Combinando series de datos procedentes de satélites
–altimetría, interferometría y gravimetría- los investigadores,
liderados por Andrew Shepherd, de la Universidad de Leeds (Reino Unido),
y Eric Ivins, del Jet Propulsion Laboratory de la NASA,
han reconstruido el balance de masa de los mantos de hielo de ambos
Polos entre 1992 y 2011. Después de reprocesar las series de datos para
asegurarse de que estaban comparando manzanas con manzanas, esto es,
regiones geográficas comunes, mismos intervalos de tiempo y los modelos
que recogen el comportamiento de las plataformas de hielo, los
investigadores concluyen que las capas de hielo de Groenlandia, de la Península antártica y de la Antártida occidental
están perdiendo masa, mientras que sólo la Antártida oriental está
viendo incrementarse su masa de hielo, sin que sea suficiente para
compensar las pérdidas del resto del continente helado.
En total, la pérdida de masa derivada del deshielo y la
desintegración de las placas -a medida que corrientes más cálidas van
erosionando los márgenes y disminuyendo su estabilidad- ha contribuido a
un aumento del nivel del mar de 11,1 milímetros desde 1992.
Un estudio concluye que se acelera la pérdida de masa helada en ambos polos, no solo en Groenlandia
Tanto Groenlandia como la Antártida están
perdiendo masa helada y a un ritmo que no ha dejado de acrecentarse.
Aunque pueda parecer extraño dada la multitud de datos que apuntan a un
calentamiento global del planeta, lo cierto es que en los últimos años
no han sido pocos los estudios que ponían en duda que la Antártida
estuviera sufriendo en forma de deshielo estos rigores del clima y más
bien apuntaban a que estaba ganando masa helada, todo lo contrario de lo
que estaba ocurriendo en Groenlandia. Ahora, un nuevo estudio, que
publica el último número de «Science», viene a terminar con 20 años de incertidumbres.
Combinando series de datos procedentes de satélites
–altimetría, interferometría y gravimetría- los investigadores,
liderados por Andrew Shepherd, de la Universidad de Leeds (Reino Unido),
y Eric Ivins, del Jet Propulsion Laboratory de la NASA,
han reconstruido el balance de masa de los mantos de hielo de ambos
Polos entre 1992 y 2011. Después de reprocesar las series de datos para
asegurarse de que estaban comparando manzanas con manzanas, esto es,
regiones geográficas comunes, mismos intervalos de tiempo y los modelos
que recogen el comportamiento de las plataformas de hielo, los
investigadores concluyen que las capas de hielo de Groenlandia, de la Península antártica y de la Antártida occidental
están perdiendo masa, mientras que sólo la Antártida oriental está
viendo incrementarse su masa de hielo, sin que sea suficiente para
compensar las pérdidas del resto del continente helado.Aumento del nivel del mar
En total, la pérdida de masa derivada del deshielo y la
desintegración de las placas -a medida que corrientes más cálidas van
erosionando los márgenes y disminuyendo su estabilidad- ha contribuido a
un aumento del nivel del mar de 11,1 milímetros desde 1992.
Esto equivale al 20% del total del aumento del nivel del mar durante
ese tiempo. Pero lo más grave es que esa pérdida de hielo se está
acelerando. Groenlandia y la Antártida están perdiendo tres veces más
hielo (equivalente a 0,95 milímetros por año de aumento en el nivel del
mar) que en 1990, cuando el ritmo de contribución al aumento del nivel
del mar era de 0,27 milímetros/año. No obstante, sigue siendo mayor la
pérdida de hielo en Groenlandia, que suma dos tercios del total de lo
que se pierde.
El estudio también encuentra diferencias en el ritmo de
cambio en cada Polo. Según explicó Eric Ivins a través de una
conferencia de prensa telefónica, «el ritmo de pérdida de hielo en
Groenlandia aumentó casi cinco veces desde mediados de los años 90. En
contraste, mientras los cambios regionales en los hielos antárticos son a
veces muy llamativos, el balance final se ha mantenido más o menos
constante».
En este estudio han participado 47 investigadores de 26 laboratorios, y ha sido financiado por la Agencia Espacial Europea (ESA) y por la NASA.
Suscribirse a:
Comentarios (Atom)
