domingo, 16 de diciembre de 2012

Una vista de 360º

Alguna vez has soñado con tener ojos en la parte posterior de su cabeza?
 
 Con FlyVIZ , diseñado por ingenieros franceses, le permite disfrutar de una visión en tiempo real de 360 ° de su entorno. Combina un sistema de adquisición de imágenes panorámicas (situado en la parte superior de la cabeza) con una pantalla montada en la cabeza (HMD) y un ordenador portátil para la transformación de las imágenes  en tiempo real en una forma que los seres humanos pueden verlo.
 
"Prevemos posibles aplicaciones en distintos campos donde la capacidad aumentada humana (un extenso campo de visión) podrían ser beneficiosos, como la vigilancia, la seguridad, o el entretenimiento", dicen los inventores.
 
"En materia de seguridad y aplicaciones de seguridad, los soldados, los policías o los bomberos podrían beneficiarse de la visión omnidireccional para evitar peligros potenciales o localizar objetivos con mayor rapidez. En situaciones menos críticas, algunas aplicaciones de vigilancia con una carga de trabajo visual de altura, en todas las direcciones del espacio, por ejemplo, también podría ser interesante, tales como la regulación del tráfico.
 
"FlyViz también podría transformarse en aplicaciones de entretenimiento y dispositivos, así como materiales experimentales para la nueva percepción y los estudios de la neurociencia".

Las aplicaciones de realidad aumentada también podrían mejorar este aparato, sugieren los ingenieros.

jueves, 13 de diciembre de 2012

¿Vivimos en una simulación de ordenador? Cómo poner a prueba la idea.

El concepto de que podríamos estar viviendo en una simulación por ordenador viene de un documento de 2003 publicado en Philosophical Quarterly por Nick Bostrom , un profesor de filosofía en la Universidad de Oxford.
 
Con las limitaciones actuales y las tendencias de la computación, pasarán décadas antes de que los investigadores sean capaces de realizar simulaciones incluso primitivas del universo. Sin embargo, un equipo de la Universidad de Washington ha sugerido pruebas que se pueden realizar ahora, o en el futuro próximo, que puede resolver la cuestión.
 
En la actualidad, los superordenadores utilizan una técnica llamada enrejado cromodinámico cuántico (LQC), y a partir de las leyes físicas fundamentales que gobiernan el universo, puede simular sólo una porción muy pequeña del universo, en la escala de una 100-billonésima parte de un metro, un poco más grande que el núcleo de un átomo, dijo Martin Savage , profesor de  física de la Universidad de Washington.
 
Eventualmente, sin embargo, las simulaciones más potentes serán capaces de modelar en la escala de una molécula una célula e incluso un ser humano. Pero tomará muchas generaciones de crecimiento en potencia de cálculo para poder simular una gran parte suficiente del universo para comprender las limitaciones de los procesos físicos que indiquen que estamos viviendo en un modelo computacional.
 
Sin embargo, Savage dijo, hay señales de las limitaciones de recursos en los actuales simulaciones de que puedan existir, así como en las simulaciones en un futuro lejano, como la huella de una red subyacente, si se utiliza para modelar el continuo espacio-tiempo.
 
Las supercomputadoras que realizan cálculos LQC esencialmente dividen el espacio-tiempo en una cuadrícula de cuatro dimensiones. Esto permite a los investigadores examinar lo que se llama la fuerza nuclear fuerte, una de las cuatro fuerzas fundamentales de la naturaleza y la que une las partículas subatómicas llamadas quarks y gluones juntos en neutrones y protones en el núcleo de los átomos.
 
"Si usted hace las simulaciones lo suficientemente grande, deberia surgir algo así como nuestro universo", dijo Savage. En ese caso sería una cuestión de buscar una "firma" en nuestro universo que tuviera un análogo en las actuales simulaciones a pequeña escala.
Savage y sus colegas sugieren que la firma podría aparecer como una limitación de la energía de los rayos cósmicos.
 
En un artículo que han publicado en arXiv , dicen que los rayos cósmicos de alta energía no viajaría a lo largo de los bordes de la red en el modelo, pero viajaría en diagonal, y que no interactúan igualmente en todas las direcciones, ya que de otro modo es lo que se esperaria..
"Esta es la primera firma comprobable de esa idea", dijo Savage.
 
Si tal concepto resultase ser realidad, aumentaría también otras posibilidades. Por ejemplo, el co-autor Zohreh Davoudi sugiere que si nuestro universo es una simulación, entonces los que dirigen podría estar ejecutando otras simulaciones también, esencialmente creando otros universos paralelos al nuestro.
"Entonces la pregunta es, '¿Puede usted comunicarse con esos otros universos si se están ejecutando en la misma plataforma?'", Dijo.
 
Hay, por supuesto, muchas advertencias a esta extrapolación. La más importante de ellas es la suposición de que el crecimiento exponencial de las computadoras continuará en el futuro. Relacionado con esto está la posible existencia de la singularidad tecnológica, lo que podría alterar la curva de manera impredecible.
Y, por supuesto, la extinción humana terminaría el crecimiento exponencial - o su simulación.

miércoles, 12 de diciembre de 2012

El chip que aumentará la velocidad de internet

IBM, la empresa tecnológica estadounidense, ha anunciado el desarrollo de un chip que, a través de impulsos de luz, permitirá la transmisión de información a una velocidad mayor.
La nueva tecnología, llamada «nanofotónica de silicio», permite la integración de diferentes componentes en un chip de silicio. De esta manera, según la compañía, se aprovecha de los impulsos de luz (en lugar de usar señales eléctricas) para la comunicación, y «proporciona una autopista para enormes volúmenes de datos» entre procesadores de servidores a una mayor velocidad que los actuales sistemas existentes.
«Este avance tecnológico es el resultado de más de una década de investigación pionera en IBM», declaró John E. Kelly, vicepresidente senior y director de investigación de IBM. La empresa dice estar ya en disposición para desarrollar aplicaciones comerciales. «Tendrá un impacto en una amplia gama de aplicaciones», afirma el dirigente de la firma.
Según ha dicho el equipo que desarrolla esta tecnología a la BBC, el uso de la luz en lugar de flujos de electrones para transmitir información tiene dos ventajas. La primera es que los datos pueden ser enviados a mayor distancia desde distintas partes del servidor, sin riesgo de perder información. Y, además, la luz permite transferir más cantidad de datos y a más velocidad que con los cables convencionales. Así, según este artículo, IBM ha hecho posible que este proceso de conversión tenga lugar en el chip de la computadora que integra los componentes ópticos de lado a lado de los circuitos eléctricos de una misma pieza de silicio, y pueden ser fabricados a un costo relativamente bajo.
Está programado que la propia IBM aporte más detalles sobre este descubrimiento esta misma semana en el Encuentro Internacional de Aparatos Eléctricos («IEEE International Electron Devices Meeting») en San Francisco.
www.abc.es

lunes, 3 de diciembre de 2012

Voyager 1 alcanza una región en el espacio desconocida

La nave espacial Voyager 1, lanzada en 1977, ha llegado a una nueva región al borde del sistema solar llamada "carretera magnética".
Esto es emocionante porque los científicos creen que es la última región antes de que la sonda espacial entre en el espacio interestelar, que es el espacio entre los sistemas solares. Una vez que la Voyager 1 llegue a esta zona,  se convertirá en el primer objeto hecho por el hombre en salir de nuestro sistema solar.
¿Cómo saben los científicos que el Voyager 1 ha llegado a una nueva región del espacio?
El Sol emite una corriente de partículas cargadas, llamadas viento solar, que forman una burbuja alrededor de nuestro sistema solar conocida como heliosfera. El espacio interestelar también emite partículas cargadas, o de baja energía de rayos cósmicos, pero éstos son impedidos de  entrar en nuestra atmósfera por el campo magnético del sol.
En junio, los nuevos datos mostraron que la intensidad de las partículas energéticas del interior de la heliosfera se iban desacelerando, mientras que la intensidad de las partículas cargadas cerca de la carcasa exterior de la burbuja, conocida como la heliopausa, fueron cada vez más fuerte.
Los cambios de intensidad de las partículas son un fuerte indicio de que la Voyager 1 estaba saliendo de la heliosfera. Pero había un problema. Si la nave estaba a punto de hecho el espacio interestelar, entonces el campo magnético del Sol, también debe cambiar de dirección de intensidad ya que es accionado por el campo magnético interestelar. Eso no sucedió. De hecho, el campo magnético del Sol se hizo más fuerte.
Estos investigadores llevaron a creer que la Voyager 1 había entrado en una región del espacio que nunca se había visto antes. En esta nueva frontera, las líneas del campo magnético del Sol conectado con el campo interestelar, a su vez, producen la creación de una "autopista" que permite que las partículas del Sol alejarse y las partículas del espacio interestelar para fluir.
"Creemos que [la carretera magnética] es la última etapa de nuestro viaje al espacio interestelar", dijo el científico del proyecto Voyager Edward Stone en un comunicado. "Nuestra mejor estimación es que es probable que sólo unos pocos meses a un par de años de distancia. La nueva región no es lo que esperábamos, pero hemos llegado a esperar lo inesperado de la Voyager."

jueves, 29 de noviembre de 2012

La Antártida también se derrite

www.abc.es

Un estudio concluye que se acelera la pérdida de masa helada en ambos polos, no solo en Groenlandia

Tanto Groenlandia como la Antártida están perdiendo masa helada y a un ritmo que no ha dejado de acrecentarse. Aunque pueda parecer extraño dada la multitud de datos que apuntan a un calentamiento global del planeta, lo cierto es que en los últimos años no han sido pocos los estudios que ponían en duda que la Antártida estuviera sufriendo en forma de deshielo estos rigores del clima y más bien apuntaban a que estaba ganando masa helada, todo lo contrario de lo que estaba ocurriendo en Groenlandia. Ahora, un nuevo estudio, que publica el último número de «Science», viene a terminar con 20 años de incertidumbres.
Combinando series de datos procedentes de satélites –altimetría, interferometría y gravimetría- los investigadores, liderados por Andrew Shepherd, de la Universidad de Leeds (Reino Unido), y Eric Ivins, del Jet Propulsion Laboratory de la NASA, han reconstruido el balance de masa de los mantos de hielo de ambos Polos entre 1992 y 2011. Después de reprocesar las series de datos para asegurarse de que estaban comparando manzanas con manzanas, esto es, regiones geográficas comunes, mismos intervalos de tiempo y los modelos que recogen el comportamiento de las plataformas de hielo, los investigadores concluyen que las capas de hielo de Groenlandia, de la Península antártica y de la Antártida occidental están perdiendo masa, mientras que sólo la Antártida oriental está viendo incrementarse su masa de hielo, sin que sea suficiente para compensar las pérdidas del resto del continente helado.

 

Aumento del nivel del mar

En total, la pérdida de masa derivada del deshielo y la desintegración de las placas -a medida que corrientes más cálidas van erosionando los márgenes y disminuyendo su estabilidad- ha contribuido a un aumento del nivel del mar de 11,1 milímetros desde 1992.
Esto equivale al 20% del total del aumento del nivel del mar durante ese tiempo. Pero lo más grave es que esa pérdida de hielo se está acelerando. Groenlandia y la Antártida están perdiendo tres veces más hielo (equivalente a 0,95 milímetros por año de aumento en el nivel del mar) que en 1990, cuando el ritmo de contribución al aumento del nivel del mar era de 0,27 milímetros/año. No obstante, sigue siendo mayor la pérdida de hielo en Groenlandia, que suma dos tercios del total de lo que se pierde.
El estudio también encuentra diferencias en el ritmo de cambio en cada Polo. Según explicó Eric Ivins a través de una conferencia de prensa telefónica, «el ritmo de pérdida de hielo en Groenlandia aumentó casi cinco veces desde mediados de los años 90. En contraste, mientras los cambios regionales en los hielos antárticos son a veces muy llamativos, el balance final se ha mantenido más o menos constante».
En este estudio han participado 47 investigadores de 26 laboratorios, y ha sido financiado por la Agencia Espacial Europea (ESA) y por la NASA.

 

lunes, 26 de noviembre de 2012

La informática entra en la era cognitiva

Los científicos de IBM trabajan en sistemas que abrirán la era cognitiva de la computación. El primer ejemplo de esta nueva etapa es su ordenador Watson, que entiende el lenguaje natural y es capaz aprender. Watson bucea en gigantescas cantidades de información no estructurada, genera hipótesis y busca evidencias para dar con la mejor respuesta. No se ha quedado como proyecto de laboratorio ni de exhibición televisiva y ya se está aplicando para mejorar el diagnostico en oncología y en el sector financiero.


IBM cumplió el pasado año su primer siglo de vida. La tecnología le debe muchos de sus avances, desde las tarjetas perforadas de comienzos del siglo XX al primer ordenador personal, pasando por el código de barras e incluso las bandas magnéticas de las tarjetas de crédito. Ahora, este gigante ha puesto a sus científicos a trabajar en lo que llama la ‘computación cognitiva’, “una tercera era en la informática con máquinas que pueden aprender, emulando algunas de las funciones del cerebro humano”, explica a SINC Mark Ritter, director de la división de analítica y proceso de IBM Research y experto en sistemas cognitivos.
“Primero las máquinas podían contar, luego eran programadas y en esta nueva era podrán aprender y ayudarnos a descubrir cosas nuevas”, añade Ritter.
Según este experto, uno de los primeros ejemplos de esta nueva tecnología es Watson, un potente ordenador creado por IBM –llamado así en honor a Thomas John Watson, fundador de la  multinacional–, que el pasado año batió a los dos mejores jugadores de un concurso televisivo muy famoso en EE UU llamado Jeopardy.
No es la primera vez que una máquina de IBM reta a los humanos. En 1997 su ordenador Deep Blue derrotó al campeón de ajedrez Gary Kasparov, pero aquel desafío se basó en la lógica precisa y matemática del ajedrez. En cambio, en Jeopardy, Watson “venció respondiendo correctamente, en segundos, a preguntas formuladas en lenguaje coloquial en las que se utilizaba el doble sentido, la ambigüedad, la ironía y los juegos de palabras, algo no alcanzado hasta el momento por ninguna máquina”, subraya Ritter .
Watson responde correctamente, en segundos, a preguntas formuladas en lenguaje coloquial y que usan el doble sentido, la ambigüedad y la ironía
Detrás de Watson hay un equipo de investigadores que incluyen especialistas en análisis de datos, expertos en habla y lingüística; y la tecnología DeepQA, un sistema de inteligencia artificial creado por IBM para responder a preguntas acerca de cualquier dominio del conocimiento humano.


Cientos de algoritmos compitiendo

Watson, un ordenador con 2.880 núcleos de procesador y 15 terabytes de de RAM, opera a 80 teraflops (80 billones de operaciones por segundo) y está basado en la arquitectura multiprocesador POWER7 de IBM. Pero, según Antonio Orbe, experto en sistemas cognitivos de IBM España, “lo más novedoso de este ordenador es su software, con cientos de algoritmos que compiten entre sí para encontrar la mejor respuesta”.
Muchos de los sistemas actuales de pregunta y respuesta se basan tan solo en un puñado de algoritmos y, por ello, no funcionan bien. “Es imposible simular la habilidad humana para analizar lenguaje e información con único programa”, añade Orbe.
Pero Watson usa más de 100 algoritmos al mismo tiempo para analizar una pregunta de diferentes formas, generando cientos de posibles soluciones. Otro conjunto de instrucciones hace un ranking de esas respuestas, según su verosimilitud. Por ejemplo, si un buen número de algoritmos, trabajando en diferentes direcciones, llega a la misma respuesta, es más probable que sea la correcta, explica.
Utiliza más de 100 algoritmos al mismo tiempo y es capaz de analizar 200 millones de páginas en tres segundos
“En esencia –añade Orbe– Watson trabaja con probabilidades. No produce solo una respuesta correcta si no un enorme número de posibilidades y luego las clasifica, valorando cuál de ellas es la mejor, de una forma similar a como lo hace la mente humana”. El sistema también es capaz de aprender de sus errores y averigua que para determinado tipo de preguntas unos algoritmos funcionan mejor que otros.
Todo este proceso lo realiza Watson con una gran velocidad. “Este ordenador es capaz de de analizar inmensas cantidades de datos no estructurados de una forma excepcionalmente rápida. En el prototipo que venció en Jeopardy, analizó un millón de libros, el equivalente a 200 millones de páginas en tres segundos”, subraya el experto español.
Además, el sistema, dice Antonio Orbe, “es capaz de analizar, entender y hallar correlaciones de los datos de una manera muy novedosa”.
Los científicos de la multinacional están ahora trabajando para que Watson en el futuro pueda establecer un dialogo interactivo, desarrollar perfiles de las evidencias encontradas, revelando el origen de sus respuestas y establecer un aprendizaje constante basado en su propia experiencia.

Información no estructurada
Así como el sistema Deep Blue no trajo consigo aplicaciones posteriores en el ámbito empresarial, IBM ya ha puesto a Watson a trabajar y se está usando, por ejemplo, en investigación y mejora del diagnóstico en oncología, en colaboración con Memorial Sloan Kettering Cancer Center de Nueva York. Y en el mundo de las finanzas, tras un acuerdo con Citigroup. Tanto la medicina como las finanzas manejan cantidades masivas de datos y comparten una necesidad imperiosa de gestionar la información rápidamente.
Watson está recibiendo ya entrenamiento y engulle toda la información relevante de estos ámbitos. “Es muy importante reiterar que Watson, contrariamente a los sistemas convencionales, es capaz de trabajar con información no estructurada, como una conversación, un artículo científico o datos procedentes de internet y de redes sociales, subraya Orbe.
Ya se está aplicando para mejorar el diagnóstico en oncología y en aplicaciones del sector financiero con Citigroup
Según Mark Ritter, el volumen de información mundial está creciendo a una velocidad inusitada. El 90% de la información que usamos en la actualidad se ha generado en los últimos dos años y casi 90% de estos datos no están estructurados, es decir, que no se encuentran en bases de datos y, por lo tanto, no son accesibles para los sistemas convencionales, aunque sí lo serían para los ordenadores Watson. “No hace falta decir lo valiosa que es toda esa información para el mundo empresarial”, añade.

Por su parte, Antonio Orbe subraya que en los próximos años se verá una eclosión de aplicaciones de Watson en múltiples áreas.

Colaboración con universidades
En este sentido, la firma está colaborando con cocho universidades en Estados Unidos para la búsqueda aplicaciones de Watson en los negocios del transporte, las telecomunicaciones, la energía, la distribución y el sector público.   
Asimismo, IBM ha creado un equipo de software y servicios en su sede de Bangalore (India) para crear nuevos algoritmos que permitan aplicar Watson a nuevos sectores.
Ritter señala que Watson supone solo el inicio de la er
a cognitiva en la computación. “Son solo los primeros pasos”. Todavía se basa en la arquitectura Von Neumann, que es la que ha regido la informática durante los últimos 40 años.
IBM ya está diseñando componentes para una futura arquitectura que rompe totalmente con el actual paradigma y que combina la nanociencia, la neurociencia y la supercomputación.

jueves, 22 de noviembre de 2012

Verdades y mentiras sobre la bacteria del arsénico

La noticia más esperada por el mundo científico podría estar a punto de convertirse en realidad.John Grotzinger, el investigador principal de lamisión Curiosity, acaba de anunciar en una entrevista radiofónica que los instrumentos del rover han realizado un descubrimiento que«cambiará los libros de historia. Los datos son... prometen realmente mucho». 
Sin embargo, el científico aseguró que pasarán aún algunas semanas antes de que la NASA realice uno de los mayores anuncios de su historia. Según declaró el propio Grotzinger a Universe Today, «tendremos una conferencia el próximo 3 de diciembre para discutir nuestros resultados».
Ese día se inaugura, en efecto, la conferencia anual de la Unión Geofísica Americana (AGU), y sería una excelente ocasión para hacer público el descubrimiento. Por ahora, los científicos están llevando a cabo toda clase de pruebas y análisis adicionales. Quieren estar completamente seguros antes de lanzar las campanas al vuelo.
Lo que sí se sabe es que el hallazgo fue realizado con SAM, el sofisticado analizador de muestras de suelo marciano que consta de tres instrumentos diferentes y que está perfectamente equipado para buscarcompuestos del carbono, como metano, y restos de hidrógeno y oxígeno.
Los investigadores llevan tiempo queriendo encontrar metano, que sería un muy buen indicador de que por aquellos yermos parajes se movieron, alguna vez, formas de vida.

sábado, 10 de noviembre de 2012

Como hacer las baterias de los coches electricos más competitivos

Es probable que tome una década, pero las mejoras en las baterías de iones de litio podría conducir a vehículos eléctricos mucho más baratas y eficientes.

 
Para que los vehículos eléctricos e híbridos puedan competir con coches de gasolina, los precios de las baterías deben caer entre un 50 y un 80 por ciento, según las últimas estimaciones del Departamento de Energía de EE.UU.

 
Las mejoras en las baterías de iones de litio que alimentan la actual generación de vehículos eléctricos puede ser suficiente, según los informes del MIT Technology Review .
 
Los vehículos eléctricos son menos costosos de operar que los accionados por gas, pero  la ventaja económica desaparece en gran parte por el coste de las baterías. La batería de los  Chevrolet Volt cuesta alrededor de $ 8.000. La batería más grande en el Nissan Leaf cuesta alrededor de $ 12.000.
 
Pero el coste para la batería del Leaf podría bajar a menos de $ 4.000 en 2025, según un reciente estudio de McKinsey, sólo mediante el aumento de la escala de producción de la batería, presionando a la baja los costos de componentes a través de la competencia, y aproximadamente el doble de la densidad de energía de las baterías, lo que reduce materiales de los costos.
 
Una puesta en marcha, Envia Systems, ya ha construido prototipos de celdas de iones de litio de la batería que almacenan el doble de la de los mejores convencionales de iones de litio y puede recargarse cientos de veces . Y algo muy importante, que es bastante similar a los convencionales de iones de litio que se pueden hacer en la fabricación de equipos existente.

 La tecnología todavía necesita trabajo, y podría tomar varios años para empezar a aparecer en los coches, según la compañía.
 
No todo el mundo está de acuerdo en que las baterías de iones de litio puede llegar a los bajos costos necesarios para los vehículos eléctricos para competir con los que funcionan con gasolina . Toyota, por su parte, está investigando los cambios más dramáticos en el diseño de la batería. Un tipo que se está desarrollando reemplaza el electrolito líquido en un aparato convencional de iones de litio con un material sólido, algo que permite un número de cambios en el diseño de la batería que podría reducir el tamaño del sistema y disminuir el costo. Estas baterías de estado sólido y otras tecnologías podrían reducir el tamaño de un paquete de baterías en un 80 por ciento, de acuerdo con Toyota. Sakti3, una startup con estrechos lazos con GM, también está desarrollando baterías de estado sólido, y recientemente comenzó a enviar prototipos de baterías para los clientes potenciales para las pruebas, dice el CEO de Ann Marie Sastry.
 
24M,  con sede en Cambridge, Massachusetts, está adoptando un enfoque diferente - en lugar de una batería totalmente sólida, la compañía está desarrollando un cruce entre una batería y una pila de combustible en la que los electrodos de la batería es un líquido fangoso que puede ser bombeado alrededor. El material de almacenamiento de energía puede ser almacenada en tanques de bajo costo, y luego se bombea en un pequeño dispositivo para generar energía.
 
A pesar de los nuevos diseños, baterías de estado sólido y la tecnología 24M todavía funcionan con una corriente de litio-ion química, lo que podría hacer que sean menos riesgosos para la comercialización de los enfoques más radicales que van más allá de la química del litio-ion. Pero estas nuevas baterías tienen densidades teóricas de energía varias veces mayor que la de las baterías actuales de automóviles eléctricos.

domingo, 4 de noviembre de 2012

El smartphone y la tableta del futuro tendrá 48 núcleos de Intel

Los investigadores de Intel están trabajando en un procesador de 48 núcleos para smartphones y tablets - lo que los haria muchas veces más potentes que las computadoras de escritorio de hoy en día dentro de los próximos cinco a diez años, linforma  Computerworld .
 
Intel está distribuyendo 100 de los procesadores experimentales de núcleo de 48 chips  para que los investigadores puedan trabajar en los modelos de programación avanzados de computación en paralelo, y el software necesario para apoyar a estos núcleos.
Intel dice que está usando un prototipo de una "nube ordenador de un solo chip" para desarrollar dicho procesador.

Agregando núcleos a los procesadores  es una manera energéticamente eficiente de impulsar el rendimiento del chip, en lugar de aumentar la velocidad de reloj de CPU, lo que lleva a la disipación del calor excesivo y el consumo de energía.
 
Intel CTO Justin Rattner comentó  funciones tales como el reconocimiento de voz y la realidad aumentada impulsará la necesidad de este tipo de poder computacional.
"Si vamos a tener esta tecnología en cinco a 10 años, [el teléfono inteligente] no tendrá una sola cámara", dijo Enric Herrero, un científico de investigación en los laboratorios de Intel en Barcelona. "Sería tener dos o tres cámaras que estarán siempre encendidas. Se podría construir un mapa tridimensional de lo que está viendo y hacer el reconocimiento de objetos. "

 
Más listo, más rápida busqueda en la nube
 
Sin embargo, estas funciones pueden lograrse con chips dedicados, mejor software, e integración  - en lugar de los  25 a 125 Watts (! dos bombillas) que se necesita, según Intel - en comparación con menos de ~ 5 W máximo con los teléfonos celulares actuales ? 
 
Caso en cuestión: Estoy impresionado con la función de búsqueda por voz en la recién lanzada actualización iOS / Android  de Google Search App, aumenta de  lejos a Siri en velocidad (lo registrado varias veces en menos de un segundo para búsquedas de Google en el iPhone 5) , y con el reconocimiento de voz excelente y una calidad de voz (en sustitución de la voz de robot de Siri irritante).
 
Por supuesto, no se puede acceder a los contactos y las aplicaciones de lanzamiento, al igual que Siri, pero para la búsqueda rápida, inteligente, se mueven sobre Siri: será la búsqueda de Google de voz + Watson.
 
Ejemplos de preguntas de la aplicación de búsqueda de Google puede contestar (vía blog oficial de Google ):
  • "¿A qué se parece  el Yankee Stadium?" Google le mostrará cientos de fotos al instante. 
  • "Ponme un trailer de la próxima película de James Bond." El trailer comienza a reproducirse inmediatamente a la derecha dentro de Google Search.
  • "¿A que hora termina a luz del día?" La respuesta aparecerá por encima de los resultados de búsqueda, así que usted puede programar su reloj sin tener que hacer clic en un enlace. 
Además,hablamos de dentro de 10 años, probablemente estemos en la era post silicio, tal vez con neuro chips inteligentes de bajo consumo basados ​​en nanotubos de carbono o instantáneos dispositivos de grafeno , impulsado por células solares pintadas en nuestros dispositivos o la ropa.

 
 

lunes, 22 de octubre de 2012

Un avance que puede dar lugar a las computadoras cuánticas a gran escala

Fuente. http://www.kurzweilai.net/breakthrough-may-lead-to-large-scale-quantum-computing (traducido)
 
En un paso clave hacia la creación de un ordenador cuántico, investigadores de Princeton University  han desarrollado un método que puede permitir una transferencia rápida y fiable de la información cuántica a través de un dispositivo informático.
 
El hallazgo, realizado por un equipo dirigido por el físico de Princeton Jason Petta, con el tiempo podría permitir a los ingenieros construir ordenadores cuánticos de millones de bits cuánticos o qubits. Hasta el momento, los investigadores cuánticos sólo han sido capaces de manipular pequeños números de qubits.
 
Para realizar la transferencia, el equipo de Petta utilizó una corriente de fotones de microondas para analizar un par de electrones atrapados en una jaula diminuta enviado a  un punto cuántico . El "estado de espín" de los electrones - información sobre la forma en que están girando, una de las propiedades de los electrones - sirve como qubit, una unidad básica de información. La corriente de microondas permite a los científicos leer esa información.
"Creamos una cavidad con espejos en ambos extremos ... que reflejan la radiación de microondas", dijo Petta. "Enviamos microondas en un extremo, y nos fijamos en el microondas, ya que sale por el otro extremo. Las microondas se ven afectados por los estados de espín de los electrones en la cavidad, y se puede leer el cambio ".
En un sentido ordinario, las distancias implicadas son muy pequeños; todo el aparato funciona en un poco más de un centímetro. Pero en la escala subatómica, son enormes. Es como coordinar el movimiento de una peonza en la luna con otro en la superficie de la tierra.
"Es la cosa más increíble", dijo Jake Taylor, un físico del Instituto Nacional de Estándares y Tecnología y del Joint Quantum Institute de la Universidad de Maryland, quien trabajó en el proyecto con el equipo de Princeton. "Usted tiene un solo electrón casi por completo para cambiar las propiedades de un sistema eléctrico de pulgadas de largo."
Durante años, los equipos científicos han perseguido la idea de usar la mecánica cuántica para construir una nueva máquina que fuera a revolucionar la informática. El objetivo no es construir un equipo más rápido o más fuerte, sino para construir uno que se acerque a los problemas de una manera completamente diferente.
 
Uno de los retos a los que se enfrentan los científicos es que los espines de los electrones, o cualquier otra partícula cuántica , son increíblemente delicados. Las influencias externas, ya sea un mechón de magnetismo o rayo de luz, desestabiliza espines de los electrones e introduce errores.
 
Con los años, los científicos han desarrollado técnicas para observar estados de espín sin molestarlos. (Este año el Premio Nobel de Física honró a dos científicos que primero demostraron la observación directa de las partículas cuánticas.) Sin embargo, el análisis de un pequeño número de vueltas no es suficiente, millones estarán obligados a hacer falta para un procesador cuántico real.

Hybrid puntos cuánticos dispositivo superconductor resonador. (A) de circuito esquemático y micrografía del diseño del dispositivo híbrido. Micrografía electrónica de barrido (b) y vista en sección transversal esquemática (c) de los nanocables doble de puntos cuánticos (DQD). Las puertas de barrera izquierdo y derecho (BL y BR), izquierda y derecha émbolo puertas (L y R), y la puerta central (M) están sesgados a crear un potencial de doble pozo dentro de los nanocables. El contacto de drenaje del nanocable, D, está conectado a tierra, y el contacto de fuente, S, está conectado a un antinodo del resonador, que oscila a una VCavity tensión. (Crédito Petersson et. Al.)

 
Para abordar el problema, el equipo de Petta, combinando técnicas a partir de dos ramas de la ciencia: de la ciencia de los materiales, se utiliza una estructura llamada un punto cuántico para mantener y analizar giros electrones, y de óptica, adoptaron un canal de microondas para transferir la información de giro de el punto.
 
Para hacer los puntos cuánticos, el equipo aisló un par de electrones en una pequeña sección de material que se llama un "nanocable semiconductor" - un cable que es tan delgada que puede contener electrones. Entonces crearon pequeñas "jaulas" a lo largo del alambre. Las jaulas se colocan de manera que los electrones se asentará en una jaula particular, dependiendo de su nivel de energía.
 
Así es como el equipo lee el estado de espín: los electrones de espín similares se repelen, mientras que las de giros diferentes se atraen. Así que el equipo manipula los electrones a un cierto nivel de energía, y después lee su posición. Si están en la misma jaula, están girando de manera diferente, y si son en jaulas diferentes, los giros son los mismos.
El segundo paso es colocar este punto cuántico dentro del canal de microondas. Esto permite que el equipo transfiera la información sobre el estado de giro del par - el qubit.
Petta indica que el próximo paso es aumentar la fiabilidad de la configuración de un par electrón. Después de eso, el equipo planea añadir más puntos cuánticos para crear más qubits. Los miembros del equipo son cautelosamente optimistas. No parece que existan problemas insuperables en este punto, pero, como con cualquier otro sistema, la complejidad creciente podría llevar a dificultades imprevistas.
 
"Los métodos que estamos utilizando aquí son escalables, y nos gustaría utilizarlo en un sistema más amplio", dijo Petta. "Sin embargo, para hacer uso de la escala, necesitamos que funcione un poco mejor. El primer paso es hacer mejores espejos de la cavidad de microondas. "

domingo, 21 de octubre de 2012

Robotica humanoide

Dentro de la robótica  humanoide se pueden establecer varios grupos de investigación, el de movimientos físicos,  el de gestos  y expresiones faciales y el de inteligencia artificial, sobre todo.

De entre ellos os presentamos un vídeo dedicado a expresiones y gestos faciales, para que veamos los avances conseguidos hasta ahora.

sábado, 20 de octubre de 2012

Cartografía de los circuitos cerebrales para funciones específicas

http://www.kurzweilai.net 19/10/2012

 Un equipo liderado por los neurocientíficos del MIT ha desarrollado una manera de controlar cómo las células cerebrales se coordinen entre sí para controlar los comportamientos específicos, como iniciar el movimiento o la detección de un olor.
La técnica de los investigadores está basado en la detección de iones de calcio en las neuronas, los cuáles podrían ayudar a asignar los circuitos del cerebro que desempeñan tales funciones.
También podría proporcionar nuevos conocimientos sobre los orígenes de las enfermedades psiquiátricas, dice Guoping Feng, autor principal de un artículo que aparece en la edición 18 de octubre de la revista Neuron.
"Para entender los trastornos psiquiátricos tenemos que estudiar los modelos animales, y para saber lo que pasa en el cerebro cuando el animal se comporta de manera anormal", dice Feng, W. James y Patricia Poitras catedrático de Neurociencia y miembro del Instituto McGovern para la Investigación del Cerebro en el MIT. "Esta es una herramienta muy potente que realmente nos ayudará a entender los modelos animales de estas enfermedades y estudiar cómo el cerebro funciona normalmente y en un estado de enfermedad."
(Autor principal del artículo es Neurona Instituto McGovern postdoc Qian Chen)
La realización de cualquier tipo de función cerebral requiere muchas neuronas en diferentes partes del cerebro para comunicarse entre sí. Ellos lograr esta comunicación mediante el envío de señales eléctricas, provocando un flujo de iones de calcio en las células activas. Usando colorantes que se unen al calcio, los investigadores ya han fotografiado la actividad neuronal en neuronas.
Orientación de tipos celulares específicos
Sin embargo, el cerebro contiene miles de tipos de células, cada una con distintas funciones, y el colorante se recoge  por todas las células, por lo que es imposible determinar calcio en determinados tipos de células con este enfoque.
Para superar esto, el equipo del MIT-LED creado un sistema de formación de imágenes de calcio que pueden ser dirigidos a tipos específicos de células, utilizando un tipo de proteína verde fluorescente (GFP). Junichi Nakai de la Universidad Saitama en Japón desarrolló por primera vez una GFP que se activa cuando se une al calcio, y uno de los autores de papel neurona, Loren Looger del Howard Hughes Medical Institute, modificada por la proteína por lo que su señal es lo suficientemente fuerte como para utilizar en vida animales.
Los investigadores del MIT usaron genéticamente ratones para analizar esta proteína en un tipo de neurona conocidas como células piramidales, por la vinculación del gen con una secuencia de ADN reguladora que es activa sólo en aquellos tipos específicos de células. El uso de dos fotones microscopicos para la imagen de las células a alta velocidad y alta resolución, los investigadores pueden identificar las células piramidales que están activos cuando el cerebro está realizando una tarea específica o responder a un estímulo determinado.
En este estudio, el equipo fue capaz de identificar las células en la corteza somatosensorial que se activan cuando los bigotes de un ratón se tocan, y las células olfativas que responden a ciertos aromas.
Los investigadores ahora están desarrollando ratones que expresan las proteínas sensibles al calcio y también muestran síntomas de comportamiento autista y trastorno obsesivo-compulsivo. El uso de estos ratones, los investigadores planean buscar los patrones de disparo de las neuronas que se diferencian de las de los ratones normales. Esto podría ayudar a identificar exactamente lo que va mal en el nivel celular, ofreciendo puntos de vista mecanicistas en esas enfermedades.
"En este momento, sólo se sabe que los defectos en neurona-neurona comunicación juegan un papel clave en los trastornos psiquiátricos. No sabemos la naturaleza exacta de los defectos y los tipos celulares específicos involucrados ", dice Feng. "Si supiéramos qué tipos de células son anormales, podríamos encontrar formas de corregir los patrones anormales de activación".
Los investigadores también planean combinar su tecnología de imagen con optogenética, lo que les permite utilizar la luz para convertir tipos específicos de neuronas dentro o fuera. Mediante la activación de células específicas y observando luego la respuesta en las células diana, que será capaz de asignar precisamente circuitos cerebrales.


viernes, 19 de octubre de 2012

Michiu Kaku: Un nano viaje a las estrellas

(Extraido del video The von Newman Probe (A nano ship to the stars, 2012, Octubre)

        Recientemente hubo una conferencia, el One Hundred Year Starship, y por supuesto, mucha gente llegó con diseños para tener gigantescos cohetes de fusión que nos llevará a Marte y Júpiter, más allá, hacia las estrellas. Otras personas dijeron que sí, cohetes de antimateria, ese es el camino a seguir, y todos tuvimos esta visión mental de la "Enterprise" yendo a los sistemas estelares cercanos. . . . Hay otra manera de hacerlo. Piensa en la madre naturaleza. Cuando la madre naturaleza quiere propagar la vida, una posibilidad es enviar semillas, no sólo uno o dos, sino de millones de semillas. La mayor parte de las semillas nunca lo hacen, pero sí uno o dos y, como consecuencia de la cantidad de árboles en los bosques de propagarse. ¿Por qué no crear un nano cohete utilizando la nanotecnología? ¿De qué tamaño sería? Algunas personas, como Paul Davies dice que podría ser tan grande como una caja de pan. Otras personas dicen que podría ser incluso menor que eso. ¿Por qué no algo del tamaño de una aguja? Y como son tan pequeños que no se necesita mucho para acelerar hasta casi la velocidad de la luz.

Darse cuenta de que un acelerador de mesa muy pequeña puede acelerar electrones a velocidades cercanas a la de la luz, por lo que no haría falta mucho para que podamos acelerar las moléculas de nano a velocidades muy, muy rápido cerca de la velocidad de la luz usando campos eléctricos. Ahora estas sondas serían diferentes de sondas ordinarias. Serían nanobots. Ellos tienen la capacidad para aterrizar en un terreno hostil y crear una fábrica como un virus. Eso es lo que hacen los virus. Se replican. Un virus puede crear tal vez un millar de ejemplares, luego mil, mil copias y luego un millón, mil millones, billones y de repente tienes trillones de estas cosas se propagan a través del espacio exterior. ¿Y cómo lo harías? Una posibilidad es utilizar los campos, los campos magnéticos alrededor de Júpiter. Los cálculos han demostrado que usted puede azotar alrededor de Júpiter usando lo que se llama el Efecto Faraday para azotar a las partículas tal vez cerca de la velocidad de la luz.


Y de nuevo, no tenemos estos nanobots todavía. Tenemos que esperar hasta que la nanotecnología se vuelva lo suficientemente desarrollada, pero cuando eso sucede tal vez la nave de 100 años no va a parecerse a la Enterprise. Tal vez se verá como pequeñas agujas, poco a los miles de millones enviados al espacio exterior y tal vez sólo un puñado de ellos la tierra en un planeta distante para crear fábricas. Y ¿no suena familiar? Esta es la trama de la película de 2001. Recuerde que obelisco gigante en Marte? Esa fue la sonda Von Neumann, un virus, una sonda de auto-replicantes con que se puede explorar el universo casi a la velocidad de la luz.








Semiconductores: El grafeno, el sustituto del silício

Es transparente, flexible, extraordinariamente resistente, impermeable, abundante, económico y conduce la electricidad mejor que ningún otro metal conocido. Hablamos del grafeno, el material que tiene fascinados a científicos y a la industria debido a sus fantásticas propiedades.
Aunque fue sintetizado por primera vez en 2004, saltó a la fama en 2010 cuando sus descubridores, los investigadores de origen ruso Andre Geim (Sochi, 1958) y Konstantin Novoselov (Nizhny Tagil, 1974) recibieron el Premio Nobel de Física. Como ya apuntó entonces Andre Geim, las aplicaciones potenciales del grafeno son tantas que ni siquiera eran capaces de enumerarlas.

En fase de desarrollo

Todos hablan de este material aunque pocos lo han visto. Y es que, pese a sus prometedoras aplicaciones, todavía se encuentra en fase de desarrollo. El grafeno es una lámina extremadamente delgada compuesta de carbono (sólo tiene un átomo de grosor). El grafito del que se obtiene es el mismo que se extrae de las minas de carbón y se usa para fabricar lápices, frenos de coches o aceros, por lo que se trata de una materia prima muy abundante en la naturaleza. Para conseguir grafeno se puede partir del grafito natural (las minas españolas son ricas en este mineral) o del grafito sintético.
El principal obstáculo en la actualidad es que aún no es posible fabricar grafeno a gran escala, según explica Jesús de la Fuente, director de la empresa española Graphenea Nanomaterials, una de las pocas compañías que de momento, producen este material. Avanzare y GranphNanotech son otras dos empresas españolas que trabajan con él.

Grafeno el material del futuro 


  • Una nueva técnica permitirá crear chips ultradelgados basados en grafeno

    El equipo investigador del químico Jiwoong Park de la Universidad de Cornell, Ithaca Nueva York, han inventado una forma de organizar siguiendo un patrón determinado, películas de nitruro de boro (aislante) y de grafeno de un solo átomo de espesor, sin usar en ellas un substrato de silicio.
    Esta nueva técnica podría conducir al desarrollo y fabricación fácil de circuitos con grosor atómico y libres de substratos ya que por su delgadez extrema podrían flotar en el agua o en el aire. Este revolucionario método de fabricación el cual utiliza la misma tecnología básica de fotolitografía usada en el procesamiento de obleas de silicio, se permite que el grafeno y el nitruro de boro conformen películas del todo planas, estructuralmente lisas, sin arrugas ni desniveles.

    Este paso de producción, si se complementa con el paso final, que todavía no se ha logrado poner en práctica satisfactoriamente y que consiste en introducir un material semiconductor, podría conducir al primer circuito integrado con el grosor de un solo átomo.

    El equipo de investigación ahora trabaja para determinar qué material funcionaría mejor con las películas delgadas de grafeno y nitruro de boro para constituir la última capa semiconductora que podría convertir las películas en circuitos reales.
    En el trabajo de investigación y desarrollo también han intervenido David A. Muller, Mark Levendorf y Cheol-Joo Kim.

    Los circuitos integrados que están dentro de los equipos electrónicos de todo tipo y que están hechos de silicio cuidadosamente trabajado, son bastante delgados pero algunos científicos piensan que el grosor de las películas delgadas que se utilizan en ellos se puede reducir aún más, hasta el nivel de un solo átomo.

    Los materiales que un grupo de científicos ha escogido para intentar eso son el grafeno y el nitruro de boro hexagonal.

    El grafeno es un singular material que consiste en una sola capa de átomos de carbono colocados en una retícula hexagonal similar a la de un panal de miel.

    El nitruro de boro hexagonal consiste en una estructura también delgada hecha de átomos de boro y nitrógeno dispuestos en un patrón repetitivo.

     

 


jueves, 18 de octubre de 2012

Rastreador digital de mano: interacción 3D sin guantes

Sensor sin guantes de muñeca desarrollada por Microsoft Research en Cambridge, Reino Unido, permite 3-D interacción persona-ordenador en cualquier entorno y es práctico más allá de los juegos de ordenador.

Células reprogramables, un descubrimiento científico que ha abierto nuevas vías en la investigación biomédica

El estudio se basa en la acción de una determina proteína capaz de modificar el patrón de la reprogramación celular, realizada precisamente por los investigadores.

La reprogramación celular rompió el dogma en biología de que la diferenciación celular terminal era irreversible, es decir, una vez que una célula adopta un destino concreto hacia por ejemplo, una célula neuronal o hepática,  ya no puede revertir el proceso y volver al estadio inicial de pluripotencialidad o de adoptar diferentes fenotipos celulares. Yamanaka, que continuó las investigación de Gurdon, demostró en 2006 que este proceso se puede revertir, al menos parcialmente, de tal manera que, una célula diferenciada de la piel de una persona mediante su reprogramación genética puede adquirir un fenotipo “desdiferenciado” idóneo para diferenciarla hacia un tipo celular distinto. Sólo es necesario introducir 4 genes a una célula adulta para activar la reprogramación y conseguir el estadio de célula madre pluripotente.
 
Ciertos inconvenientes rodean la reprogramación celular. De acuerdo con Fernández- Salguero,  investigaciones recientes demuestran que la reprogramación no es total, por eso no se les denomina células madres sino células pluripotenciales o iPS, que al no ser 100% embrionarias tienen limitada por tanto, su capacidad de desarrollar diferentes tejidos o de diferenciarse a distintos  tipos celulares. Además, “la célula diferenciada posee la memoria epigenética de la célula en cuestión, memoria que no se elimina  completamente durante la reprogramación”, señala el profesor. Ciertos laboratorios han observado que las células pluripotenciales reprogramadas tienen más capacidad de inducir tumores porque la reparación epigenética no se lleva de manera completa. La epigenética hace referencia a  las modificaciones que se producen en los genes que no afectan a la secuencia  de nucleótidos del gen, son cambios inducidos por el medio ambiente y por la propia célula sobre todo. “Si tuviéramos un dictado de letras, las combinaciones de letras formarían el gen y cómo se modifican esas letras sería la epigenética”, explica el investigador.


Conviene distinguir la reprogramación celular de la técnica a partir de células madre ya que ambas están muy relacionadas pero son diferentes. La técnica con células madre permite diferenciar las células hacia un tipo celular de interés, por ejemplo, diferenciar las células madre hacia epitelio normal para fabricar células cardíacas para regenerar un infarto de miocardio. La técnica de Yamanaka parte de células adultas ya diferenciadas y reprogramarlas hacia un estadio de menos diferenciación, pluripotencial.


Fernández-Salguero resalta que es un premio muy merecido puesto que abre muchas posibilidades terapéuticas. Sin embargo, hay que ser cautelosos, como así lo refleja el propio Yamanaka en artículos divulgativos recientes,  se desconoce el comportamiento a largo plazo de las células reprogramadas  así como los posibles efectos secundarios en el paciente.   Según apunta el investigador de la UEx, el propio Yamanaka alerta sobre empresas que ofrecen terapias basadas en la reprogramación celular en pacientes sin control riguroso tanto en investigación básica, como clínica y preclínica.


Conferencia a cargo de Maria Pia Cosma, Profesora Investigadora ICREA, jefa del laboratorio Reprogramación y Regeneración, dentro programa de investigación Regulación Génica, Células Madre y Cáncer, en el Centro de Regulación Genómica (CRG), en Barcelona.

La telomerasa y la longevidad


Los telómeros cortos son la principal fuente del envejecimiento del organismo

La hipótesis más aceptada de por qué envejecemos es la acumulación de daño en nuestro material genético (DNA), que se produciría asociado al proceso mismo de la vida. Sin embargo, la naturaleza del daño causante de envejecimiento es aún motivo de intenso debate científico. Trabajos recientes con ratones modificados genéticamente sugieren que los “radicales libres”, popular teoría de envejecimiento, no parecen ser los causantes del envejecimiento del organismo.

Las células, al irse dividiendo para dar lugar a nuevas células, van transmitiendo un DNA dañado e incompleto debido a la pérdida progresiva de unas estructuras protectoras del DNA denominadas telómeros. Cuando los telómeros se acortan por debajo de una longitud mínima, las células interrumpen su ciclo celular y dejan de regenerar los tejidos, produciéndose así el envejecimiento de las células y consecuentemente el envejecimiento de todo el organismo.
Esta idea, tiene un amplio apoyo experimental con ratones modificados genéticamente para la telomerasa, el enzima que sintetiza los telómeros, asi como con enfermedades humanas de envejecimiento prematuro debidas a un acortamiento acelerado de los telómeros.

 Cuanto más largos son los telómeros, más puede multiplicarse una célula (incluidas las células madre que regeneran los tejidos) y por lo tanto el organismo se mantiene joven durante más tiempo. La relación entre telómeros y envejecimiento se conoce desde 1990 gracias a las investigaciones de Carol Greider y Calvin Harley. Existe además una enzima que contribuye a este proceso, alargando los telómeros: la telomerasa. Por su descubrimiento han recibido este año el Premio Nobel de Medicina Elisabeth H. Blackburn, Carol W. Greider, y Jack W. Szostak.

El equipo de Maria A. Blasco demostró el año pasado (en noviembre, en la revista Cell) que la relación entre telómeros y envejecimiento también funcionaba en mamíferos. Ratones tratados con telomerasa envejecen más tarde y viven hasta un 40% más. Pero hasta ahora se desconocía el mecanismo interno exacto que producía que una célula con telómeros cortos envejeciera antes que las demás.



Este video muestra lo que es la telomerasa y cómo su acortamiento influencia en la vejez. Incluye entrevista a Maria Blasco