Alguna vez has soñado con tener ojos en la parte posterior de su cabeza? ConFlyVIZ , diseñado por ingenieros franceses, le permite disfrutar de una visión en tiemporeal de 360 ° de su entorno.
Combina un sistema de adquisición de imágenes panorámicas (situado en
la parte superior de la cabeza) con una pantalla montada en la cabeza
(HMD) y un ordenador portátil para la transformación de las imágenes en tiempo real en una forma que los seres humanos pueden verlo.
"Prevemos posibles aplicaciones en distintos campos donde la capacidad
aumentada humana (un extenso campo de visión) podrían ser beneficiosos, como
la vigilancia, la seguridad, o el entretenimiento", dicen los
inventores.
"En materia de seguridad y aplicaciones de seguridad, los soldados, los
policías o los bomberos podrían beneficiarse de la visión omnidireccional
para evitar peligros potenciales o localizar objetivos con mayor
rapidez.
En situaciones menos críticas, algunas aplicaciones de vigilancia con
una carga de trabajo visual de altura, en todas las direcciones del
espacio, por ejemplo, también podría ser interesante, tales como la
regulación del tráfico.
"FlyViz
también podría transformarse en aplicaciones de entretenimiento y
dispositivos, así como materiales experimentales para la nueva
percepción y los estudios de la neurociencia".
Las aplicaciones de realidad aumentada también podrían mejorar este aparato, sugieren los ingenieros.
El concepto de que podríamos estar viviendo en una simulación por ordenador viene de un documento de 2003 publicado en Philosophical Quarterly por Nick Bostrom , un profesor de filosofía en la Universidad de Oxford.
Con las limitaciones actuales y las tendencias de la computación,
pasarán décadas antes de que los investigadores sean capaces de
realizar simulaciones incluso primitivas del universo.
Sin embargo, un equipo de la Universidad de Washington ha sugerido
pruebas que se pueden realizar ahora, o en el futuro próximo, que puede
resolver la cuestión. En la actualidad, los superordenadores utilizan una técnica llamada enrejado cromodinámico cuántico
(LQC), y a partir de las leyes físicas fundamentales que gobiernan el
universo, puede simular sólo una porción muy pequeña del universo, en la
escala de una 100-billonésima parte de un metro, un poco más grande que el
núcleo de un átomo, dijo Martin Savage , profesor de física de la Universidad de Washington.
Eventualmente, sin embargo, las simulaciones más potentes serán capaces de
modelar en la escala de una molécula una célula e
incluso un ser humano.
Pero tomará muchas generaciones de crecimiento en potencia de cálculo
para poder simular una gran parte suficiente del universo para
comprender las limitaciones de los procesos físicos que indiquen que
estamos viviendo en un modelo computacional.
Sin embargo, Savage dijo, hay señales de las limitaciones de recursos en
los actuales simulaciones de que puedan existir, así como en las
simulaciones en un futuro lejano, como la huella de una red subyacente,
si se utiliza para modelar el continuo espacio-tiempo.
Las supercomputadoras que realizan cálculos LQC esencialmente dividen
el espacio-tiempo en una cuadrícula de cuatro dimensiones.
Esto permite a los investigadores examinar lo que se llama la fuerza
nuclear fuerte, una de las cuatro fuerzas fundamentales de la naturaleza
y la que une las partículas subatómicas llamadas quarks y gluones
juntos en neutrones y protones en el núcleo de los átomos. "Si usted hace las simulaciones lo suficientemente grande, deberia surgir algo así como nuestro universo", dijo Savage.
En ese caso sería una cuestión de buscar una "firma" en nuestro
universo que tuviera un análogo en las actuales simulaciones a pequeña
escala. Savage y sus colegas sugieren que la firma podría aparecer como una limitación de la energía de los rayos cósmicos. En un artículo que han publicado en arXiv
, dicen que los rayos cósmicos de alta energía no viajaría a lo largo
de los bordes de la red en el modelo, pero viajaría en diagonal, y que
no interactúan igualmente en todas las direcciones, ya que de otro modo es lo que se esperaria.. "Esta es la primera firma comprobable de esa idea", dijo Savage. Si tal concepto resultase ser realidad, aumentaría también otras posibilidades.
Por ejemplo, el co-autor Zohreh Davoudi sugiere que si nuestro universo es
una simulación, entonces los que dirigen podría estar ejecutando otras
simulaciones también, esencialmente creando otros universos paralelos al nuestro.
"Entonces la pregunta es, '¿Puede usted comunicarse con esos otros
universos si se están ejecutando en la misma plataforma?'", Dijo. Hay, por supuesto, muchas advertencias a esta extrapolación. La más importante de ellas es la suposición de que el crecimiento exponencial de las computadoras continuará en el futuro.
Relacionado con esto está la posible existencia de la singularidad
tecnológica, lo que podría alterar la curva de manera impredecible. Y, por supuesto, la extinción humana terminaría el crecimiento exponencial - o su simulación.
IBM, la empresa tecnológica estadounidense, ha anunciado el desarrollo de un chip que, a través de impulsos de luz, permitirá la transmisión de información a una velocidad mayor.
La nueva tecnología, llamada «nanofotónica de silicio»,
permite la integración de diferentes componentes en un chip de silicio.
De esta manera, según la compañía, se aprovecha de los impulsos de luz
(en lugar de usar señales eléctricas) para la comunicación, y «proporciona una autopista para enormes volúmenes de datos» entre procesadores de servidores a una mayor velocidad que los actuales sistemas existentes.
«Este avance tecnológico es el resultado de más de una década de investigación
pionera en IBM», declaró John E. Kelly, vicepresidente senior y
director de investigación de IBM. La empresa dice estar ya en
disposición para desarrollar aplicaciones comerciales. «Tendrá un impacto en una amplia gama de aplicaciones», afirma el dirigente de la firma.
Según ha dicho el equipo que desarrolla esta tecnología a la BBC, el uso de la luz en lugar de flujos de electrones para transmitir información tiene dos ventajas. La primera es que los datos pueden ser enviados a mayor distancia desde distintas partes del servidor, sin riesgo de perder información. Y, además,
la luz permite transferir más cantidad de datos y a más velocidad que
con los cables convencionales. Así, según este artículo, IBM ha hecho posible que este proceso de conversión tenga lugar en el chip
de la computadora que integra los componentes ópticos de lado a lado de
los circuitos eléctricos de una misma pieza de silicio, y pueden ser
fabricados a un costo relativamente bajo.
Está programado que la propia IBM aporte más detalles sobre este descubrimiento esta misma semana en el Encuentro Internacional de Aparatos Eléctricos («IEEE International Electron Devices Meeting») en San Francisco.
La
nave espacial Voyager 1, lanzada en 1977, ha llegado a una nueva región
al borde del sistema solar llamada "carretera magnética". Esto
es emocionante porque los científicos creen que es la última región
antes de que la sonda espacial entre en el espacio interestelar, que es el
espacio entre los sistemas solares. Una
vez que la Voyager 1 llegue a esta zona, se convertirá en el primer
objeto hecho por el hombre en salir de nuestro sistema solar. ¿Cómo saben los científicos que el Voyager 1 ha llegado a una nueva región del espacio? El Sol emite una corriente de partículas cargadas, llamadas
viento solar, que forman una burbuja alrededor de nuestro sistema solar
conocida como heliosfera. El
espacio interestelar también emite partículas cargadas, o de baja
energía de rayos cósmicos, pero éstos son impedidos de entrar en nuestra
atmósfera por el campo magnético del sol. En
junio, los nuevos datos mostraron que la intensidad de las partículas
energéticas del interior de la heliosfera se iban desacelerando, mientras
que la intensidad de las partículas cargadas cerca de la carcasa
exterior de la burbuja, conocida como la heliopausa, fueron cada vez más
fuerte. Los cambios de intensidad de las partículas son un fuerte indicio de que la Voyager 1 estaba saliendo de la heliosfera. Pero había un problema. Si
la nave estaba a punto de hecho el espacio interestelar, entonces el
campo magnético del Sol, también debe cambiar de dirección de intensidad ya que es
accionado por el campo magnético interestelar. Eso no sucedió. De hecho, el campo magnético del Sol se hizo más fuerte. Estos investigadores llevaron a creer que la Voyager 1 había entrado en una región del espacio que nunca se había visto antes. En
esta nueva frontera, las líneas del campo magnético del Sol conectado
con el campo interestelar, a su vez, producen la creación de una "autopista" que
permite que las partículas del Sol alejarse y las
partículas del espacio interestelar para fluir. "Creemos
que [la carretera magnética] es la última etapa de nuestro viaje al
espacio interestelar", dijo el científico del proyecto Voyager Edward
Stone en un comunicado. "Nuestra
mejor estimación es que es probable que sólo unos pocos meses a un par
de años de distancia. La nueva región no es lo que esperábamos, pero
hemos llegado a esperar lo inesperado de la Voyager."
Un estudio concluye que se acelera la pérdida de masa helada en ambos polos, no solo en Groenlandia
Tanto Groenlandia como la Antártida están
perdiendo masa helada y a un ritmo que no ha dejado de acrecentarse.
Aunque pueda parecer extraño dada la multitud de datos que apuntan a un
calentamiento global del planeta, lo cierto es que en los últimos años
no han sido pocos los estudios que ponían en duda que la Antártida
estuviera sufriendo en forma de deshielo estos rigores del clima y más
bien apuntaban a que estaba ganando masa helada, todo lo contrario de lo
que estaba ocurriendo en Groenlandia. Ahora, un nuevo estudio, que
publica el último número de «Science», viene a terminar con 20 años de incertidumbres.
Combinando series de datos procedentes de satélites
–altimetría, interferometría y gravimetría- los investigadores,
liderados por Andrew Shepherd, de la Universidad de Leeds (Reino Unido),
y Eric Ivins, del Jet Propulsion Laboratory de la NASA,
han reconstruido el balance de masa de los mantos de hielo de ambos
Polos entre 1992 y 2011. Después de reprocesar las series de datos para
asegurarse de que estaban comparando manzanas con manzanas, esto es,
regiones geográficas comunes, mismos intervalos de tiempo y los modelos
que recogen el comportamiento de las plataformas de hielo, los
investigadores concluyen que las capas de hielo de Groenlandia, de la Península antártica y de la Antártida occidental
están perdiendo masa, mientras que sólo la Antártida oriental está
viendo incrementarse su masa de hielo, sin que sea suficiente para
compensar las pérdidas del resto del continente helado.
Aumento del nivel del mar
En total, la pérdida de masa derivada del deshielo y la
desintegración de las placas -a medida que corrientes más cálidas van
erosionando los márgenes y disminuyendo su estabilidad- ha contribuido a
un aumento del nivel del mar de 11,1 milímetros desde 1992.
Esto equivale al 20% del total del aumento del nivel del mar durante
ese tiempo. Pero lo más grave es que esa pérdida de hielo se está
acelerando. Groenlandia y la Antártida están perdiendo tres veces más
hielo (equivalente a 0,95 milímetros por año de aumento en el nivel del
mar) que en 1990, cuando el ritmo de contribución al aumento del nivel
del mar era de 0,27 milímetros/año. No obstante, sigue siendo mayor la
pérdida de hielo en Groenlandia, que suma dos tercios del total de lo
que se pierde.
El estudio también encuentra diferencias en el ritmo de
cambio en cada Polo. Según explicó Eric Ivins a través de una
conferencia de prensa telefónica, «el ritmo de pérdida de hielo en
Groenlandia aumentó casi cinco veces desde mediados de los años 90. En
contraste, mientras los cambios regionales en los hielos antárticos son a
veces muy llamativos, el balance final se ha mantenido más o menos
constante».
En este estudio han participado 47 investigadores de 26 laboratorios, y ha sido financiado por la Agencia Espacial Europea (ESA) y por la NASA.
Los científicos de IBM trabajan en sistemas que abrirán la era cognitiva
de la computación. El primer ejemplo de esta nueva etapa es su
ordenador Watson, que entiende el lenguaje natural y es capaz aprender.
Watson bucea en gigantescas cantidades de información no estructurada,
genera hipótesis y busca evidencias para dar con la mejor respuesta. No
se ha quedado como proyecto de laboratorio ni de exhibición televisiva y
ya se está aplicando para mejorar el diagnostico en oncología y en el
sector financiero.
IBM cumplió el pasado año su primer siglo de vida. La tecnología le
debe muchos de sus avances, desde las tarjetas perforadas de comienzos
del siglo XX al primer ordenador personal, pasando por el código de
barras e incluso las bandas magnéticas de las tarjetas de crédito.
Ahora, este gigante ha puesto a sus científicos a trabajar en lo que
llama la ‘computación cognitiva’, “una tercera era en la informática con
máquinas que pueden aprender, emulando algunas de las funciones del
cerebro humano”, explica a SINC Mark Ritter, director de la división de
analítica y proceso de IBM Research y experto en sistemas cognitivos. “Primero
las máquinas podían contar, luego eran programadas y en esta nueva era
podrán aprender y ayudarnos a descubrir cosas nuevas”, añade Ritter. Según
este experto, uno de los primeros ejemplos de esta nueva tecnología es
Watson, un potente ordenador creado por IBM –llamado así en honor a
Thomas John Watson, fundador de la multinacional–, que el pasado año
batió a los dos mejores jugadores de un concurso televisivo muy famoso
en EE UU llamado Jeopardy. No es la primera vez que una máquina de
IBM reta a los humanos. En 1997 su ordenador Deep Blue derrotó al
campeón de ajedrez Gary Kasparov, pero aquel desafío se basó en la
lógica precisa y matemática del ajedrez. En cambio, en Jeopardy, Watson
“venció respondiendo correctamente, en segundos, a preguntas formuladas
en lenguaje coloquial en las que se utilizaba el doble sentido, la
ambigüedad, la ironía y los juegos de palabras, algo no alcanzado hasta
el momento por ninguna máquina”, subraya Ritter .
Watson responde correctamente, en segundos, a preguntas
formuladas en lenguaje coloquial y que usan el doble sentido, la
ambigüedad y la ironía
Detrás de Watson hay un equipo de investigadores que incluyen
especialistas en análisis de datos, expertos en habla y lingüística; y
la tecnología DeepQA, un sistema de inteligencia artificial creado por
IBM para responder a preguntas acerca de cualquier dominio del
conocimiento humano.
Cientos de algoritmos compitiendo
Watson,
un ordenador con 2.880 núcleos de procesador y 15 terabytes de de RAM,
opera a 80 teraflops (80 billones de operaciones por segundo) y está
basado en la arquitectura multiprocesador POWER7 de IBM. Pero, según
Antonio Orbe, experto en sistemas cognitivos de IBM España, “lo más
novedoso de este ordenador es su software, con cientos de algoritmos que
compiten entre sí para encontrar la mejor respuesta”. Muchos de
los sistemas actuales de pregunta y respuesta se basan tan solo en un
puñado de algoritmos y, por ello, no funcionan bien. “Es imposible
simular la habilidad humana para analizar lenguaje e información con
único programa”, añade Orbe. Pero Watson usa más de 100 algoritmos
al mismo tiempo para analizar una pregunta de diferentes formas,
generando cientos de posibles soluciones. Otro conjunto de instrucciones
hace un ranking de esas respuestas, según su verosimilitud. Por
ejemplo, si un buen número de algoritmos, trabajando en diferentes
direcciones, llega a la misma respuesta, es más probable que sea la
correcta, explica.
Utiliza más de 100 algoritmos al mismo tiempo y es capaz de analizar 200 millones de páginas en tres segundos
“En esencia –añade Orbe– Watson trabaja con probabilidades. No
produce solo una respuesta correcta si no un enorme número de
posibilidades y luego las clasifica, valorando cuál de ellas es la
mejor, de una forma similar a como lo hace la mente humana”. El sistema
también es capaz de aprender de sus errores y averigua que para
determinado tipo de preguntas unos algoritmos funcionan mejor que otros. Todo
este proceso lo realiza Watson con una gran velocidad. “Este ordenador
es capaz de de analizar inmensas cantidades de datos no estructurados de
una forma excepcionalmente rápida. En el prototipo que venció en
Jeopardy, analizó un millón de libros, el equivalente a 200 millones de
páginas en tres segundos”, subraya el experto español. Además, el
sistema, dice Antonio Orbe, “es capaz de analizar, entender y hallar
correlaciones de los datos de una manera muy novedosa”. Los
científicos de la multinacional están ahora trabajando para que Watson
en el futuro pueda establecer un dialogo interactivo, desarrollar
perfiles de las evidencias encontradas, revelando el origen de sus
respuestas y establecer un aprendizaje constante basado en su propia
experiencia.
Información no estructurada Así
como el sistema Deep Blue no trajo consigo aplicaciones posteriores en
el ámbito empresarial, IBM ya ha puesto a Watson a trabajar y se está
usando, por ejemplo, en investigación y mejora del diagnóstico en
oncología, en colaboración con Memorial Sloan Kettering Cancer Center de
Nueva York. Y en el mundo de las finanzas, tras un acuerdo con
Citigroup. Tanto la medicina como las finanzas manejan cantidades
masivas de datos y comparten una necesidad imperiosa de gestionar la
información rápidamente. Watson está recibiendo ya entrenamiento y
engulle toda la información relevante de estos ámbitos. “Es muy
importante reiterar que Watson, contrariamente a los sistemas
convencionales, es capaz de trabajar con información no estructurada,
como una conversación, un artículo científico o datos procedentes de
internet y de redes sociales, subraya Orbe.
Ya se está aplicando para mejorar el diagnóstico en oncología y en aplicaciones del sector financiero con Citigroup
Según Mark Ritter, el volumen de información mundial está creciendo a
una velocidad inusitada. El 90% de la información que usamos en la
actualidad se ha generado en los últimos dos años y casi 90% de estos
datos no están estructurados, es decir, que no se encuentran en bases de
datos y, por lo tanto, no son accesibles para los sistemas
convencionales, aunque sí lo serían para los ordenadores Watson. “No
hace falta decir lo valiosa que es toda esa información para el mundo
empresarial”, añade.
Por su parte, Antonio Orbe subraya que en los próximos años se verá una eclosión de aplicaciones de Watson en múltiples áreas.
Colaboración con universidades En
este sentido, la firma está colaborando con cocho universidades en
Estados Unidos para la búsqueda aplicaciones de Watson en los negocios
del transporte, las telecomunicaciones, la energía, la distribución y el
sector público. Asimismo, IBM ha creado un equipo de software y servicios en su sede de Bangalore (India) para crear nuevos algoritmos que permitan aplicar Watson a nuevos sectores. Ritter señala que Watson supone solo el inicio de la er a
cognitiva en la computación. “Son solo los primeros pasos”. Todavía se
basa en la arquitectura Von Neumann, que es la que ha regido la
informática durante los últimos 40 años. IBM ya está diseñando
componentes para una futura arquitectura que rompe totalmente con el
actual paradigma y que combina la nanociencia, la neurociencia y la
supercomputación.
La noticia más esperada por el mundo científico podría estar a punto de convertirse en realidad.John Grotzinger, el investigador principal de lamisión Curiosity, acaba de anunciar en una entrevista radiofónica que los instrumentos del rover han realizado un descubrimiento que«cambiará los libros de historia. Los datos son... prometen realmente mucho».
Sin embargo, el científico aseguró que pasarán aún algunas semanas antes de que laNASArealice uno de los mayores anuncios de su historia. Según declaró el propio Grotzinger aUniverse Today, «tendremos una conferencia el próximo 3 de diciembre para discutir nuestros resultados».
Ese día se inaugura, en efecto, la conferencia anual de la Unión Geofísica Americana (AGU), y sería una excelente ocasión para hacer público el descubrimiento. Por ahora,los científicos están llevando a cabo toda clase de pruebasy análisis adicionales. Quieren estar completamente seguros antes de lanzar las campanas al vuelo.
Lo que sí se sabe es que el hallazgo fue realizado conSAM, el sofisticado analizador de muestras de suelo marciano que consta de tres instrumentos diferentes y que está perfectamente equipado para buscarcompuestos del carbono, como metano, y restos de hidrógeno y oxígeno.
Los investigadores llevan tiempo queriendoencontrar metano, que sería un muy buen indicador de que por aquellos yermos parajes se movieron, alguna vez, formas de vida.
Es
probable que tome una década, pero las mejoras en las baterías de iones
de litio podría conducir a vehículos eléctricos mucho más baratas y eficientes.
Para
que los vehículos eléctricos e híbridos puedan competir con coches de
gasolina, los precios de las baterías deben caer entre un 50 y un 80 por ciento,
según las últimas estimaciones del Departamento de Energía de EE.UU. Las mejoras en las baterías de iones de litio que alimentan la actual generación de vehículos eléctricos puede ser suficiente, según los informes del MIT Technology Review. Los
vehículos eléctricos son menos costosos de operar que los accionados por
gas, pero la ventaja económica desaparece en gran parte por el coste de las baterías.La batería de los Chevrolet Volt cuesta alrededor de $ 8.000.La batería más grande en el Nissan Leaf cuesta alrededor de $ 12.000. Pero el coste para la batería del Leaf podría bajar a menos de $ 4.000 en 2025, según un reciente estudio
de McKinsey, sólo mediante el aumento de la escala de producción de la
batería, presionando a la baja los costos de componentes a través de la
competencia, y aproximadamente el doble de la densidad de energía de las
baterías, lo que reduce materiales de los costos.
Una puesta en marcha, Envia Systems, ya ha construido prototipos de
celdas de iones de litio de la batería que almacenan el doble de la de
los mejores convencionales de iones de litio y puede recargarse cientos
de veces .
Y algo muy importante, que es bastante similar a los convencionales de
iones de litio que se pueden hacer en la fabricación de equipos
existente.
La tecnología todavía necesita trabajo, y podría tomar varios años para empezar a aparecer en los coches, según la compañía. No
todo el mundo está de acuerdo en que las baterías de iones de litio
puede llegar a los bajos costos necesarios para los vehículos eléctricos
para competir con los que funcionan con gasolina .Toyota, por su parte, está investigando los cambios más dramáticos en el diseño de la batería.Un
tipo que se está desarrollando reemplaza el electrolito líquido en un
aparato convencional de iones de litio con un material sólido, algo que
permite un número de cambios en el diseño de la batería que podría
reducir el tamaño del sistema y disminuir el costo.Estas
baterías de estado sólido y otras tecnologías podrían reducir el tamaño
de un paquete de baterías en un 80 por ciento, de acuerdo con Toyota.Sakti3,
una startup con estrechos lazos con GM, también está desarrollando
baterías de estado sólido, y recientemente comenzó a enviar prototipos
de baterías para los clientes potenciales para las pruebas, dice el CEO
de Ann Marie Sastry.
24M, con sede en Cambridge, Massachusetts,
está adoptando un enfoque diferente - en lugar de una batería totalmente
sólida, la compañía está desarrollando un cruce entre una batería y una
pila de combustible en la que los electrodos de la batería es un
líquido fangoso que puede ser bombeado alrededor.
El material de almacenamiento de energía puede ser almacenada en
tanques de bajo costo, y luego se bombea en un pequeño dispositivo para
generar energía.
A pesar de los nuevos diseños, baterías de estado sólido y la
tecnología 24M todavía funcionan con una corriente de litio-ion química,
lo que podría hacer que sean menos riesgosos para la comercialización
de los enfoques más radicales que van más allá de la química del
litio-ion.
Pero estas nuevas baterías tienen densidades teóricas de energía varias
veces mayor que la de las baterías actuales de automóviles eléctricos.
Los
investigadores de Intel están trabajando en un procesador de 48 núcleos
para smartphones y tablets - lo que los haria muchas veces más
potentes que las computadoras de escritorio de hoy en día dentro de los
próximos cinco a diez años, linforma Computerworld . Intel está distribuyendo 100 de los procesadores experimentales de núcleo de 48 chips para que los investigadores puedan trabajar en los modelos de programación avanzados de computación en paralelo, y el software necesario para apoyar a estos núcleos. Intel dice que está usando un prototipo de una "nube ordenador de un solo chip" para desarrollar dicho procesador.
Agregando
núcleos a los procesadores es una manera energéticamente eficiente
de impulsar el rendimiento del chip, en lugar de aumentar la velocidad
de reloj de CPU, lo que lleva a la disipación del calor excesivo y el
consumo de energía.
Intel CTO Justin Rattner comentó funciones tales como el reconocimiento de
voz y la realidad aumentada impulsará la necesidad de este tipo de
poder computacional.
"Si vamos a tener esta tecnología en cinco a 10 años, [el teléfono
inteligente] no tendrá una sola cámara", dijo Enric Herrero, un
científico de investigación en los laboratorios de Intel en Barcelona. "Sería tener dos o tres cámaras que estarán siempre encendidas. Se podría construir un mapa tridimensional de lo que está viendo y hacer el reconocimiento de objetos. "
Más listo, más rápida busqueda en la nube
Sin embargo, estas funciones pueden lograrse con chips dedicados, mejor
software, e integración - en lugar de los 25 a 125 Watts
(! dos bombillas) que se necesita, según Intel - en comparación con
menos de ~ 5 W máximo con los teléfonos celulares actuales ?
Caso en cuestión: Estoy impresionado con la función de búsqueda por voz
en la recién lanzada actualización iOS / Android de Google Search App, aumenta de lejos a Siri en velocidad (lo registrado varias veces en menos
de un segundo para búsquedas de Google en el iPhone 5) , y con el
reconocimiento de voz excelente y una calidad de voz (en sustitución de
la voz de robot de Siri irritante).
Por supuesto, no se puede acceder a los contactos y las aplicaciones de
lanzamiento, al igual que Siri, pero para la búsqueda rápida,
inteligente, se mueven sobre Siri: será la búsqueda de Google de voz +
Watson. Ejemplos de preguntas de la aplicación de búsqueda de Google puede contestar (vía blog oficial de Google ):
"¿A qué se parece el Yankee Stadium?" Google le mostrará cientos de fotos al instante.
"Ponme un trailer de la próxima película de James Bond." El trailer
comienza a reproducirse inmediatamente a la derecha dentro de Google
Search.
"¿A que hora termina a luz del día?" La respuesta aparecerá por
encima de los resultados de búsqueda, así que usted puede programar su
reloj sin tener que hacer clic en un enlace.
Fuente. http://www.kurzweilai.net/breakthrough-may-lead-to-large-scale-quantum-computing (traducido) En un paso clave hacia la creación de un ordenador cuántico, investigadores de Princeton University han desarrollado
un método que puede permitir una transferencia rápida y fiable de la
información cuántica a través de un dispositivo informático.
El hallazgo, realizado por un equipo dirigido por el físico de
Princeton Jason Petta, con el tiempo podría permitir a los ingenieros
construir ordenadores cuánticos de millones de bits
cuánticos o qubits. Hasta el momento, los investigadores cuánticos sólo han sido capaces de manipular pequeños números de qubits.
Para realizar la transferencia, el equipo de Petta utilizó una
corriente de fotones de microondas para analizar un par de electrones
atrapados en una jaula diminuta enviado a un punto cuántico .
El "estado de espín" de los electrones - información sobre la forma en
que están girando, una de las propiedades de los electrones - sirve como qubit, una unidad básica de información. La corriente de microondas permite a los científicos leer esa información. "Creamos una cavidad con espejos en ambos extremos ... que reflejan la radiación de microondas", dijo Petta. "Enviamos microondas en un extremo, y nos fijamos en el microondas, ya que sale por el otro extremo. Las microondas se ven afectados por los estados de espín de los electrones en la cavidad, y se puede leer el cambio ". En un sentido ordinario, las distancias implicadas son muy pequeños; todo el aparato funciona en un poco más de un centímetro. Pero en la escala subatómica, son enormes. Es como coordinar el movimiento de una peonza en la luna con otro en la superficie de la tierra.
"Es la cosa más increíble", dijo Jake Taylor, un físico del Instituto
Nacional de Estándares y Tecnología y del Joint Quantum Institute de la
Universidad de Maryland, quien trabajó en el proyecto con el equipo de
Princeton. "Usted tiene un solo electrón casi por completo para cambiar las propiedades de un sistema eléctrico de pulgadas de largo."
Durante años, los equipos científicos han perseguido la idea de usar
la mecánica cuántica para construir una nueva máquina que fuera a
revolucionar la informática.
El objetivo no es construir un equipo más rápido o más fuerte, sino
para construir uno que se acerque a los problemas de una manera
completamente diferente.
Uno de los retos a los que se enfrentan los científicos es que los espines de los
electrones, o cualquier otra partícula cuántica , son increíblemente
delicados.
Las influencias externas, ya sea un mechón de magnetismo o rayo de luz,
desestabiliza espines de los electrones e introduce errores. Con los años, los científicos han desarrollado técnicas para observar estados de espín sin molestarlos.
(Este año el Premio Nobel de Física honró a dos científicos que primero
demostraron la observación directa de las partículas cuánticas.) Sin
embargo, el análisis de un pequeño número de vueltas no es suficiente,
millones estarán obligados a hacer falta para un procesador cuántico real.
Hybrid puntos cuánticos dispositivo superconductor resonador. (A) de circuito esquemático y micrografía del diseño del dispositivo híbrido.
Micrografía electrónica de barrido (b) y vista en sección transversal
esquemática (c) de los nanocables doble de puntos cuánticos (DQD).
Las puertas de barrera izquierdo y derecho (BL y BR), izquierda y
derecha émbolo puertas (L y R), y la puerta central (M) están sesgados a
crear un potencial de doble pozo dentro de los nanocables.
El contacto de drenaje del nanocable, D, está conectado a tierra, y el
contacto de fuente, S, está conectado a un antinodo del resonador, que
oscila a una VCavity tensión. (Crédito Petersson et. Al.)
Para abordar el problema, el equipo de Petta, combinando técnicas a
partir de dos ramas de la ciencia: de la ciencia de los materiales, se
utiliza una estructura llamada un punto cuántico para mantener y
analizar giros electrones, y de óptica, adoptaron un canal de microondas
para transferir la información de giro de el punto.
Para hacer los puntos cuánticos, el equipo aisló un par de
electrones en una pequeña sección de material que se llama un "nanocable
semiconductor" - un cable que es tan delgada que puede contener
electrones. Entonces crearon pequeñas "jaulas" a lo largo del alambre. Las jaulas se colocan de manera que los electrones se asentará en una jaula particular, dependiendo de su nivel de energía.
Así es como el equipo lee el estado de espín: los electrones de espín
similares se repelen, mientras que las de giros diferentes se atraen. Así que el equipo manipula los electrones a un cierto nivel de energía, y después lee su posición. Si están en la misma jaula, están girando de manera diferente, y si son en jaulas diferentes, los giros son los mismos. El segundo paso es colocar este punto cuántico dentro del canal de microondas. Esto permite que el equipo transfiera la información sobre el estado de giro del par - el qubit. Petta indica que el próximo paso es aumentar la fiabilidad de la configuración de un par electrón. Después de eso, el equipo planea añadir más puntos cuánticos para crear más qubits. Los miembros del equipo son cautelosamente optimistas.
No parece que existan problemas insuperables en este punto, pero, como
con cualquier otro sistema, la complejidad creciente podría llevar a
dificultades imprevistas. "Los métodos que estamos utilizando aquí son escalables, y nos gustaría utilizarlo en un sistema más amplio", dijo Petta. "Sin embargo, para hacer uso de la escala, necesitamos que funcione un poco mejor. El primer paso es hacer mejores espejos de la cavidad de microondas. "
Dentro de la robótica humanoide se pueden establecer varios grupos de investigación, el de movimientos físicos, el de gestos y expresiones faciales y el de inteligencia artificial, sobre todo.
De entre ellos os presentamos un vídeo dedicado a expresiones y gestos faciales, para que veamos los avances conseguidos hasta ahora.
Un
equipo liderado por los neurocientíficos del MIT ha desarrollado una
manera de controlar cómo las células cerebrales se coordinen entre sí
para controlar los comportamientos específicos, como iniciar el
movimiento o la detección de un olor. La técnica
de los investigadores está basado en la detección de iones
de calcio en las neuronas, los cuáles podrían ayudar a asignar los circuitos del
cerebro que desempeñan tales funciones. También
podría proporcionar nuevos conocimientos sobre los orígenes de las
enfermedades psiquiátricas, dice Guoping Feng, autor principal de un
artículo que aparece en la edición 18 de octubre de la revista Neuron. "Para
entender los trastornos psiquiátricos tenemos que estudiar los
modelos animales, y para saber lo que pasa en el cerebro cuando el
animal se comporta de manera anormal", dice Feng, W. James y Patricia
Poitras catedrático de Neurociencia y miembro del Instituto McGovern
para la Investigación del Cerebro en el MIT. "Esta
es una herramienta muy potente que realmente nos ayudará a entender los
modelos animales de estas enfermedades y estudiar cómo el cerebro
funciona normalmente y en un estado de enfermedad." (Autor principal del artículo es Neurona Instituto McGovern postdoc Qian Chen) La
realización de cualquier tipo de función cerebral requiere muchas
neuronas en diferentes partes del cerebro para comunicarse entre sí. Ellos
lograr esta comunicación mediante el envío de señales eléctricas,
provocando un flujo de iones de calcio en las células activas. Usandocolorantes que se unen al calcio, los investigadores ya han fotografiado la actividad neuronal en neuronas. Orientación de tipos celulares específicos Sin
embargo, el cerebro contiene miles de tipos de células, cada una con
distintas funciones, y el colorante se recoge por todas las
células, por lo que es imposible determinar calcio en determinados
tipos de células con este enfoque. Para
superar esto, el equipo del MIT-LED creado un sistema de formación de
imágenes de calcio que pueden ser dirigidos a tipos específicos de
células, utilizando un tipo de proteína verde fluorescente (GFP). Junichi
Nakai de la Universidad Saitama en Japón desarrolló por primera vez una
GFP que se activa cuando se une al calcio, y uno de los autores de
papel neurona, Loren Looger del Howard Hughes Medical Institute,
modificada por la proteína por lo que su señal es lo suficientemente
fuerte como para utilizar en vida animales. Los
investigadores del MIT usaron genéticamente ratones para analizar
esta proteína en un tipo de neurona conocidas como células piramidales,
por la vinculación del gen con una secuencia de ADN reguladora que es
activa sólo en aquellos tipos específicos de células. El
uso de dos fotones microscopicos para la imagen de las células a alta
velocidad y alta resolución, los investigadores pueden identificar las
células piramidales que están activos cuando el cerebro está realizando
una tarea específica o responder a un estímulo determinado. En
este estudio, el equipo fue capaz de identificar las células en la
corteza somatosensorial que se activan cuando los bigotes de un ratón se
tocan, y las células olfativas que responden a ciertos aromas. Los
investigadores ahora están desarrollando ratones que expresan las
proteínas sensibles al calcio y también muestran síntomas de
comportamiento autista y trastorno obsesivo-compulsivo. El
uso de estos ratones, los investigadores planean buscar los patrones de
disparo de las neuronas que se diferencian de las de los ratones
normales. Esto
podría ayudar a identificar exactamente lo que va mal en el nivel
celular, ofreciendo puntos de vista mecanicistas en esas enfermedades. "En
este momento, sólo se sabe que los defectos en neurona-neurona
comunicación juegan un papel clave en los trastornos psiquiátricos. No sabemos la naturaleza exacta de los defectos y los tipos celulares específicos involucrados ", dice Feng. "Si supiéramos qué tipos de células son anormales, podríamos encontrar formas de corregir los patrones anormales de activación". Los
investigadores también planean combinar su tecnología de imagen con
optogenética, lo que les permite utilizar la luz para convertir tipos
específicos de neuronas dentro o fuera. Mediante
la activación de células específicas y observando luego la respuesta en
las células diana, que será capaz de asignar precisamente circuitos
cerebrales.
(Extraido del video The von Newman Probe (A nano ship to the stars, 2012, Octubre)
Recientemente
hubo una conferencia, el One Hundred Year Starship, y por supuesto,
mucha gente llegó con diseños para tener gigantescos cohetes de fusión
que nos llevará a Marte y Júpiter, más allá, hacia las estrellas. Otras
personas dijeron que sí, cohetes de antimateria, ese es el camino a
seguir, y todos tuvimos esta visión mental de la "Enterprise" yendo a los
sistemas estelares cercanos. . . . Hay otra manera de hacerlo. Piensa en la madre naturaleza. Cuando
la madre naturaleza quiere propagar la vida, una posibilidad es enviar
semillas, no sólo uno o dos, sino de millones de semillas. La
mayor parte de las semillas nunca lo hacen, pero sí uno o dos y, como
consecuencia de la cantidad de árboles en los bosques de propagarse.
¿Por qué no crear un nano cohete utilizando la nanotecnología? ¿De qué tamaño sería? Algunas personas, como Paul Davies dice que podría ser tan grande como una caja de pan. Otras personas dicen que podría ser incluso menor que eso. ¿Por qué no algo del tamaño de una aguja? Y como son tan pequeños que no se necesita mucho para acelerar hasta casi la velocidad de la luz. Darse
cuenta de que un acelerador de mesa muy pequeña puede acelerar
electrones a velocidades cercanas a la de la luz, por lo que no haría
falta mucho para que podamos acelerar las moléculas de nano a
velocidades muy, muy rápido cerca de la velocidad de la luz usando
campos eléctricos. Ahora estas sondas serían diferentes de sondas ordinarias. Serían nanobots. Ellos tienen la capacidad para aterrizar en un terreno hostil y crear una fábrica como un virus. Eso es lo que hacen los virus. Se replican. Un
virus puede crear tal vez un millar de ejemplares, luego mil, mil
copias y luego un millón, mil millones, billones y de repente tienes
trillones de estas cosas se propagan a través del espacio exterior. ¿Y cómo lo harías? Una posibilidad es utilizar los campos, los campos magnéticos alrededor de Júpiter.Los
cálculos han demostrado que usted puede azotar alrededor de Júpiter
usando lo que se llama el Efecto Faraday para azotar a las partículas
tal vez cerca de la velocidad de la luz. Y de nuevo, no tenemos estos nanobots todavía. Tenemos
que esperar hasta que la nanotecnología se vuelva lo suficientemente
desarrollada, pero cuando eso sucede tal vez la nave de 100 años no va a
parecerse a la Enterprise. Tal
vez se verá como pequeñas agujas, poco a los miles de millones enviados
al espacio exterior y tal vez sólo un puñado de ellos la tierra en un
planeta distante para crear fábricas. Y ¿no suena familiar? Esta es la trama de la película de 2001. Recuerde que obelisco gigante en Marte? Esa
fue la sonda Von Neumann, un virus, una sonda de auto-replicantes con que se puede explorar el universo casi a la velocidad de la luz.
Es transparente, flexible, extraordinariamente resistente,
impermeable, abundante, económico y conduce la electricidad mejor que
ningún otro metal conocido. Hablamos del grafeno, el material que tiene
fascinados a científicos y a la industria debido a sus fantásticas
propiedades.
Aunque fue sintetizado por primera vez en 2004, saltó a la fama en
2010 cuando sus descubridores, los investigadores de origen ruso Andre Geim (Sochi, 1958) y Konstantin Novoselov (Nizhny Tagil, 1974) recibieron el Premio Nobel de Física.
Como ya apuntó entonces Andre Geim, las aplicaciones potenciales del
grafeno son tantas que ni siquiera eran capaces de enumerarlas.
En fase de desarrollo
Todos hablan de este material aunque pocos lo han visto. Y es que, pese a sus prometedoras aplicaciones, todavía se encuentra en fase de desarrollo.
El grafeno es una lámina extremadamente delgada compuesta de carbono
(sólo tiene un átomo de grosor). El grafito del que se obtiene es el
mismo que se extrae de las minas de carbón y se usa para fabricar
lápices, frenos de coches o aceros, por lo que se trata de una materia
prima muy abundante en la naturaleza. Para conseguir grafeno se puede partir del grafito natural (las minas españolas son ricas en este mineral) o del grafito sintético.
El principal obstáculo en la actualidad es que aún no es posible
fabricar grafeno a gran escala, según explica Jesús de la Fuente,
director de la empresa española Graphenea Nanomaterials, una de las pocas compañías que de momento, producen este material. Avanzare y GranphNanotech son otras dos empresas españolas que trabajan con él.
Grafeno el material del futuro
Una nueva técnica permitirá crear chips ultradelgados basados en grafeno
El equipo investigador del químico Jiwoong Park de la Universidad de Cornell, Ithacay Nueva York, han
inventado una forma de organizar siguiendo un patrón determinado,
películas de nitruro de boro (aislante) y de grafeno de un solo átomo de
espesor, sin usar en ellas un substrato de silicio.
Esta nueva técnica podría conducir al desarrollo y fabricación fácil
de circuitos con grosor atómico y libres de substratos ya que por su
delgadez extrema podrían flotar en el agua o en el aire. Este
revolucionario método de fabricación el cual utiliza la misma tecnología
básica de fotolitografía usada en el procesamiento de obleas de
silicio, se permite que el grafeno y el nitruro de boro conformen
películas del todo planas, estructuralmente lisas, sin arrugas ni
desniveles.
Este paso de producción, si se complementa con el paso final, que
todavía no se ha logrado poner en práctica satisfactoriamente y que
consiste en introducir un material semiconductor, podría conducir al
primer circuito integrado con el grosor de un solo átomo.
El equipo de investigación ahora trabaja para determinar qué material
funcionaría mejor con las películas delgadas de grafeno y nitruro de
boro para constituir la última capa semiconductora que podría convertir
las películas en circuitos reales.
En el trabajo de investigación y desarrollo también han intervenido David A. Muller, Mark Levendorf y Cheol-Joo Kim.
Los circuitos integrados que están dentro de los equipos electrónicos
de todo tipo y que están hechos de silicio cuidadosamente trabajado,
son bastante delgados pero algunos científicos piensan que el grosor de
las películas delgadas que se utilizan en ellos se puede reducir aún
más, hasta el nivel de un solo átomo.
Los materiales que un grupo de científicos ha escogido para intentar eso son el grafeno y el nitruro de boro hexagonal.
El grafeno es un singular material que consiste en una sola capa de
átomos de carbono colocados en una retícula hexagonal similar a la de un
panal de miel.
El nitruro de boro hexagonal consiste en una estructura también
delgada hecha de átomos de boro y nitrógeno dispuestos en un patrón
repetitivo.
El estudio se basa en la acción de una determina proteína capaz de modificar el patrón
de la reprogramación celular, realizada precisamente por los
investigadores.
La reprogramación celular rompió el dogma en biología de que la
diferenciación celular terminal era irreversible, es decir, una vez que
una célula adopta un destino concreto hacia por ejemplo, una célula
neuronal o hepática, ya no puede revertir el proceso y volver al
estadio inicial de pluripotencialidad o de adoptar
diferentes fenotipos celulares. Yamanaka, que continuó las investigación
de Gurdon, demostró en 2006 que este proceso se puede revertir, al
menos parcialmente, de tal manera que, una célula diferenciada de la
piel de una persona mediante su reprogramación genética puede adquirir
un fenotipo “desdiferenciado” idóneo para diferenciarla hacia un tipo
celular distinto. Sólo es necesario introducir 4 genes a una célula adulta para activar la reprogramación y conseguir el estadio de célula madre pluripotente. Ciertos inconvenientes rodean la reprogramación celular. De acuerdo
con Fernández- Salguero, investigaciones recientes demuestran que la
reprogramación no es total, por eso no se les denomina células madres
sino células pluripotenciales o iPS, que al no ser 100% embrionarias
tienen limitada por tanto, su capacidad de desarrollar diferentes
tejidos o de diferenciarse a distintos tipos celulares. Además, “la
célula diferenciada posee la memoria epigenética de la
célula en cuestión, memoria que no se elimina completamente durante la
reprogramación”, señala el profesor. Ciertos laboratorios han observado
que las células pluripotenciales reprogramadas tienen más capacidad de
inducir tumores porque la reparación epigenética no se lleva de manera
completa. La epigenética hace referencia a las modificaciones que se
producen en los genes que no afectan a la secuencia de nucleótidos del
gen, son cambios inducidos por el medio ambiente y por la propia célula
sobre todo. “Si tuviéramos un dictado de letras, las combinaciones de
letras formarían el gen y cómo se modifican esas letras sería la
epigenética”, explica el investigador.
Conviene distinguir la reprogramación celular de la técnica a partir
de células madre ya que ambas están muy relacionadas pero son
diferentes. La técnica con células madre permite diferenciar las células
hacia un tipo celular de interés, por ejemplo, diferenciar las células
madre hacia epitelio normal para fabricar células cardíacas para
regenerar un infarto de miocardio. La técnica de Yamanaka parte de
células adultas ya diferenciadas y reprogramarlas hacia un estadio de
menos diferenciación, pluripotencial.
Fernández-Salguero resalta que es un premio muy merecido puesto que
abre muchas posibilidades terapéuticas. Sin embargo, hay que ser
cautelosos, como así lo refleja el propio Yamanaka en artículos
divulgativos recientes, se desconoce el comportamiento a largo plazo de
las células reprogramadas así como los posibles efectos secundarios en
el paciente. Según apunta el investigador de la UEx, el propio
Yamanaka alerta sobre empresas que ofrecen terapias basadas en la
reprogramación celular en pacientes sin control riguroso tanto en
investigación básica, como clínica y preclínica.
Conferencia a cargo de Maria Pia Cosma, Profesora Investigadora ICREA,
jefa del laboratorio Reprogramación y Regeneración, dentro programa de
investigación Regulación Génica, Células Madre y Cáncer, en el Centro de
Regulación Genómica (CRG), en Barcelona.
Los telómeros cortos son la principal fuente del envejecimiento del organismo
La hipótesis más aceptada de por qué envejecemos es la acumulación de
daño en nuestro material genético (DNA), que se produciría asociado al
proceso mismo de la vida. Sin embargo, la naturaleza del daño causante
de envejecimiento es aún motivo de intenso debate científico. Trabajos
recientes con ratones modificados genéticamente sugieren que los
“radicales libres”, popular teoría de envejecimiento, no parecen ser los
causantes del envejecimiento del organismo.
Las células, al irse
dividiendo para dar lugar a nuevas células, van transmitiendo un DNA
dañado e incompleto debido a la pérdida progresiva de unas estructuras
protectoras del DNA denominadas telómeros. Cuando los telómeros
se acortan por debajo de una longitud mínima, las células interrumpen
su ciclo celular y dejan de regenerar los tejidos, produciéndose así el
envejecimiento de las células y consecuentemente el envejecimiento de
todo el organismo.
Esta idea, tiene un amplio apoyo experimental
con ratones modificados genéticamente para la telomerasa, el enzima que
sintetiza los telómeros, asi como con enfermedades humanas de
envejecimiento prematuro debidas a un acortamiento acelerado de los
telómeros.
Cuanto más largos son los telómeros, más puede multiplicarse una
célula (incluidas las células madre que regeneran los tejidos) y por lo
tanto el organismo se mantiene joven durante más tiempo. La relación
entre telómeros y envejecimiento se conoce desde 1990 gracias a las
investigaciones de Carol Greider y Calvin Harley. Existe además una
enzima que contribuye a este proceso, alargando los telómeros: la
telomerasa. Por su descubrimiento han recibido este año el Premio Nobel
de Medicina Elisabeth H. Blackburn, Carol W. Greider, y Jack W. Szostak.
El equipo de Maria A. Blasco demostró el año pasado (en noviembre, en la revista Cell)
que la relación entre telómeros y envejecimiento también funcionaba en
mamíferos. Ratones tratados con telomerasa envejecen más tarde y viven
hasta un 40% más. Pero hasta ahora se desconocía el mecanismo interno
exacto que producía que una célula con telómeros cortos envejeciera
antes que las demás.
Este video muestra lo que es la telomerasa y cómo su acortamiento influencia en la vejez. Incluye entrevista a Maria Blasco