Archivo por días: julio 26, 2011

Agua, unas 140 billones de veces los océanos de la Tierra, descubierta alrededor de un Agujero Negro

Dos equipos de astrónomos han descubierto el depósito más grande y lejano de agua que se haya detectado hasta la fecha en el universo. El agua, equivalente a 140 billones de veces toda el agua de los océanos del mundo, rodea a un agujero negro enorme, al que sirve de alimentación; se trata de un cuásar, a más de 12 mil millones de años luz de distancia.

El cuasar, APM 08279+5255, fue descubierto en 1998. Las observaciones con telescopios ópticos e infrarrojos revelan que el cuásar, una galaxia joven con un voraz agujero negro en su centro (ver imagen), estaba formando rápidamente el estallido de nuevas estrellas. A una distancia así, el cuásar se ve como era hace más de 12 mil millones de años, a tan sólo mil millones de años después del Big Bang.

«Esto está al borde de la edad oscura», antes que las primeras estrellas del universo nacieran, decía Chris Carilli, astrónomo del Observatorio nacional de Radioastronomía (NRAO), de la NSF en Socorro, Nuevo México.

«El entorno que rodea este quásar es altamente singular, dada la producción de esta enorme masa de agua», señaló Matt Bradford, científico de NASA’s Jet Propulsion Laboratory en Pasadena, California, «es una demostración más, de que el agua es un fenómeno generalizado en todo el universo, incluso en los tiempos más primitivos». Bradford dirige uno de los equipos que hizo el descubrimiento. Su equipo de investigación está parcialmente financiado por la NASA, y aparece en la revista Astrophysical Journal Letters.

El quásar se ve impulsado por un enorme agujero negro que consume constantemente un circundante disco de gas y polvo. A tamaño ritmo de alimentación, el cuásar arroja enormes cantidades de energía. Ambos grupos de astrónomos estudiaron este cuásar, que alberga un agujero negro 20 mil millones de veces más masivo que el sol, produciendo tanta energía como mil billones de soles.

El vapor de agua es algo que los astrónomos ya esperaban su presencia en el lejano principio del universo, pero no lo habían detectado tan lejos antes. En la Vía Láctea hay vapor de agua, aunque la cantidad total es de unas 4.000 veces menor que en el cuásar, y la mayoría de este agua está congelada en forma de hielo.

El vapor de agua revela la naturaleza del cuásar. En éste en particular, el vapor de agua se distribuye alrededor del agujero negro en una región gaseosa que abarca cientos de años luz de tamaño. Su presencia indica que este cuásar está bañando el gas en rayos-X y radiación infrarroja, lo que en términos astronómicos implica un gas inusualmente caliente y denso. A pesar de que el gas se encuentre a un friolero -53ºC y sea unas 300 billones de veces menos denso que la atmósfera de la Tierra, sigue siendo cinco veces más caliente, y entre 10 a 100 veces más denso de lo que es normal en las galaxias como la Vía Láctea.

Las mediciones del vapor de agua y otras moléculas, como monóxido de carbono, sugieren que hay suficiente gas para alimentar el agujero negro hasta que crezca hasta cerca de seis veces su tamaño. Aunque no está claro si esto puede ocurrir, dicen los astrónomos, ya que parte del gas puede terminar condensándose en estrellas o puede ser expulsado desde el cuásar.

Equipo de Bradford hizo sus observaciones a partir de 2008, utilizando un instrumento llamado «Z-Spec», en el Institute of Technology’s Submillimeter Observatory de California, un telescopio 10 metros cerca de la cima del Mauna Kea en Hawai. El seguimiento de las observaciones fueron realizadas conjuntamente con el Combined Array for Research in Millimeter-Wave Astronomy (CARMA), una serie de antenas de radio en las montañas Inyo del Sur de California.

El segundo grupo, liderado por Dariusz Lis, investigador adjunto de física en Caltech, y subdirector del Submillimeter Observatory de Caltech, utilizó el Interferómetro Plateau de Bure, en los Alpes franceses, para encontrar agua. En 2010, el equipo de Lis detectó el agua de forma fortuita en APM 8279 5255, cuando observaban una firma espectral. Aunque el equipo de Bradford fue capaz de obtener más información sobre el agua, incluyendo su enorme masa, ya que detecta varias firmas espectrales del agua.

  • Referencia: DailyGalaxy.com, 22 julio 2011
  • Fuente: jpl.nasa.gov .
  • Imagen: Highzco
TRADUCIDO por Pedro Donaire  http://bitnavegante.blogspot.com/2011/07/agua-unas-140-billones-de-veces-los.html?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+bitnavegante+%28BitNavegantes%29&utm_content=Google+Reader&utm_term=Google+Reader

Un estudio científico afirma que los cultivos transgénicos afectan al equilibrio ecológico


Las plantas genéticamente modificadas, en particular las de calabacín, rompen el equilibrio ecológico, según los resultados de una investigación llevada a cabo por los expertos de la Universidad de Pensilvania y cuyos resultados han aparecido en la revista Proceedings of the National Academy of Sciences. Los calabacines transgénicos, que se cultivan desde mediados de los años 90 y tienen mayor resistencia a los virus, resultan más afectados por infecciones contagiosas, dado que los escarabajos portadores de la éstas optan con más frecuencia por este tipo de plantas más sanas. A pesar de que los transgénicos sí tienen ventajas en el plano económico y de ser de mayor tamaño, la otra cara de la moneda afecta al equilibrio ecológico, concluyen los expertos universitarios.

Los científicos de la Universidad de Pensilvania junto con sus colegas chinos cultivaron dos tipos de calabacines: los transgénicos y los naturales, sometiendo a las plantas a diferentes pruebas y moderando la dispersión de virus e infecciones. Se descubrió que, a diferencia de los virus que frenan el crecimiento de la hortaliza en las plantas de origen natural, las infecciones contagiosas acaban con el ovario de las transgénicas por completo. “Las plantas sin protección genética sí padecen del ataque de virus, pero debido a que los escarabajos de las hojas prefieren plantas más sanas, en realidad no comen las originales prefiriendo las modificadas”, comentó Andrew Stephenson, uno de los investigadores.

Es decir, las infecciones bacteriales afectaban solamente a las plantas genéticamente modificadas.

Muchos expertos medioambientales, entre ellos los de Greenpeace, están en contra de los cultivos transgénicos porque consideran que amenazan a la biodiversidad del planeta, así como que contienen un ADN extraño cuyos efectos sobre la salud del ser humano no se ha revelado aún.

Los partidarios de los transgénicos declaran que contribuyen a una mayor productividad de los cultivos, mejorando las futuras generaciones de los mismos.

Fuente:http://actualidad.rt.com

Arranca la humillante 'era Soyuz' de la NASA

Tras el aterrizaje del Atlantis, la NASA se enfrenta por primera vez en sus 53 años de historia al ‘vacío’ espacial, sin un vehículo propio y dependiendo exclusivamente de su viejo rival de la Guerra Fría, al que pagará una media de 63 millones de dólares por cada astronauta que ponga en órbita.

«Empieza la era Soyuz de los vuelos tripulados al espacio, la era de fiabilidad», podía leerse el jueves en un comunicado de la agencia espacial rusa Roskosmos, concidiendo con la jubilación del ‘shuttle’.

Desde Washington, el administrador de la NASA y ex piloto del transbordador espacial Charles Bolden intentaba combatir el pesimismo general brindando por el futuro: «Hemos pasado la página de una era memorable y empezamos el siguiente capítulo en la extraodinaria historia de las exploraciones de nuestra nación (…) Hoy reiteramos nuestro compromiso para seguir adelante con la misiones espaciales tripuladas y dar los pasos necesarios y difíciles para asegurar el liderazgo americano en los años venideros».

El ‘autostop’ espacial

Pero el gobernador de Texas, el republicano Rick Perry, lamentó profundamente el fin de la era de los transbordadores y criticó que la falta de liderazgo del presidente estadounidense, el demócrata Barak Obama, no deje a los astronautas más alternativas que ir al espacio haciendo ‘autostop’.

Perry, cuyo estado acoge el Centro Espacial Johnson en Houston, desde donde se dirigían las operaciones de los transbordadores y donde se encuentra el centro de reclutamiento, mostró su descontento por la falta de «planes para futuras misiones».

«Desgraciadamente, con el aterrizaje final del transbordador Atlantis y sin señal de planes para futuras misiones (…) esta administración ha dejado a los astronautas estadounidenses sin otra alternativa que viajar ‘a dedo’ en el espacio«, ironizó.

Por su parte, destacados astronautas, como Neil Armstrong y James Lowell, han acusado a Bolden y al propio Obama de jugar a la ‘ruleta rusa’, no sólo por la dependencia del Soyuz, sino por su confianza prematura en el sector privado, que aún tardará varios años en tener a punto la tecnología para mandar naves tripuladas al espacio.

La privatización espacial

La NASA tiene momento dos contratos –de 1.900 millones de dólares con Orbital Sciences y de 1.600 millones con Space X- para enviar inicialmente 20 vuelos de carga a la Estación Espacial Internacional hasta el 2015. Pese al éxito de Space X, que en diciembre puso en órbita su cápsula Dragón impulsada por su propio cohete (el Falcon 9), lo cierto es que el calendario sigue abierto, y más aún en el caso de Orbital Sciences, cuyas pruebas con la nave Cygnus avanzan con ostensible retraso.

Otras compañías, de Boeing a Lockheed Martin pasando por Sierra Nevada (el minitransbordador Dreamchaser), han logrado también contratos privados más impulsar los vuelos orbitales tripulados, pero el horizonte mínimo vuelve a ser el 2015.

La NASA, por su parte, anda atrapada en su propia encrucijada. Tras decidir la suspensión total del programa Constelación (con la misión de volver a la Luna en el 2020), la agencia espacial vuelve a trabajar a medio gas en el diseño de una cápsula tripulada –que ya no se llamará necesariamente Orion- y en un cohete para lanzamientos pesados.

Recorte presupuestario

La semana pasada, mientras el Atlantis orbitaba alrededor de la Tierra, acoplado por a la Estación Espacial Internacional, el Comité de Apropiaciones del Congreso debatía un ‘hachazo’ de 1.900 millones de dólares al presupuesto de 18.450 millones de la NASA. Charles Bolden no se mordió la lengua a la hora de advertir lo que estaba en juego: «Con estos recortes, el bache entre el final de la era del shuttle y la nueva era de los vuelos tripulados aumentaría sin duda, aunque no se puede predecir cuánto».

Bolden expuso así el dilema: o se recortan las misiones científicas, o se recortan los planes para misiones tripuladas. La suspensión del programa del transbordador espacial –que has costado 196.000 millones a lo largo de 40 años- dejará antes de fin de año en la calle a 10.000 trabajadores. Los nuevos ajustes amenazan con dejar la NASA diezmada y provocar una nueva fuga de cerebros hacia la compañías privadas, que en última instancia dependen de los contratos multimillonarios con la agencia espacial para salir a flote.

https://selenitaconsciente.com

Descubra desde su ordenador un asteroide peligroso para la Tierra

Los aficionados a la Astronomía pueden ahora investigar desde casa en un proyecto científico que podría ayudar a evitar una catástrofe planetaria. Se trata de identificar asteroides potencialmente peligrosos en los archivos astrónómicos, dentro de un programa del Observatorio Virtual Español (Centro de Astrobiología) que acaba de ponerse en marcha y que está abierto a todo el público.

La posibilidad de que un asteroide colisiones con la Tierra y ponga en peligro la vida no es ciencia-ficción, y de hecho ya ocurrió hace 65 millones de años, propiciando la desaparición de los dinosaurios según la hipótesis más defendida en la actualidad. De hecho, sólo en el Sistema Solar puede haber millones de asteroides y, por ello, es importante identificar sus órbitas para saber si en algún momento pueden cruzarse con la nuestra.

Muchos de estos cuerpos ya han sido identificados por proyectos de la NASA y la Agencia Espacial Europea (ESA), que les han clasificado tanto por su tamaño (algunos son como una mota de polvo y otros de más de un kilómetro de diámetro) como por el riesgo que conllevan. Sin embargo, Enrique Solano, responsable del Observatorio, explica que conocer toda su órbita no es fácil, dado que algunos tardan años en realizarla al completo.

Esta es la razón por la que se abre al público una iniciativa que hasta ahora sólo se destinaba a los investigadores. «Ahora hemos estandarizado los programas de búsqueda y es muy sencillo participar», asegura Solano.

Cómo entrar en el programa

Para colaborar basta con entrar en la web del Programa Asteroides Potencialmente Peligrosos y registrarse. Una vez que su solicitud sea aceptada, recibirá un nombre de usuario y contraseña. A partir de ese momento, podrá elegir el asteroide que quiere seguir de un catálogo previo y se le mostrarán imágenes del Universo captadas en los últimos años por el Telescopio Sloan (Estados Unidos) en donde tendrá que ir identificando el objeto.

«Una vez que nos envíen la información, nosotros la reenviamos a la Unión Astronómica Internacional y podría dar lugar a un trabajo científico en el que los participantes figuren como autores», asegura Solano. Como estos asteroides están relativamente cerca y van a alta velocidad, su detección no será difícil, explica el experto, que recuerda el caso del famoso asteroide Apophis.

Este asteroide fue descubierto el 19 de junio de 2004 y las observaciones previas señalaron que había un 2,7% de probabilidades de colisión con la Tierra en 1929, un índice sin precedentes, dado que la mayoría no pasan del 0,5%. Sin embargo, cuando se analizaron imágenes de archivo tomadas en marzo de 2004 se comprobó que la órbita no seguía la trayectoria que se pensaba y, por tanto, no había tal peligro.

«Con la colaboración del público en el análisis de las múltiples imágenes del objeto tomadas en distintas épocas, obtendremos un cálculo preciso de su órbita. Además, pensamos que es una buena fórmula de potenciar la participación general en la ciencia», argumenta Solano.

Como ejemplo, baste el de un usuario que ha sido de los 20 primeros en apuntarse a la iniciativa y que ha identificado asteroides en más de 800 imágenes en poco más de dos semanas. Todo está en ponerse.

https://selenitaconsciente.com

Telefónica, juez y parte, según cruzas el charco

Telefónica quiere que sea un juez, como debe ser, y no un órgano de la administración quien le pida datos de sus usuarios/clientes para proceder a una investigación sobre una presunta infracción de copyright en cumplimiento de la Ley Sinde.

Pero en Chile esta misma empresa ha reconocido que es juez y parte (o se toma la justicia por su mano). Lo ha hecho en un informe sobre gestión de tráfico al que le obliga la ley que regula la neutralidad de la red en aquel país y que está dando sus primeros pasos. Lo reconocido por la propia operadora no puede ser más desalentador.

Sin despeinarse reconocen que bloquean los tráficos de salida y/o de entrada de quienes hayan sido identificados como hackers sin esperar la orden judicial para proceder.

Estas acciones de defensa de red se realizan en forma incremental, en su severidad, y pueden llagar al bloqueo completo del tráfico y/o servicios del hacker. La idea es bloquear el origen del ataque o eliminar el objetivo del ataque de forma que no tenga sentido seguir con el ataque.

También desconectan la sesión de un cliente si ésta se mantiene activa durante un periodo aproximado de 29 horas, por lo que el usuario tendrá que reiniciar su conexión. Argumentan que pasado ese tiempo se pierde la pista (identificación de la “sesión” cliente) y no pueden responder como se debe a las posibles demandas de información que sobre ese “cliente” les llegue de los juzgados.

Además Telefónica advierte a los proveedores de contenido que deseen diferenciarse de su competencia (mejorando la velocidad de descarga de sus contenidos a los clientes) que tendrán que pasar por caja.

Los nuevos servicios de acceso a Internet con características técnicas “especiales” serán ofrecidos mediante ofertas no discriminatorias a todos los clientes. Asimismo, se les ofrecerán condiciones especiales a los proveedores de contenido que deseen diferenciarse de su competencia mejorando la velocidad de descarga de sus contenidos a los clientes, por ejemplo, un proveedor de vídeos de alta definición por Internet.

Hay mucho más en el informe original (pdf) y un magnífico resumen en Xataka ON donde nos aclaran (ver explicación técnica sobre la Tasa de agregación) que Telefónica no es una entidad malvada que trata de hacer la vida imposible a los usuarios, sino que estamos ante “un simple problema de gestionar la oferta y la demanda”.

En este caso la demanda son los usuarios que quieren ancho de banda, y la oferta es la capacidad de sus redes. ¿El problema? Que no hay capacidad suficiente para todos y ésta tiene que gestionarse para que a cada cliente le llegue su parte del pastel.

Es la Tasa de agregación, estúpidos ;-), que diría de la Economía el ex presidente Bill Clinton.

Más Información | Xataka ON

Desarrollan inteligencia artificial dentro de un tubo de ensayo

Científicos del Caltech fabrican una red neuronal de ADN que recupera recuerdos, a partir de patrones parciales, de manera similar a como lo hace el cerebro

Un equipo de especialistas en ciencias computacionales y bioingeniería del Instituto de Tecnología de California (Caltech), en Estados Unidos, ha conseguido crear inteligencia artificial en un tubo de ensayo, en lugar de en un robot o en un chip de silicio. Para hacerlo, crearon una red neuronal de ADN, formada por cuatro neuronas, y la sometieron a un juego de “adivinación”. Los resultados obtenidos han demostrado la capacidad de dicha red neuronal para tomar un patrón incompleto y deducir lo que dicho patrón representa, una capacidad que constituye una de las características únicas del cerebro. Aunque la tecnología aún está muy verde, en un futuro, el desarrollo de sistemas bioquímicos con inteligencia artificial podría tener importantes aplicaciones en medicina, química e investigación biológica, aseguran los investigadores. Por Yaiza Martínez.

Fuente: Caltech.

Fuente: Caltech.
La inteligencia artificial, que es la rama de las ciencias de la computación dedicada al desarrollo de agentes racionales no vivos, ha servido de inspiración a incontables libros y películas, y también a científicos e ingenieros.

Ahora, especialistas en ciencias computacionales, en computación y sistemas neuronales, y en bioingeniería del Instituto de Tecnología de California (Caltech) de Estados Unidos, han dado un importante paso en esta disciplina porque han conseguido crear inteligencia artificial en un tubo de ensayo, en lugar de en un robot o en un chip de silicio.

Imitando al cerebro

Según publica el Caltech en un comunicado, los investigadores han logrado crear, por vez primera, una red neuronal artificial de ADN, que consistió en un circuito de moléculas en interacción. Dicha red neuronal fue capaz de recuperar recuerdos a partir de patrones incompletos, de la misma forma que lo hace el cerebro.

“El cerebro es increíble” explica Lulu Qian, investigadora del Caltech y principal autora de un artículo sobre este estudio publicado por Nature: “porque nos permite reconocer patrones de sucesos, formar recuerdos, tomar decisiones y realizar acciones”.

Los autores de la investigación se preguntaron si una mezcla de moléculas en interacción podría llegar a exhibir un comportamiento similar al del cerebro. Según Qian, la respuesta fue “sí”.

¿Pero en qué consistió dicha mezcla? Los investigadores reunieron en un tubo de ensayo, concretamente, cuatro neuronas artificiales formadas por 112 hebras distintas de ADN. Después, sometieron esta red de neuronas a un juego de “adivinación” que consistía en identificar a un científico misterioso, para comprobar su funcionamiento.

Comunicación con la red

Para que la red neuronal artificial pudiera “adivinar” de qué científico se trataba, los investigadores la entrenaron previamente para que “conociera” a cuatro científicos concretos, a partir de respuestas específicas de tipo sí /no a preguntas sencillas, como si los científicos habían nacido en el siglo XX o si eran británicos.

La siguiente fase del experimento consistió en que un jugador humano elegía a uno de los científicos posibles, y proporcionaba a la red neuronal artificial un conjunto incompleto de respuestas sobre él (no todas las que la red neuronal artificial conocía). A partir de la información parcial proporcionada, la red neuronal artificial fue capaz de “adivinar” en cuál de los cuatro científicos había pensado el investigador.

En total, los investigadores jugaron a este juego utilizando 27 formas distintas de respuesta a las cuestiones (de un total de 81 combinaciones), y la red las respondió correctamente todas las veces, aseguran.

Las claves necesarias para que la red neuronal artificial “adivinase” se hicieron llegar a ésta mediante hebras de ADN que se correspondían con determinadas respuestas, y que el jugador humano dejaba caer en el tubo de ensayo cada vez.

Por su parte, las neuronas de la red artificial lanzaron sus respuestas a través de señales fluorescentes. De esta forma, se estableció la “comunicación” entre la red neuronal artificial y los investigadores, y éstos pudieron constatar que la red “comprendía” lo que el jugador humano tenía en mente.

Programación molecular

Los científicos basaron su red neuronal bioquímica en un modelo simple de neurona, denominado “función de umbral lineal”. Tal y como puede verse en el siguiente vídeo, en este modelo, la neurona recibe señales químicas entrantes que, una vez traspasan un umbral, hacen que la neurona “se encienda” y, a su vez, produzca otras señales.

[youtube=http://www.youtube.com/watch?v=N_VisNOKQMc&feature=player_embedded]
Aunque este modelo simplifica en gran medida el funcionamiento de las neuronas reales, ha resultado ser extremadamente útil para la comprensión de cómo comportamientos colectivos de muchos elementos simples pueden dar lugar a funciones similares a las del cerebro, como el del recuerdo asociativo o la complementación de patrones, explica otro de los autores de la investigación, el profesor de ciencias computacionales del Caltech, Erik Winfree.

Por otro lado, para desarrollar la red neuronal artificial de ADN (ver segundo video explicativo) los investigadores aplicaron un proceso denominado cascada de desplazamiento de hebra, que ya habían utilizado anteriormente para crear complejos circuitos de ADN.

En este proceso se utilizan moléculas de ADN de hebra simple y moléculas de ADN de hebra doble. Estas últimas tienen hélices dobles, con una hebra que sale como un rabo. Cuando las moléculas están flotando en una solución acusa, una hebra simple puede conectar con la hebra doble y, si las bases de ambas (las letras de la secuencia del ADN que las compone) son complementarias, quedar conectadas para interactuar, con esta nueva disposición, con otras moléculas circundantes.

Lo interesante de este sistema radica en que, dado que los científicos pueden sintetizar hebras de ADN con las secuencias de bases que quieran, pueden por tanto “programar” las interacciones moleculares, de tal forma que las moléculas de ADN se comporten, una vez agrupadas, como una red de neuronas.

En este caso, además, manipulando cada hebra de ADN en la red, los investigadores pudieron también “enseñar” a las redes neuronales artificiales a recordar patrones de respuestas “sí/no”, relacionadas con los cuatro científicos del juego.

[youtube=http://www.youtube.com/watch?v=fgGBZZYEm_Y&feature=player_embedded]
Posibles aplicaciones

Esta red neuronal basada en ADN ha demostrado capacidad para tomar un patrón incompleto y deducir lo que dicho patrón representa, una capacidad que constituye una de las características únicas del cerebro.

Según otro de los co-autores del estudio, el profesor de computación y sistemas neuronales del Caltech, Jehoshua Bruck: “Nosotros podemos reconocer cosas a partir sólo de un conjunto de rasgos. La red neuronal de ADN ha hecho justo eso mismo, aunque de una manera rudimentaria”.

En un futuro, el desarrollo de sistemas bioquímicos con una inteligencia artificial, o al menos algunas capacidades básicas de toma de decisiones, podría tener potentes aplicaciones en medicina, química e investigación biológica, aseguran los investigadores.

Estos sistemas podrían llegar a funcionar en el interior de las células, para ayudar a responder a cuestiones biológicas fundamentales o a realizar diagnósticos de enfermedades. Además, los procesos bioquímicos capaces de responder inteligentemente a la presencia de otras moléculas podrían permitir a los ingenieros producir productos químicos cada vez más complejos o fabricar nuevos tipos de estructura, molécula a molécula.

Pero para eso parece que aún falta mucho. A pesar de que el presente experimento ha resultado muy prometedor, los científicos señalan que la red neuronal artificial aún es muy limitada. Si se compara con el cerebro humano, éste tiene 100 mil millones de neuronas (recordemos que la red creada sólo tenía cuatro neuronas), pero la creación de una red que tuviera sólo 40 neuronas de ADN ya supondría un enorme desafío.

Bruck señala que, de momento, el estudio realizado puede interpretarse sólo como una demostración sencilla de los principios de computación neuronal que se producen en los niveles molecular e intracelular. “Una posible interpretación (de los resultados obtenidos) podría ser que, quizá, estos principios sean universales en el procesamiento de la información biológica”, concluye el investigador.

Diagrama del mayor circuito sintético realizado hasta el momento, compuesto por 74 moléculas. Fuente: Caltech/Lulu Qian.

Diagrama del mayor circuito sintético realizado hasta el momento, compuesto por 74 moléculas. Fuente: Caltech/Lulu Qian.
También circuitos de ADN

En otro trabajo anterior, del que también se hizo eco a principios del mes de junio el Caltech en otro comunicado, estos mismos investigadores consiguieron desarrollar el circuito bioquímico más complejo jamás creado.

Fabricado en un tubo de ensayo y con ADN, dicho circuito, capaz de calcular la raíz cuadrada de cualquier número hasta 15, resultó ser análogo a los transistores electrónicos o a un chip de ordenador.

En el futuro, dispositivos de este tipo podrían introducirse en muestras de sangre para detectar en ellas los niveles de diversas moléculas e integrar esa información en diagnósticos de patologías, señalaron entonces como ejemplo de aplicaciones los científicos.

http://www.tendencias21.net/Desarrollan-inteligencia-artificial-dentro-de-un-tubo-de-ensayo_a7078.html?preaction=nl&id=1453142&idnl=94002&