Para nuestra sorpresa, desde hace ya un buen tiempo, los científicos han comenzado a considerar que nuestro universo no es único, es decir que no es un universo precisamente, sino que más bien sean muchos: un multiverso. Ello supondría que, simultáneamente al discurrir de este, podrían estar desarrollándose muchísimos otros mundos. Hoy queremos poner a tu consideración 5 teorías para creer que vivimos en un multiverso.
LONELY__/ISTOCK/THINKSTOCK
5. ¿Existen infinitos universos?
Actualmente, la ciencia no puede saber cuál es la forma del universo; sin embargo, se cree que es llano y que se extiende infinitamente. Si este es el caso, nos encontramos con una situación un tanto peculiar: las formas en que las partículas se organizan en el tiempo y el espacio es finita, por tanto, en algún momento dado el universo debe comenzar a repetirse. Esta teoría de los universos infinitos supone que en este mismo instante de tiempo debe haber infinitas versiones de uno mismo, haciendo o no lo mismo que hacemos justo ahora.
REINHART HEI?LER/HEMERA/THINKSTOCK
4. Universo de burbujas
El universo de burbujas es el modelo de multiverso propuesto a partir de la teoría de la inflación eterna. La misma está basada en el Big Bang y plantea que, después de la explosión inicial, el universo comenzó a extenderse exponencialmente, inflándose como un gran balón. El modelo nos dice que en tal proceso se formaron especies de bolsones que no continuaron inflándose mientras otros espacios sí lo hacían. A partir de ahí se crearon universos de burbujas aislados.
Nuestro universo estaría ubicado en uno de estos pliegues en los que la inflación se ha detenido, permitiendo la formación de estrellas y galaxias. En tanto, otras regiones continúan expandiéndose y probablemente contienen bolsones con burbujas de universos como el nuestro.
NOSEDOG77/ISTOCK/THINKSTOCK
3. Universos paralelos
Los universos paralelos son el modelo de multiverso más conocido popularmente, pues diversos filmes y series ―como el serial televisivo Fringe― han tratado el tema. Plantea la existencia de otros mundos más allá de nuestro alcance y está basado en considerar que existen más dimensiones de las tres que podemos percibir, además del tiempo.
La imagen más recurrida para describir este modelo es una barra de pan cortada en rebanadas. Cada universo sería una de estas lascas, mundos flotando en un espacio multidimensional. Se hipotetiza, además, que estos universos no estarían tan fuera de contacto, sino que cada cierto tiempo colisionarían y entonces se produciría un Bing Bang que restablecería los sistemas una y otra vez.
PITRIS/ISTOCK/THINKSTOCK
2. Universos hermanos
El modelo de los universos hermanos está basado en las teorías de la física cuántica y de las probabilidades. Supone que cada vez que en un universo se produce un evento donde hay más de una posibilidad, surge el número de universos que realiza cada una de estas variantes. Por ejemplo, en cada universo habría uno de nosotros pensando que tomó la decisión correcta y que solo existe su mundo, cuando en realidad todas las opciones se están realizando paralelamente.
AGSANDREW/ISTOCK/THINKSTOCK
1. Universos matemáticos
La ciencia debate constantemente si las matemáticas son simplemente una herramienta que utilizamos para entender la realidad o si son propiamente la realidad, solo que las limitaciones en nuestra percepción del cosmos nos impiden ver su naturaleza matemática. De ser esto cierto, podrían existir universos matemáticos, esto es, muchos mundos con todas las estructuras matemáticas posibles.
Como vemos, el tema es bien profundo. Las teorías para creer que vivimos en un multiverso intentan dar cuenta de todas las posibles variantes de complejidad que se ocultarían tras esa red de eventos cósmicos que llamamos universo.
¿Qué opinas al respecto? ¿Cuál es tu postura ante las teorías del multiverso?
Un número creciente de cosmólogos están de acuerdo con Greene de que no somos más que uno de muchos universos y al menos uno de estos otros mundos se encuentra cerca del nuestro, tal vez sólo a un milímetro de distancia.
No podemos ver este mundo, porque existe en un tipo de espacio diferente de las cuatro dimensiones de nuestra realidad cotidiana. Seguir leyendo Los Mundos Paralelos→
En los últimos años la ciencia ha empezado a considerar seriamente la posibilidad de que nuestro universo sea la proyección holográfica emitida desde el horizonte de sucesos de un agujero negro. Esta hipótesis, sin embargo, es una versión moderna de una idea recurrente en la historia del pensamiento: que el universo es una ilusión y que vivimos en una construcción artificial.
Científicos del Fermi National Laboratory en Illinois han lanzado recientemente un experimento en el que buscan saber cómo almacena información el universo, para poder determinar si vivimos en un holograma bidimensional (que ilusoriamente percibimos como un mundo tridimensional). “En el mismo sentido que el personaje de un programa de TV no sabría que su mundo aparentemente en 3D sólo existe en una pantalla en 2D, podríamos no saber que nuestro espacio en 3D es sólo una ilusión. La información de la totalidad del universo podría estar codificada en pequeños paquetes bidimensionales”, señala el comunicado de prensa.
Detectar esos paquetes de información 2-D de los cuales la realidad en 3D sería una representación es lo que el experimento busca. Cuando uno se acerca mucho a una pantalla se pueden observar los píxeles, pequeños puntos de data que conforman la imagen que vemos a distancia. El experimento parte de la hipótesis de que el espacio tiene un tamaño de pixel de 10 billones de billones de veces más pequeño que un átomo, o lo que se conoce como la escala de Planck.
El director del Fermi Lab, Craig Hogan, explica que se intenta descubrir si el espacio-tiempo es un sistema cuántico al igual que la materia y está compuesto, por así decirlo, de partículas de información y tiene un aspecto digital. “Por cientos de años hemos asumido que el espacio está hecho de puntos y líneas. Pero tal vez eso no es correcto –quizás está hecho de ondas, de la misma manera que el materia y la energía”.
Como si se tratara de un ejercicio de ciencia ficción (pero no), los investigadores del Fermi Lab han construido un aparato que llaman holómetro, el cual consiste de dos rayos láser de alta intensidad que son fragmentados y enviados perpendicularmente por dos brazos de 40 metros. Luego en la punta de estos brazos, los rayos son regresados y son recombinados. La idea es que cuando los rayos hacen contacto con el “fragmentador” (splitter, en inglés) este aparato debería de moverse de cierta forma haciendo que el brillo de los rayos fluctuara. Esta fluctuación luego sería analizada para determinar si ha entrado en contacto con lo que llaman “ruido holográfico” (oquantum jitter), que serían los mismos bits cuánticos que codifican el holograma del universo. De toparse con este “jitter” o fluctuación informática se podría decir que vivimos en un espacio-tiempo holográfico; nos habríamos topado también con el límite de lo que podemos medir en nuestro universo. El holómetro está diseñado para descartar otro tipo de vibraciones, como la radiación de fondo o las emitidas por otros aparatos electrónicos
Hogan y su equipo creen que en un año podrán tener los primeros resultados.
Es uno de los casos en que la literatura se puede leer como ciencia y la ciencia se puede leer como ficción
Borges anticipó una de las teorías de la física cuántica más importantes, explica en la siguiente entrevista Alberto Rojo, doctor en física, autor de varios libros de divulgación, y compositor musical. Rojo considera que Borges es uno de los casos maravillosos en que la literatura se puede leer como ciencia y la ciencia se puede leer como ficción. En un nuevo libro, relatará la historia de la física en 13 canciones. Por Emanuel Pujol.
La ciencia y el arte no están tan distanciados como se cree a veces. Alberto Rojo alude a ello en su libro Borges y la física cuántica y personifica en sí mismo una estrecha cercanía: parte de sus horas las dedica a resolver problemas físico-matemáticos y, una cantidad semejante de tiempo, a componer música.Su próximo material buscará relatar ni más ni menos que la historia de la física.
Jorge Luis Borges decía no entender nada de física más allá del funcionamiento del barómetro. Sin embargo, el doctor Alberto Rojo asegura que el escritor anticipó, sin saberlo y por más de 15 años, una de las teorías de la física cuántica más importantes.
¿En qué consiste el “hallazgo científico” que Borges realizó a través de la literatura?
Ocurre que, en el mundo cotidiano, es impensable imaginar que los objetos puedan estar en varios lugares al mismo tiempo. En cambio, en la física cuántica, no tiene sentido decir que las partículas estén en un sitio y no en otro.
En el universo de la mecánica cuántica hay que pensar como si las partículas pudieran moverse en cualquier dirección y pudieran estar en varios lugares a la vez antes de que el detector las observe.
Por eso, en la física cuántica, cada vez que hay una medición, el universo se replica en tantas copias como alternativas posibles. Ésta es la única teoría coherente que se ha encontrado hasta ahora y fue publicada por el físico Hugh Everett III, en 1957: la partícula elige todas las alternativas a la vez.
El hecho es que, 15 años antes, en El jardín de los senderos que se bifurcan, Borges había propuesto eso mismo: que el Universo es un laberinto temporal en el que cada vez que uno toma un decisión crea diversos porvenires que se ramifican.
Borges habla de un jardín de senderos y Everett, de un árbol ramificado, por lo que las similitudes entre el cuento y el artículo científico son sorprendentes. Al comparar lado a lado algunos de los párrafos del trabajo de física y del cuento, se encuentra uno de los casos maravillosos en que la literatura se puede leer como ciencia y la ciencia se puede leer como ficción.
Durante la vida, una persona debe optar y dejar de lado algunos porvenires… Elegir entre ser abogado o médico, por ejemplo, pero es como si usted hubiera tomado todas las opciones posibles y hubiese abierto distintos universos: es científico y, al mismo tiempo, es un músico reconocido.(Risas) Nunca lo había pensado de ese modo. Lo que mencionas sería como una especie de alegoría de mi vida y es una metáfora para reflexionar sobre las limitaciones que, a veces, se suelen poner las personas antes de abordar algunas aventuras de la vida.
Pero, en rigor, lo que ocurre en la física cuántica y en el cuento de Borges es que se van generando varios individuos que no se conocen ni hablan entre sí, que viven en distintos universos paralelos, en uno de los cuales soy abogado, en otro soy médico y en otro universo soy el que soy ahora.
En su faceta como músico, ya realizó tres discos y tocó junto a Mercedes Sosa y Charly García. ¿Qué metas tiene a futuro?
Estoy componiendo para el próximo disco con un trío que tengo armado en Estados Unidos, donde estoy radicado. Grabaremos el CD allá y lo sacaremos en Argentina. El desafío que tengo es aventurarme a avanzar un poco más en la unión entre la ciencia y la música, al realizar composiciones que combinen conceptos científicos, aunque sea alegóricamente. En el próximo disco, intentaremos contar la historia de la física en 13 capítulos, en 13 temas.
El hacer alusión a los conceptos científicos a través de la melodía y los ritmos no parece una tarea sencilla…
Hay recursos sonoros que evocan cosas. A veces, los sonidos agudos seguidos de otros sonidos agudos pueden hacer pensar en campanitas o en estrellitas, más allá de que las estrellas no hacen ruido. Por eso es que hay incluso un problema lingüístico.
Nosotros, para el próximo disco, debemos pensar cómo tocar la idea de círculos concéntricos, por ejemplo, de círculos que giran dentro de círculos; en cómo narrar musicalmente el desplazamiento del centro del Universo, es decir, de que se abandonara la idea de que el Sol y los astros giran alrededor de la Tierra, para que luego los humanos comprendiéramos que el Universo no tiene centro.
Así como la composición de un tema tiene una estética, en Borges y la física cuántica usted explica que las ecuaciones también tienen cierta simetría…
Es cierto, al presentar una ecuación en ciencia, ésta debe tener cierta estética o cierta simetría. Es una de las observaciones que hago en el libro y también durante mis clases. De hecho, hay muchos avances científicos y de la física teórica que se lograron por la búsqueda de cierta elegancia, simetría, simplicidad. Todos estos conceptos son subjetivos; no es que uno trate de explicar un experimento, sino una forma más sencilla de formular las cosas. Y en esa búsqueda de simplicidad se llega a la verdad. Entonces, aquello que la mente percibe como bello, armonioso, encuentra su materialización en el mundo real.
Puesto que se aventuró tanto al mundo de la ciencia como al del arte, ¿cómo hace para repartir su tiempo entre ambas vocaciones?
Trato de dedicarle varias horas del día a la física y también varias horas a la música. Pero hay mucho trabajo que se hace de manera inconsciente, incluso cuando uno está haciendo otras cosas.
Cuando estoy escribiendo un libro, paso más tiempo orientado a la física, aunque, en general, trato de dividir mi tiempo en iguales cantidades.
Justamente, ahora está preparando un nuevo libro…
Sí, es un libro a pedido de la Universidad de Cambridge y lo tengo que terminar en el transcurso de este año. Se llama La historia y la física del principio de mínima acción, que trata sobre el principio de que todas las leyes de la física se pueden explicar cómo una minimización de algo. En otras palabras, sería como que a las leyes de la física le gustan los extremos y, en este libro, observamos cómo se ha desarrollado este principio en la física desde el año 1700 hasta hoy.
En este momento, ¿en qué área de la física cuántica está investigando?
Ahora, estoy tratando de resolver algunos problemas de física matemática, relacionados a los sistemas no holonómicos, que son sistemas mecánicos que tienen ciertas limitaciones en su manera de moverse y todavía no se sabe cómo tratarlos desde la física cuántica.
Es un problema técnico, pero muy interesante, y lo estoy trabajando con un matemático de la Universidad de Michigan, con quien ya hemos publicado varias cosas.
Usted también le dedica tiempo a la divulgación científica. En su parecer, en los últimos años, ¿hay una mayor tendencia a la divulgación en Argentina?
Sí, sin dudas. Siempre ha habido divulgación y, de hecho, yo me interesé por la física por los textos de divulgación que leí de chico. Pero, ahora, hay una divulgación al estilo argentino, con una impronta propia que sin dudas es legado de Diego Golombek y Adrián Paenza.
Lo que se propuso Golombek es trasladar la tradición anglosajosa del libro de divulgación que incorpora narraciones, algo de lo que no había mucho en el habla hispana o, al menos, en Argentina. Y nos dio a muchos científicos una plataforma de expresión.
También está el hecho de que, en Argentina, se ha prestigiado la divulgación. Es bueno que así sea, porque incluso se puede hacer ciencia estricta con una buena divulgación.
Perfil
Alberto Rojo, nacido en Tucumán, se doctoró en Física en el Instituto Balseiro. Fue investigador en la Universidad de Chicago y, actualmente, es profesor en la Universidad de Oakland. Ha publicado numerosos trabajos de investigación en revistas científicas. Como divulgador científico, ha publicado La física en la vida cotidiana, El azar en la vida cotidiana y Borges y la física cuántica (Siglo XXI Editores); además, es conductor de la serie Artistas de la ciencia, emitida por el canal Encuentro. Como músico, realizó tres discos: De visita, Para mi sombra y Tangentes.
Nuestro colaborador Carlos Briones resume los avances recientes en el campo de la biología sintética, y reflexiona sobre si con ellos ya podemos decir que se ha creado vida artificial.
“Científicos norteamericanos crean vida artificial”. “Comienza la era de la vida artificial”. “La vida artificial ya está aquí”. Con titulares tan grandilocuentes como éstos, varios medios de comunicación de nuestro país sorprendían a la opinión pública el 27 de marzo de este año. En esta tentación cayeron tanto algunos periódicos de gran tirada como un buen número de canales de televisión, emisoras de radio y portales de internet.
No todos, afortunadamente, como fue el caso de Materia o de Next. Pero el incendio se había iniciado y tenía varios frentes. De hecho, la propia revista Science, en la que se había publicado el trabajo del que hablaban todos los medios, lo había calificado como “el monte Everest de la biología sintética”.
Lógicamente, una oleada de comentarios de todo tipo inundó los informativos y las redes sociales. En ellos se mezclaban la sorpresa, el miedo y la esperanza. Así, se estaba poniendo de manifiesto cómo suele funcionar en nuestro país el binomio de la comunicación científicaen ocasiones como ésta. Por un lado, somos parte de una ciudadanía que posee (nuestros gobernantes presentes y pasados sabrán por qué) una cultura científica muy escasa, lo que impide reaccionar con criterio propio ante la información que nos llega (y además prepara un excelente caldo de cultivo para la propagación de creencias irracionales y maguferías de toda índole, como es sabido). Por otro lado está la urgencia de algunos medios por generar titulares espectaculares… sin permitir que la realidad se los estropee, claro está. Ante el debate sobre lo que es o no es una noticia, parece claro que la creación de vida artificial (significara esto lo que significara, como veremos) sí era una noticia. O, quizá, la noticia.
Pasaron las horas, y tanto unos como otros fueron haciendo algo siempre aconsejable: leer el artículo original del que derivaban tales titulares, o al menos repasar los comentarios razonados de otros que sí lo habían leído, para ponerlo todo en el contexto adecuado. Con ello, la forma de enfocar esa información se fue matizando, relativizando, racionalizando. Empezaba a decirse que “se daba un paso de gigante hacia…”, o que “nos acercábamos a…”. Pero quizá, para el público general, con estos matices todo aquello dejaba de ser noticia. Ya ni siquiera daba miedo. De hecho, durante los días 28 y 29 de marzo este tema fue migrando de las primeras páginas a las secciones de ciencia. Y las emociones dieron paso a la reflexión. Como ejemplo, una semana después se utilizaba acertadamente como titular de una entrevista al último firmante del artículo su respuesta más realista y modesta: “Sólo estamos jugueteando con genomas”. Pero entonces, ¿qué era en realidad lo que se había publicado enScience?
Science, 27 de marzo de 2014
El artículo publicado en la versión electrónica de Science el 27 de marzo (y cinco días después en su edición impresa) estaba firmado por un equipo internacional liderado por Srinivasan Chandrasegaran (profesor de la Johns Hopkins University School of Public Health, Baltimore) yJef D. Boeke (director del New York University Langone Medical Center). En él se describía un logro extraordinario de esa disciplina relativamente nueva conocida como biología sintética: ensamblar en el laboratorio un cromosoma completo de un organismo eucariótico (es decir con núcleo definido, a diferencia de las bacterias y las arqueas), la levadura Saccharomyces cerevisiae.
Este hongo unicelular es una de las especies tipo utilizadas desde hace décadas por los investigadores de todo el mundo, debido entre otros factores a que posee uno de los genomas eucarióticos más pequeños, con 12 millones de pares de nucleótidos (abreviado como pb, por “pares de bases nucleotídicas”) repartidos en 16 cromosomas (el nuestro, por ejemplo, tiene unos 3.300 millones de pb y 23 pares de cromosomas). Por ello, este fue el primer genoma eucariótico secuenciado en su totalidad, en 1996. Se han desarrollado muchas técnicas experimentales para manipular genéticamente S. cerevisiae, y hay miles de laboratorios en todo el mundo utilizando esta levadura con fines biotecnológicos. De hecho, los humanos nos hemos beneficiado de las capacidades metabólicas de esta especie y de otras levaduras relacionadas desde la antigüedad, ya que permiten la fermentación de tres alimentos esenciales para un adulto con amigos: la cerveza, el vino y el pan.
El trabajo ha sido titulado “Total synthesis of a functional designer eukaryotic chromosome” (una forma más descriptiva y menos espectacular que otro artículo del que hablaremos posteriormente). Está centrado en el cromosoma III de S. cerevisiae, una molécula de ADN lineal, de 316.617 pb de longitud. En él, mediante herramientas bioinformáticas se habían diseñado 500 mutaciones que no deberían impedir su funcionalidad pero sí permitir distinguirlo claramente de su equivalente natural. Algunos de esos cambios servían para activar o silenciar a voluntad ciertos genes funcionales contenidos en dicho cromosoma, y otros lo dejaban preparado para futuros cambios de mayor calado. Además, se habían eliminado (o “delecionado”) varias regiones del material genético, con lo que el cromosoma sintético (denominado SynIII) quedaba reducido a una longitud de 272.871 pb.
Una vez diseñado el cromosoma variante SynIII se procedió a sintetizarlo químicamente a partir de fragmentos cortos de ADN (denominados “oligonucleótidos”) con la secuencia correspondiente. En el ensamblaje de ese gigantesco puzzle participaron, a través del proyectoBuild-a-genome, 60 estudiantes universitarios que no sólo tuvieron la suerte de colaborar en una investigación puntera sino que varios de ellos fueron reconocidos como coautores del trabajo.
Uno de los puntos más relevantes de esta investigación tiene que ver con las plasticidad de los genomas, pues sus autores demuestran que las células en cuyo núcleo habían sustituido el cromosoma III por el SynIII (como se ha indicado, bastante diferente del original) se comportan de manera casi idéntica a las levaduras naturales, aunque poseen ciertas funciones nuevas como la capacidad para crecer en algunos medios de cultivo diferentes.
Tal como se ha planteado el trabajo, la posibilidad de ensamblar cromosomas modificados de levadura permitirá alcanzar uno de los fines de la biología sintética: alterar los genomas y/o capacidades metabólicas de ciertos organismos con el fin de producir nuevos fármacos, biocombustibles o materias primas para obtener alimentos. Con ello, los autores destacan los potenciales beneficios de un avance tan espectacular como éste, sin que en teoría nadie pueda sentirse amenazado por un ser artificial creado en un laboratorio de investigación. De hecho esto es sólo el principio, pues un gran consorcio internacional ya está trabajando en la modificación y ensamblaje de los otros 15 cromosomas de esta levadura, con intención de disponer en cinco años del genoma completo en versión sintética. Para realzar su vertiente tecnológica, el proyecto ha sido bautizado con el significativo nombre de “Sc 2.0”.
Con todo, realmente en marzo estábamos ante un gran logro de la biología sintética que merecía ser publicado en las mejores revistas científicas. Pero, ¿se había creado vida?; ¿la vida artificial ya estaba aquí? Si partimos de la información genética previamente conocida de un microorganismo, realizamos cambios que intuimos cómo van a funcionar porque tal organismo es el más conocido (junto con la bacteria Escherichia coli) de todos los que habitan en este planeta, ensamblamos (empleando herramientas moleculares proporcionados por otros microorganismos) uno de sus cromosomas a partir de los fragmentos que contienen la información deseada… ¿realmente estamos creando algo nuevo o artificial? ¿Diseñar una variante alternativa del dibujo en la banda de rodadura de un neumático quiere decir que hemos inventado la rueda?
Tal pretensión (en esta ocasión, más de la revista que de los propios autores del artículo) no es nueva, sino que se inició hace dos décadas. De hecho, Chandrasegaran ha comentado que lainspiración para iniciar este trabajo partió de los avances logrados durante los últimos años por alguien fundamental en la investigación sobre biología sintética… y que también ha protagonizado varios “pasos de gigante hacia la vida artificial”: J. Craig Venter.
La sombra de Venter es alargada
J. Craig Venter es un investigador y empresario de éxito, que con frecuencia ha sorprendido a la comunidad científica con logros extraordinarios. Su salto a la fama se inició en el año 1998, cuando comenzó a liderar una iniciativa fundamental (a la par que muy polémica) durante lasecuenciación del genoma humano. Han sido también importantes sus aportaciones a lametagenómica en los últimos años, y tiene el curioso honor de haber sido el primer individuo de nuestra especie cuyo genoma ha sido secuenciado por completo. ¿Casualidad? Realmente no, pues ese trabajo fue realizado precisamente en el J. Craig Venter Institute, fundado y dirigido por él en Rockville y La Jolla.
Pero lo que le dio un papel de pionero en la línea de investigación que estamos comentando fue la publicación en diciembre de 2003 del ensamblaje del genoma completo de un virus (el bacteriófago PhiX174) a partir de oligonucleótidos sintetizados en otro laboratorio, cuya secuencia correspondía a otros tantos fragmentos contiguos de la secuencia del genoma viral. Dicho genoma es una molécula de ADN de banda sencilla (en lugar de la habitual doble hélice) y circular, con 5.386 nucleótidos de longitud. La inserción de ese genoma ensamblado en células de E. coli, uno de sus hospedadores naturales, producía partículas virales infecciosas.
Empleando un método similar, en enero de 2008 el grupo de Venter logró otro éxito: sintetizar por primera vez un genoma celular. Se trataba del cromosoma de Mycoplasma genitalium, la bacteria de vida libre conocida que posee el genoma más corto: una molécula de ADN con unos 580.000 pb. Como en el caso anterior, estábamos ante un gran avance de la biotecnología y de la biología sintética, que también había sido posible gracias al conocimiento previo de la secuencia del genoma completo que se iba ensamblando in vitro.
El siguiente hito en este fructífero camino fue la publicación en Science, el 20 de mayo de 2010, de un artículo aún más impactante. La primera parte del trabajo consistió en la síntesis del genoma completo de la bacteria Mycoplasma mycoides, en esta ocasión realizando en levaduras el ensamblaje de los oligonucleótidos. En dicho genoma (una molécula circular de ADN de aproximadamente 1.080.000 pb) se insertaron algunas mutaciones que no afectaban a ninguno de los genes bacterianos, a modo de “código de barras” para distinguirlo del genoma natural. La segunda etapa del experimento supuso la inserción de ese genoma en una célula receptora de la especie Mycoplasma capricolum previamente desprovista de su material genético. La nueva célula quimérica era funcional, y estaba controlada por el único DNA presente en ella: el cromosoma sintético de M. mycoides. Con ello se demostraba que el genoma de una especie, previamente ensamblado fuera de ella, podía ser plenamente funcional en células de otra especie muy relacionada con la donante del material genético. En efecto, tras varias generaciones en la vida de estas bacterias quiméricas (a las que se denominó M. mycoides JCVI-syn1.0), el nuevo genoma había tomado el control y su expresión reemplazaba toda la maquinaria macromolecular que había estado previamente operando en el citoplasma de la célula receptora. Lo que por otra parte era esperable: el software manda.
Este artículo volvía a poner de manifiesto tanto la elegancia experimental de Venter como su enorme capacidad económica (se estima que el trabajo costó la asombrosa cifra de 40 millones de dólares). Su repercusión en los campos de la ingeniería genética y la biología sintética fue enorme, y distintas voces comenzaron a proponer a este científico pionero como un seriocandidato al Premio Nobel, un galardón que quizá acabe consiguiendo. En paralelo, corrieron ríos de tinta y de bits sobre la posibilidad de que, con sus últimos trabajos, Venter hubieracreado vida artificial. De hecho, el título elegido por él para este artículo (que había causado gran extrañeza en el ámbito científico) era: “Creation of a bacterial cell controlled by a chemically synthesized genome”. La realidad era que en absoluto se estaba creando vida: como mucho, se estaba copiando. Además, lo copiado no era la vida, ni un ser vivo, ni una célula, sinoun genoma. Y por otra parte no se puede denominar artificial a un proceso en el que (haciendo un símil con esos muebles suecos que nos rodean) tanto las piezas que hemos desembalado como el plano con las instrucciones de montaje y hasta los destornilladores… nos los ha proporcionado la naturaleza, son fruto de la evolución biológica. Dicho de otra forma, ¿por qué llamar creación de vida artificial al bricolaje, por muy habilidoso que sea quien lo practica?
Pero Venter mantiene que con este experimento “creó la primera especie auto-replicativa de este planeta cuyo progenitor no es otro ser vivo sino un ordenador”. Casi nada. Diciendo esto parece inapropiado lamentar después que el público tenga miedo a sus avances científicos. Como en esa época comentaba irónicamente Harold J. Morowitz (eminente biofísico de la Universidad George Mason en Virginia): “se ha sintetizado un genoma bacteriano y con ello se ha creado un miedo artificial”. En cualquier caso, los resultados publicados por Venter en la primera década del siglo (que han sido muchos más de los aquí reseñados) hacían presagiar que no tardaría mucho en lograrse el siguiente hito: ensamblar un cromosoma completo de un organismo eucariótico.
Y ese logro es el que ha publicado Science hace cuatro meses. Como hemos visto, elcromosoma SynIII de S. cerevisiae es tres veces más corto que el genoma de M. mycoides, pero a cambio la nueva aproximación ha incluido numerosos avances conceptuales y metodológicos respecto al trabajo previo con micoplasmas. Y también ha inaugurado una visión más humilde de la relación de los humanos con la biología, ya que Chandrasegaran ha comentado en varias ocasiones: “realmente estamos muy lejos de crear ninguna clase de vida artificial desde la nada”. De hecho, como ha subrayado Tom Ellis (del Imperial College de Londres), este último trabajo “ha servido para demostrar que puedes construir un cromosoma sin tener que ser alguien como Venter, con un instituto tuyo trabajando para ti”. Definitivamente, los dos líderes del consorcio que ha publicado sus resultados en marzo caen mejor en la comunidad científica que el primer humano que se secuenció su propio genoma.
Nature, 7 de mayo de 2014
El primer semestre de 2014 no sólo nos ha traído sobresaltos relacionados con el ensamblaje del primer cromosoma eucariótico. El 7 de mayo, la versión electrónica de la revista Naturepublicaba un artículo revolucionario del grupo de Floyd E. Romesberg, investigador delScripps Research Institute en La Jolla. En él se describe cómo dos nucleótidos diferentes de los cuatro que forman parte del ADN (abreviados, como ATP, CTP, GTP y TTP, por el símbolo de la base nucleotídica que contienen, junto con el azúcar desoxirribosa y tres grupos fosfato) pueden insertarse en los genomas y con ello ampliar el alfabeto de la vida de 4 a 6 letras. Esos dos nuevos nucleótidos se denominan abreviadamente dNaMTP y d5SICSTP, e incluyen dos bases nucleotídicas sintéticas (simbolizadas como X e Y) diferentes de las naturales. Ambas son complementarias entre sí, por lo que cuando una está frente a la otra en sendas cadenas del ADN, entre ellas se establece una interacción por puentes de hidrógeno (X-Y) como ocurre con las naturales (A-T y G-C). Este tercer par de letras se puede incorporar a una cadena de ADN, y en el artículo se demuestra insertándolo en un único punto dentro del plásmido pINF (una molécula de ADN circular de 2.686 pb) que fue posteriormente introducido en E. colimediante técnicas convencionales de biología molecular.
Lo más interesante es que ese par X-Y no es reconocido como una anomalía genética por la propia “maquinaria de control” del ADN celular: por tanto no se corrige y se propaga de forma estable en la progenie de la bacteria. Eso sí, dado que las células no pueden sintetizar los dos nuevos nucleótidos, éstos siempre tienen que estar presentes en el medio de cultivo para que la bacteria los pueda tomar, gracias a la acción de una proteína transportadora específica que se ha insertado en su membrana. Tal aparente limitación se convierte en una ventaja desde el punto de vista de la bioseguridad, ya que estas “E. coli de seis letras” no pueden vivir fuera del laboratorio. Una vez que están en el interior celular tanto los nucleótidos como el molde ADN que contiene el par X-Y, éste no sólo puede replicarse sino también transcribirse a ARN(conteniendo únicamente sus cuatro ribonucleótidos naturales), y lógicamente los ribosomas pueden traducir dicho ARN a proteínas (utilizando los 20 aminoácidos naturales). Por el momento esta es la situación, pero quizá más adelante las modificaciones en la gramática de la vida puedan condicionar cambios en su semántica.
Este trabajo está basado en una tradición de tres décadas en el desarrollo de nucleótidos sintéticos que incorporan variantes de las bases nucleotídicas naturales. De hecho, el propio Romesberg ha dedicado los últimos 15 años a sintetizar y probar más de 300 nucleótidos artificiales. Pero el artículo de mayo va mucho más allá de la química sintética y plantea cuestiones básicas sobre cuáles son los límites en el número de nucleótidos que puede tener el ADN, por qué toda la vida está basada en sólo cuatro, y también sobre si serían viables moléculas de ARN o proteínas que incluyan versiones sintéticas de algunos de sus monómeros. Adicionalmente, es interesante investigar si (en un medio que contenga dNaMTP y d5SICSTP) las E. coli con alfabeto genético ampliado muestran mayor capacidad adaptativa frente a las naturales, o si por el contrario no sobrevivirían a una competición frente a ellas.
Por otro lado, este estudio abre la puerta a preguntas más “aplicadas” y de evidente relevancia económica. El propio Romesberg ha afirmado que a partir de lo ya publicado tienen previsto dirigir la evolución de las bacterias modificadas para obtener nuevos fármacos. En este sentido, un interrogante de gran calado es si se podrá patentar seres vivos cuyo genoma incluya estos u otros nucleótidos artificiales. El Tribunal Supremo de Estados Unidos sentenció en 2013 que “los productos de la naturaleza” no son patentables… pero ¿hasta qué punto es producto de la naturaleza una bacteria cuyo genoma incluye algún nucleótido sintético?
Por tanto, esta línea de investigación abre interesantes vías de investigación y de debate. Para lo que aquí nos ocupa, entre la mayoría de los investigadores una aproximación de este tipo resulta más cercana que el ensamblaje de genomas a algo parecido a la vida artificial. Pero, aun así, hasta ahora no se están proponiendo mecanismos radicalmente novedosos de almacenamiento de información genética en los seres vivos, sino un ajuste fino del sistema que la vida lleva utilizando desde su origen, y que se basa en el apareamiento por puentes de hidrógeno entre las bases nucleotídicas complementarias de los nucleótidos del ADN. Es decir,seguimos copiando… y no al compañero de al lado sino al maestro: la naturaleza.
¿Biología sintética o vida artificial?
El repaso de estos trabajos de investigación nos lleva a plantearnos si son equivalentes dos términos a veces usados indistintamente: biología sintética y creación devida artificial. Una revisión reciente sobre la historia, motivación y variantes de la biología sintética ha sidopublicada en Nature Reviews Microbiology y en el resumen que hizo Francis Villatoro poco después de aparecer este artículo. También se repasa este campo en una reseña sobre el libro “Regenesis: how synthetic biology will reinvent nature and ourselves”, de George M. Church y Ed Regis (2012), publicada el año pasado. Para los lectores más interesados, es recomendable el número especial que la revista Nature Methods ha dedicado a este tema hace dos meses, haciendo hincapié en las metodologías experimentales que se utilizan en la actualidad.
Por su parte, la creación de vida artificial supondría algo de lo que ya hemos hablado: el diseño y construcción de sistemas biológicos diferentes de los naturales por medio de una química o bioquímica alternativas. Su planteamiento tiene mucho que ver con la famosa frase de Richard Feynman en 1988: “lo que no puedo crear me resulta incomprensible”. Existe otra línea de investigación muy interdisciplinar nacida a finales del siglo pasado y también denominada Vida Artificial (VA), que combina los avances en computación, teoría de sistemas y robótica para proponer aproximaciones a los sistemas vivos pero mediante “organismos digitales” que no requieren un soporte bioquímico: de ella no trataremos en este texto, centrado en la dimensión biológica del tema.
Centrémonos en la biología sintética. Una de sus principales aplicaciones, derivada de cuatro décadas de investigación en ingeniería genética y de la creciente aportación de la biología de sistemas, consiste en la modificación de los genomas de ciertas especies (generalmente microbianas, pero también de plantas y animales) para alterar su funcionalidad natural o lograr actividades metabólicas concretas con aplicación en biomedicina, alimentación o medio ambiente. Así, por ejemplo, se obtienen microorganismos modificados que bio-sintetizan un nuevo antibiótico, ven incrementada su capacidad para bio-capturar dióxido de carbono, o degradan un compuesto tóxico y por tanto ayudan a bio-remediar entornos contaminados.
Otra de las líneas de trabajo más exploradas actualmente se centra en el diseño de circuitos genéticos en bacterias (y también en eucariotas) que permiten activar o reprimir la expresión de genes (dispuestos en construcciones o módulos que se suelen denominar “bioladrillos”) como si se tratara de componentes en un circuito electrónico, y lograr con ello que el sistema realice actividades funcionales útiles. Existen también líneas de trabajo alternativas que buscan la construcción de protocélulas artificiales ensamblando los tres subsistemas que forman los seres vivos (membrana, genoma y metabolismo) bien de dos en dos o bien los tres simultáneamente, aunque siempre partiendo de componentes moleculares que se toman prestados de E. coli u otras especies. Con todo, la biología sintética y sus derivaciones son una de las puntas de lanza en la ciencia del siglo XXI y hay cientos de investigadores en el mundo (incluyendo varios grupos relevantes en España) explorando sus enormes posibilidades.
Algunos de los científicos que trabajan en estos campos prefieren decir (quizá para atraer más atención o más financiación) que en lugar de estar trabajando en biología sintética lo que hacen es sintetizar vida o (llevando más allá la supuesta plasticidad del lenguaje y tal vez buscando otras connotaciones) crear vida. Y dado que trabajan en laboratorios dicha vida es, lógicamente, artificial. Como hemos comentado, este es también el caso de algunos de quienes exploran otras variantes de la biología sintética: el ensamblaje de genomas o la síntesis nucleótidos alternativos para el ADN. Evidentemente, cada investigador puede defender elgrado de artificialidad de su sistema de trabajo con respecto a los organismos naturales, algo que podría llevarnos a una larga discusión a medio camino entre la ciencia, la historia (desde la revolución neolítica hasta hoy) y la filosofía. En cualquier caso, actualmente muchos de los avances en cualquier ámbito de la biología sintética son interpretados como lo que no son, y al ser amplificados por los medios producen el efecto contrario al deseado: el miedo de la población a un nuevo Frankenstein salido de los laboratorios, como ya ocurrió tras el primer experimento de química prebiótica de Stanley L. Miller y en otros avances de la biología molecular y la ingeniería genética desde la década de 1970.
Pero todo ha de ser puesto en contexto. La auténtica creación de vida artificial (si alguna vez llega a lograrse) consistiría en ser capaces de construir una entidad auto-replicativa y metabólicamente viable dotada de un genoma (de ADN o de ARN) cuya secuencia fuera totalmente nueva. O, mejor aún, que albergara su información heredable no en un ácido nucleico natural sino en otra entidad molecular diferente (por ejemplo, alguno de los polímeros artificiales análogos a los ácidos nucleicos que ya se han sintetizado in vitro). Si alguien logra esto alguna vez, probablemente lo hará empleando una aproximación no “de arriba hacia abajo” o top-down como las comentadas aquí (que parten de la información biológica contenida en los organismos actuales) sino imaginando una estrategia bottom-upque busque construir un sistema vivo a partir de sus componentes moleculares por separado. Sólo eso permitiría pasar de lo no vivo a lo vivo.
En este sentido resulta relevante la aproximación que desde hace más de una década está llevando a cabo Jack W. Szostak en la Universidad de Harvard con protocélulas artificiales. En ellas combina dinámicas auto-replicativas de polímeros genéticos naturales o artificiales con procesos de auto-ensamblaje, crecimiento y división de las vesículas que los contienen. Precisamente aprovechar la capacidad natural de las moléculas para ensamblarse entre sí es una de las estrategias bottom-up más útiles cuando se pretende fabricar vida en el laboratorio. Quizá su grupo, u otros que están trabajando en líneas similares, nos sorprenda en el (todavía lejano) futuro con la noticia de que un proceso artificial ha logrado recrear esa transición clave producida hace algo más de 3.500 millones de años: el origen de la vida.
Dentro de este planteamiento de construcción ascendente que lleve de la química a la biología algunos autores han propuesto que, gracias a los avances de la nanotecnología para manipular moléculas individuales, llegará a ser posible ensamblar un ser vivo pieza a pieza a partir de sus constituyentes fundamentales. Sin embargo, a pesar de que la bionanotecnología ofrece un futuro lleno de posibilidades, el ensamblaje de un ser vivo como si se tratara de un puzzle resulta imposible debido a las limitaciones tecnológicas intrínsecas al proceso y a la extraordinaria complejidad molecular que poseen incluso bacterias tan aparentemente sencillas como las que hemos comentado anteriormente.
En particular, cada vez se sabe más sobre los componentes moleculares de las células de forma aislada (por ejemplo cómo es y cómo funciona una enzima, una proteína transmembrana, un plásmido o un ribosoma), pero el comportamiento conjunto de cualquier sistema vivo, con los millones de interacciones que se establecen y se rompen en cada fracción de segundo, es todavía un gran desconocido para la ciencia. Y es precisamente esa interdependencia mutua entre las partes del sistema lo que define a los seres vivos, que además van sintetizando y degradando constantemente sus componentes (con la excepción de su genoma) dentro del equilibrio cinético en el que viven. La biología y la química de sistemasinvestigan sobre ello pero, por el momento, aunque dispusiéramos de una cantidad ilimitada de tiempo, bio(nano)tecnólogos y dinero para manipular todas las moléculas que forman parte de un ser vivo, no sabríamos cómo construirlo. Y lógicamente tampoco podríamos ensamblar ningún ser vivo nuevo: necesitamos la foto para saber a qué debería parecerse el puzzle una vez terminado.
De hecho, quizá sea necesario encontrar otro ejemplo de vida fuera de la Tierra (y que además haya tenido un origen diferente del nuestro) para poder imaginarnos químicas diferentes y suficientemente complejas capaces de originar sistemas vivos alternativos. Porque recordemos que en nuestro planeta todas las formas de vida que habitan en todos los lugares conocidos (desde nuestro entorno hasta los ambientes más extremos) resultan idénticas desde el punto de vista químico, básicamente iguales en su la bioquímica, y son el fruto de la evolución del genoma que poseía LUCA, nuestro antepasado común. Ninguna especie escapa de esta uniformidad en la vida que conocemos, y evidentemente ni siquiera la supuesta “vida basada en arsénico” era tal. Los seres vivos que habitamos en este punto azul pálido, aunque parezcamos tan diferentes como Deinococcus radiodurans, una ameba o un bonobo… no somos sino variaciones de un mismo tema. Entre nosotros hay pocas pistas para imaginar las características que podría tener una química auto-replicativa diferente cuya viabilidad decidiéramos probar. De hecho, aunque no vamos a profundizar sobre ello en este artículo, lasconsideraciones éticas y ecológicas deberían tenerse muy en cuenta si la creación de algún tipo de vida artificial en el laboratorio fuera posible.
Por tanto, a pesar de que las ciencias adelantan que es una barbaridad… hemos de ser cautos ante los continuos “pasos de gigante” que se publiquen en este campo y además así evitaremos alarmismos: hasta ahora ni se ha creado vida, ni es artificial. Eso sí, merece la pena recorrer el largo y fascinante camino que tenemos ante nosotros. Entre otras cosas porque, en la línea de lo que sobre la inteligencia artificial ha dicho Douglas Hofstadter, quizá sea persiguiendo la vida artificial como descubramos las claves del funcionamiento de la vida.
Carlos Briones es investigador del Consejo Superior de Investigaciones Científicas (CSIC) en el Centro de Astrobiología (CAB), centro mixto del CSIC y del Instituto Nacional de Tecnología Aeroespacial (INTA), asociado al NASA Astrobiology Institute (NAI).
El Big Bang plantea un gran interrogante: si se trataba efectivamente del cataclismo que atacó nuestro universo a la existencia hace 13,7 millones de años, lo que provocó que?
Tres investigadores del Instituto Perimeter tienen una nueva idea acerca de lo que podría haber llegado antes del big bang. Es un poco desconcertante, pero que se basa en las matemáticas de sonido y es comprobable?
Lo que percibimos como el big bang, argumentan, podría ser el «espejismo» tridimensional de una estrella que colapsa en un universo profundamente diferente a la nuestra.
«El mayor desafío de la Cosmología es entender el propio Big Bang», escriben miembro Instituto Perimeter profesor asociado Niayesh Afshordi, miembro de la Facultad del afiliado y de la Universidad de Waterloo profesor Robert Mann, y el estudiante de doctorado Razieh Pourhasan.
Comprensión convencional sostiene que el Big Bang comenzó con una singularidad – un fenómeno insondable caliente y denso del espacio-tiempo donde las leyes normales de la física se rompen. Las singularidades son extraños, y nuestra comprensión de ellos es limitada.
«Para todos los físicos saben, dragones podrían haber llegado volando fuera de la singularidad,» Afshordi dice en una entrevista con la naturaleza .
El problema, según los autores, es que la hipótesis del Big Bang tiene nuestra relativamente comprensible, uniforme y predecible universo que surge de la locura en la física de la destrucción de una singularidad. Parece poco probable.
Así que tal vez sucedió algo más. Quizás nuestro universo nunca fue singular en el primer lugar.
Su sugerencia: nuestro universo conocido podría ser el «envoltorio» tridimensional alrededor horizonte de sucesos de un agujero negro de cuatro dimensiones. En este escenario, nuestro universo se echó a ser cuando una estrella en un universo de cuatro dimensiones colapsó en un agujero negro.
En nuestro universo tridimensional, los agujeros negros tienen horizontes de sucesos de dos dimensiones – es decir, que están rodeados por un límite de dos dimensiones que marca el «punto de no retorno.» En el caso de un universo de cuatro dimensiones, un agujero negro tendría un horizonte de sucesos en tres dimensiones.
En su escenario propuesto, nuestro universo no estaba dentro de la singularidad; sino que llegó a existir fuera de un horizonte de sucesos, protegido de la singularidad. Se originó como – y sigue siendo – una sola función en el naufragio implosión de una estrella de cuatro dimensiones.
Los investigadores hacen hincapié en que esta idea, aunque puede sonar «absurdo», se basa firmemente en las mejores matemáticas modernas que describen el espacio y el tiempo. En concreto, se han utilizado las herramientas de la holografía de «convertir el Big Bang en un espejismo cósmico.» En el camino, su modelo parece abordar de larga data rompecabezas cosmológicos y – especialmente – producir predicciones comprobables.
Por supuesto, nuestra intuición tiende a retroceder ante la idea de que todo y todos sabemos que salimos de el horizonte de sucesos de un solo agujero negro de cuatro dimensiones. No tenemos ni idea de lo que un universo de cuatro dimensiones podría ser similar. No sabemos cómo un «padre» universo de cuatro dimensiones en sí llegó a ser.
Pero nuestras intuiciones humanos falibles, los investigadores sostienen, evolucionaron en un mundo tridimensional que sólo puede revelar sombras de la realidad.
Dibujan un paralelo a la alegoría platónica de la caverna, en la que los presos pasan la vida viendo sólo las sombras parpadeantes emitidos por un incendio en una pared de la caverna.
«Sus esposas les han impedido percibir el mundo real, un reino con una dimensión adicional», escriben. «Prisioneros de Platón no entendían los poderes detrás del sol, del mismo modo que no entendemos el universo mayor de cuatro dimensiones. Pero al menos ellos sabían dónde buscar las respuestas.»
Historia de Fuente:
La historia anterior se basa en los materiales proporcionados por el Perimeter Institute . Nota: Los materiales se puede editar el contenido y duración.
Diario de Referencia :
Razieh Pourhasan, Niayesh Afshordi, Robert B. Mann. fuera del agujero negro: Una Origen holográfico para el Big Bang . arXiv , 2014 [ enlace ]
Cada término a partir del tercero, se obtiene sumando los dos anteriores.
El cociente entre dos términos consecutivos de la sucesión de Fibonacci se aproxima al número de oro (f = 1,618…).
Los números consecutivos de Fibonacci son primos entre si
Aplicaciones
Esta sucesión de números también aparece en la Naturaleza , en el Arte ( Arquitectura, Escultura, Pintura…)y en la estructura de los mercados financieros de hoy día con numerosas aplicaciones prácticas.
Leonardo planteó el siguiente problema: Tenemos una pareja de conejos, si, en cada parto obtenemos una nueva pareja y cada nueva pareja tarda un mes en madurar sexualmente y el embarazo dura un mes, ¿Cuantas parejas tendremos en 12 meses?
La respuesta es:
Parejas:
1
sexto
21
primer mes
2
séptimo
34
segundo
3
octavo
55
tercero
5
noveno
89
cuarto
8
décimo
144
quinto
13
undécimo
233
En el reino vegetal aparece en la implantación espiral de las semillas en ciertas variedades de girasol. Las escamas de una piña aparecen en espiral alrededor del vértice. En el número de espirales encontramos la sucesión de Fibonacci
La sucesión puede utilizarse, de forma parecida, para contar el número de distintas rutas que puede seguir una abeja que va recorriendo las celdillas hexagonales de un panal.
Cuando un valor de la bolsa ha empezado a cambiar su tendencia después de unos días subiendo (o bajando) de forma clara, se puede prever que la corrección será del 61,8% (1:1618 = 0,618 inverso del número de oro), o del 38,2% (1- 0,618 = 0,382). Son las llamadas líneas de Fibonacci. Las líneas de tiempo de Fibonacci, se utilizan para tratar de identificar cambios en las tendencias de mercado. Estas líneas son rectas verticales que se dibujan en períodos de tiempo proporcionales a 5, 8, 13, 21, … de la gráfica de un índice o un valor de bolsa.
Hoy se cree que la materia del universo no está hechas de pequeñas partículas, sino que está formada de pequeñísimas cuerdas, mambras ( branas). Las partículas de materia realmente son diminutas cuerdas. La teoría que justifica este hecho asombroso se llama teoría de las cuerdas que posteriormente fue desarrollada y unificada según la formulación de la teoría M.
La frecuencia que emite una cuerda musical, depende de la formas de golpear la cuerda. Las notas emitidas por la cuerda varían dependiendo de la frecuencia de vibración y por lo tanto de la forma que tengamos de hacer vibrar la cuerda musical. Así, la materia estaría formada por la notas musicales que emiten las supercuerdas. Es como decir que el universo es una sinfonía y las leyes de la física que sigue el universo son la armonía de las cuerdas.
La idea es que la teoría de las cuerdas sirva como teoría única y unificadora de todas las teorías de la física del universo. Sería como la teoría definitiva, la teoría del todo. Pero para esto, la teoría de las cuerdas debía explicar el nacimiento del universo.
La teoría de las cuerdas proponen que un electrón no es un «punto», es un conjunto de cuerdas minúsculas que vibran en un de más de cuatro dimensiones. Un punto no puede hacer nada más que moverse en un espacio tridimensional. De acuerdo con esta teoría, el electrón no es en realidad un punto, sino una cuerda en forma de lazo que vibra y se desplaza de un sitio a otro. De pendiendo del modo de vibración de la cuerda, veríamos , a nivel macroscópico un electrón, un quark , o cualquier otra partícula del. Es decir lo que a nivel microscópico es lo mismo, una cuerda oscilando y desplazándose, a nivel macrocópico, percibimos la cuerda de modo diferente. Esta teoría termina con el concepto clásico del punto-partícula .
Casi todos sabemos que existen las moléculas, que éstas están formadas por átomos; y que los átomos tienen electrones, protones y neutrones; y que los protones y neutrones, están formados por quarks y gluones, etc. ; y así seguiremos hasta el infinito ¿no?
EN UNA RARA ENTREVISTA EN UN MEDIO MAINSTREAM, RUPERT SHELDRAKE NOS HABLA EN SUS PROPIAS PALABRAS DE SU TEORÍA DE LA RESONANCIA MÓRFFICA, QUE DESAFÍA A LA CIENCIA ESTABLECIDA.
Rupert Sheldrake es quizás uno de los pocos científicos que tiene la posibilidad de pasar a la historia junto a los grandes nombres de la ciencia moderna. Es considerado un “hereje de la ciencia”, incluso soliviantando al editor de la revista Nature, John Maddox, quien incluso dijo que sus libros eran buenos candidatos para quemarse y fue protagonista de una polémica por censura en un ciclo de TEDx. En esa estela del tiempo que agrupa a Bruno y a Galileo, Sheldrake ha construido una teoría de la transmisión de información a través de campos mórficos que podría explicar fenómenos como la telepatía, el incremento de aprendizaje y otro tipo de fenómenos biológicos.
Entrevistado por el escritor John Horgan de la revista Scientific American, Sheldrake, por primera vez en mucho tiempo, habla a las audiencias de la ciencia mainstream. Horgan introduce la entrevista diciéndonos que Sheldrake es un tipo agradable y brillante “que hace una excelente imitación de Terence Mckenna”. Lo notable de esta entrevista es cómo en sus propias palabras, con cristalina simpleza, Sheldake describe una de las teorías más polémicas y potencialmente revolucionarias de los últimos 50 años en la ciencia.
La resonancia mórfica explica algo muy sencillo de manera científica: por qué el pasado sigue ocurriendo, o cómo es que todo tiene memoria. En palabras del poeta Octavio Paz: “Todo es presencia, todos los siglos son este presente”. Sheldrake habla específicamente de la persistencia del pasado explicándolo en una teoría de campos, lo cual nos lleva a la idea fundamental de que la naturaleza es una cámara de ecos, un teatro vivo de la memoria.
Sheldrake:
La resonancia mórfica es la influencia de las estructuras previas de actividad en subsecuentes estructuras de actividad organizadas por campos mórficos. Permite que las memorias se transmiten a través del espacio y del tiempo desde el pasado. Entre más grande la semejanza, más grande la influencia de la resonancia mórfica. Lo que esto significa es que todos los sistemas que se autoorganizan, como las moléculas, las células, los cristales, las plantas y las sociedades animales, tienen una memoria colectiva de la cual los individuos se alimentan y a la cual contribuyen. En su sentido más general esta hipótesis implica que las llamadas leyes de la naturaleza son más como hábitos.
Horgan: ¿Cómo se te ocurrió esta idea de la resonancia mórfica, llegó en una epifanía, o fue parte de un proceso gradual?
Sheldrake: La idea de la resonancia mórfica me llegó cuando estaba haciendo investigaciones sobre el desarrollo de las plantas en Cambridge. Estaba interesado en el concepto de la morfogenética, o de la toma de forma y los campos, pero me dí cuenta que no podían ser heredadas a través de los genes. Tenían que ser heredadas de otra forma. La idea de la resonancia mórfica llegó como una revelación súbita. Esto ocurrió en 1973, pero era una idea radical, y pasé años pensando en ella antes de publicarla en mi primer libro, A New Science of Life, en 1981.
Horgan: ¿Cuál es la evidencia más poderosa de la resonancia mórfica?
Sheldrake: Existe mucha evidencia circunstancial de la resonancia mórfica. La más notable involucró una serie de experimentos sobre aprendizaje con ratas en Harvard en los 1920′s y continuó varias décadas. Las ratas aprendieron a escapar de un laberinto de agua y las siguientes generaciones aprendieron cada vez más rápido. En ese momento parecía un ejemplo de herencia de Lamarck, lo que era un tabú. Lo interesante fue que después de que las ratas aprendieron a escapar 10 veces más rápido en Harvard, cuando se probó con ratas en Edimburgo y en Melbourne éstas empezaron más o menos donde se habían quedado las ratas de Harvard. En Melbourne las ratas siguieron mejorando después de diferentes pruebas, y este efecto no se se limitó a la descendencia de las ratas entrenadas, sugiriendo una resonancia mórfica más que un efecto epigenético. Hablo más sobre este tema en mi libro A New Science of Life,
Horgan: ¿Es la telepatía animal una consecuencia de la resonancia mórfica?
Sheldrake: La telepatía animal es una consecuencia de la forma en la que los animales están organizados en lo que llamo campos mórficos. La resonancia mórfica tiene que ver primordialmente con la influencia del pasado, mientras que la telepatía ocurre en el presente y depende de los vínculos entre los miembros de un grupo. Por ejemplo, cuando un perro está íntimamente vinculado con su dueño, este vínculo persiste aunque el dueño se encuentre lejos y, creo, es la base de la comunicación telepática. Veo la telepatía como una forma de comunicación normal, no paranormal, entre miembros de grupos animales. Por ejemplo, los perros saben que sus dueños están por regresar y los esperan cerca de una ventana o una puerta. Mis experimentos en este tema son descritos en mi libro Dogs That Know When Their Owners Are Coming Home. Los perros incluso saben cuando las personas regresan según tiempos elegidos al azar por el experimentador y viajan en vehículos no conocidos. Uno de estos experimentos puede verse aquí : http://www.sheldrake.org/videos/jaytee-a-dog-who-knew-when-his-owner-was-coming-home-the-orf-experiment
Horgan: ¿Crees que la teoría de la resonancia mórfica algún día tendrá aplicaciones prácticas?
Sheldrake: La resonancia mórfica involucra transferencia de información a través del espacio-tiempo. Puede ser posible desarrollar sistemas de transferencia de información, con una memoria global, que podrían funcionar sin la parafernalia usual de satélites, cables o estaciones de poder. He diseñado algunos experimentos en los que un código pin puede transmitirse de Londres a Nueva York sin un método convencional de comunicación.
Para complementar, al otro lado del espectro, presentamos también esta entrevista de Rupert Sheldrake con Deepak Chopra, un poco más desenfadada, en busca de la ruptura de los paradigmas.
Los físicos del Imperial College de Londres han descubierto la forma de crear la materia de la luz, una hazaña que parecía imposible cuando tal idea fue teorizada por primera vez hace 80 años. En un solo día y durante varias tazas de café en una pequeña oficina del Laboratorio de Física Blackett Imperial, los tres físicos fueron calculando una forma relativamente sencilla de probar físicamente una teoría, ideada por primera vez por los científicos Breit y Wheeler en 1934.
Breit y Wheeler sugirieron que debería ser posible convertir la luz en materia rompiendo únicamente dos partículas de luz (fotones), para crear un electrón y un positrón, el método más simple jamás predicho de convertir la luz en materia. El cálculo era teóricamente bueno, aunque tanto Breit como Wheeler ya señalaron que nunca esperarían que nadie pudiese demostrar físicamente su predicción. Nunca se había observado en el laboratorio, y los experimentos anteriores para probarlo requerían la adición masiva de partículas de alta energía .
La nueva investigación, publicada en la revista Nature Photonics, muestra por primera vez cómo la teoría de Breit y Wheeler se podía probar en la práctica. Este «colisionador fotón-fotón’ que convertiría la luz directamente en materia, mediante una tecnología que ya está disponible, sería un nuevo tipo de experimento de física de alta energía. Dicho experimento podría recrear un proceso que fue muy importante en los primeros 100 segundos del universo y que también se ve en los estallidos de rayos gamma, que son las mayores explosiones del universo y uno de los misterios sin resolver más grandes de la física.
Los científicos habían estado investigando los problemas no relacionados con la energía de fusión, cuando se dieron cuenta que aquello con lo que trabajaban podría aplicarse por la teoría Breit -Wheeler. El avance se logró en colaboración con su compañero y físico teórico del Instituto Max Planck de Física Nuclear, que estaba de visita en el Imperial College
Demostrar la teoría de Breit -Wheeler proporcionaría la pieza definitiva del rompecabezas de la física que describe las maneras más simples en las que la luz y la materia interactúan. Las otras seis piezas de este rompecabezas, incluyendo la de 1930 por la teoría de Dirac, sobre la aniquilación de electrones y positrones, y la de 1905 con la teoría de Einstein sobre el efecto fotoeléctrico, están asociadas con la investigación del ganador del Premio Nobel (ver imagen).
El profesor Steve Rose, del Departamento de Física del Imperial College de Londres, explicaba: «A pesar de que todos los físicos aceptan esta teoría como verdadera, cuando Breit y Wheeler propusieron por primera vez la teoría, dijeron que no esperaban que se pudiera demostrar en el laboratorio. En la actualidad, casi 80 años más tarde, demostramos que estaban equivocados. Lo que fue tan sorprendente para nosotros,fue el descubrimiento de que podemos crearla directamente de la luz utilizando la tecnología hoy presente en el Reino Unido. Como somos teóricos, ahora estamos hablando con otras personas que puedan utilizar nuestras ideas para llevar a cabo este experimento histórico.»
El experimento colisionador que han propuesto implica dos pasos principales . En primer lugar, los científicos usarían un láser de alta intensidad, extremadamente potente, para acelerar los electrones hasta justo debajo de la velocidad de la luz. Entonces dispararán estos electrones en un bloque de oro, a fin de crear un haz de fotones mil miillones de veces más energéticos que la luz visible.
La siguiente etapa del experimento que incolucra una poco de oro se llama hohlraum (palabra alemana para «cuarto vacío’). Los científicos podrían dispararán el láser de alta energía hacia la superficie interna de este bloque de oro, y así crear un campo de radiación térmica, lo que genera una luz similar a la luz emitida por las estrellas.
Entonces, dirigirán el haz de fotones de la primera etapa del experimento a través del centro del bloque, haciendo que los fotones de las dos fuentes choquen y formen electrones y positrones. Así sería posible detectar la formación de los electrones y positrones cuando salieran del bloque.
El investigador principal, Oliver Pike, que actualmente está completando su doctorado en física de plasma, dijo: «Pese a que la teoría es conceptualmente simple, es muy difícil de verificarlo experimentalmente. Pudimos desarrollar la idea para el colisionador rápidamente, y en el diseño experimental proponemos que puede llevarse a cabo con relativa facilidad con la tecnología existente. Al cabo de mirar unas cuantas horas las aplicaciones del hohlraums fuera de su papel tradicional en la investigación de la energía de fusión, nos quedamos asombrados al descubrir que proporcionaba las condiciones perfectas para la creación de un colisionador de fotones. La carrera para necesaria para completar el experimento está en marcha.»
– La investigación fue financiada por el Engineering and Physical Sciences Research Council (EPSRC), the John Adams Institute for Accelerator Science, and the Atomic Weapons Establishment (AWE), and was carried out in collaboration with Max-Planck-Institut für Kernphysik. – Imagen.1. Ilustración de colisión fotónica. Web Imperial College. – Imagen: Muestra la teoría que describe la interacción materia-luz. Oliver Pike, Imperial College London – See more at: http://bitnavegante.blogspot.com.es/2014/05/descubren-como-convertir-luz-en-materia.html?utm_source=feedburner&utm_medium=email&utm_campaign=Feed:+bitnavegante+(BitNavegantes)&utm_term=Google+Reader#sthash.k7F0BK0Z.dpuf
Hablemos de este elemento inerte de treinta y seis protones.
Como hemos visto a lo largo de la serie, es difícil que la existencia de un elemento químico se nos escape durante mucho tiempo. Para que un elemento sea descubierto muy tarde en la historia de la ciencia hace falta que se combinen varios factores: que no exista en gran cantidad, que no tenga efectos notables, que se presente siempre en compuestos que oculten su presencia… o, como en este caso, que no forme compuestos pero que su propia estabilidad lo haga casi indetectable.
El kriptón es tan escurridizo que su propio nombre viene del griego kryptos (oculto). Escapó a los descubrimientos casuales de la Antigüedad, a los más ingenuos intentos previos a la química moderna e incluso a la fiebre de descubrimientos de los siglos XVIII y XIX.
Hubo que esperar hasta el cambio de siglo XIX-XX, ya que fue entonces cuando los avances en Termodinámica nos permitieron atacar el problema de la composición del aire atmosférico de manera sistemática. Hemos hablado ya en la serie de los Premios Nobel sobre este asunto, ya que Sir William Ramsay obtuvo el Nobel de Química de 1904 por este asunto. Aunque hablásemos de ello en aquella serie, permite que te recuerde cómo sucedió la cosa y por qué el kriptón es tan difícil de detectar.
Sir William Ramsay (izq.) y Lord Rayleigh (der.), en 1894 [dominio público].
A finales del XIX John William Strutt, Lord Rayleigh –ganador también de un Nobel por estas cosas, por cierto– se dio cuenta de algo muy raro: al medir la densidad del nitrógeno atmosférico y la de nitrógeno obtenido mediante reacciones químicas se obtenían valores diferentes. No muy diferentes, pero sí lo suficiente para que Rayleigh se diera cuenta de que pasaba algo raro.
La razón era simple: el “nitrógeno” atmosférico no lo era en realidad. Se trataba en su mayor parte de nitrógeno molecular, N2, pero mezclado con otros gases que, al medir la densidad de la mezcla, modificaban muy ligeramente el resultado. Como la modificación era ligera, sólo había dos opciones: o bien estos otros gases existían en concentraciones minúsculas o sus masas eran muy similares a las del nitrógeno.
En 1894 William Ramsay asistió a una conferencia de Strutt en la que el otro explicaba este problema y la probable razón: la existencia de algo más mezclado con el nitrógeno atmosférico. Ramsay se puso a trabajar en el asunto del modo termodinámicamente obvio: tomando una muestra de aire líquido comprimido y realizando la destilación parcial, es decir, haciendo que los componentes del aire se fueran volviendo gaseosos uno a uno y poco a poco, de los más volátiles a los menos volátiles.
Sir William Ramsay [dominio público].
Así, Ramsay descubrió el argón, y en los meses y años siguientes hizo lo mismo con otros tres gases inertes casi de un tirón: neón, kriptón y xenón, trabajando con su ayudante Morris Travers. Resultó que no había un solo acompañante “secreto” del nitrógeno atmosférico, sino un buen puñado de ellos en cantidades minúsculas –y masas, algunas de ellas, muy diferentes de la del nitrógeno– y sin apenas efecto sobre nada más, dado su carácter inerte. Antiguamente se los llamaba gases nobles, aunque hoy tiende a llamárselos más bien gases inertes.
Como todos ellos, el kriptón es un gas transparente, de modo que no puedo mostrarte lo que Ramsay vio al aislarlo. Sin embargo, como todos los otros gases inertes, el kriptón puede brillar cuando se introduce en un tubo de descarga, de manera que aquí tienes su apariencia en este caso –y aquí sí es diferente de los otros, como veremos en un momento–:
Este gas constituye tan sólo alrededor de una parte por millón de la atmósfera en masa, es decir, únicamente el 0,000 1%. Por otro lado, recuerda que la atmósfera tiene una masa gigantesca: 5·1018kg. Esto significa que hay unos 5·1012 kg de kriptón en ella, es decir, unos cinco mil millones de toneladas. Ya no parece tan poco, ¿verdad?
¿De dónde viene todo este kriptón? No estamos completamente seguros, y probablemente no tiene un único origen. Por una parte, el kriptón es uno de los productos de la fisión del uranio, tanto espontánea como provocada. Dado que el interior de la Tierra contiene mucho uranio que ha estado ahí desde el principio, es inevitable que según parte del uranio se ha ido desintegrando y formando átomos más ligeros haya ido liberando kriptón.
Es un proceso muy lento, por supuesto, pero hay una diferencia esencial entre el kriptón y otros gases formados como productos de desintegraciones nucleares, como el helio: el kriptón es bastante pesado. La densidad del helio en condiciones normales es de unos 0,18 kg/m3, lo que significa que gran parte del helio formado en el interior de la Tierra a lo largo del tiempo ha escapado a la gravedad terrestre y ha salido de la atmósfera. Sin embargo, la densidad del kriptón en las mismas condiciones es de 3,7 kg/m3, unas veinte veces más que el helio y más de tres veces la densidad media del aire al nivel del suelo.
Por tanto, prácticamente todo el kriptón producido en la Tierra desde su formación sigue aún aquí: o bien encerrado en bolsas subterráneas cercanas a depósitos de uranio, o bien en la atmósfera, en una concentración minúscula dada la enorme cantidad de gas que contiene, por supuesto.
Pero, por otra parte, utilizando la espectroscopía hemos detectado bastante kriptón en el espacio: en asteroides, en la Luna, en otras estrellas… Esto significa que es posible que parte del kriptón terrestre haya llegado hasta aquí desde el exterior. Muy probablemente esto también ha sucedido muy poco a poco, pero otra vez pasa lo mismo: por lenta que sea la ganancia de kriptón, la masa atómica de este elemento es tan grande que nunca escapa de nuevo, con lo que poco a poco vamos ganando más.
Desde luego, esto no es alarmante: con la excepción de algunos isótopos inestables de minúscula proporción, el kriptón no es peligroso en pequeñas concentraciones. La razón sigue siendo la de siempre: al ser estable y no reaccionar con nada, no es un veneno. Su único peligro, de haber una concentración considerable, es que podría desplazar al oxígeno. Dicho de otro modo, de aumentar mucho la concentración de Kr en una habitación podrías asfixiarte, pero no porque el kriptón sea peligroso en sí mismo, sino por la ausencia de O2.
Esto de que no reacciona con nada, por cierto, no es rigurosamente cierto. En 1963 se logró formar una molécula con kriptón, empleando por supuesto un elemento extraordinariamente reactivo, el flúor (el más electronegativo de todos):
Kr + F2 → KrF2
Pero esto se consiguió en minúscula concentración y condiciones extremas, lo mismo que algunas otras moléculas formadas desde la década de los 60. En general, y en la práctica, el kriptón siempre se encuentra en forma atómica y no se digna a reaccionar con nadie.
¿Para qué sirve entonces este asocial elemento? Su uso más común es el mismo que en el caso de otros gases inertes, como el argón, el neón o el xenón: en iluminación. Y el gas que nos ocupa hoy es especial en este aspecto.
El kriptón tiene varias líneas de emisión diferentes, que se corresponden con varias transiciones electrónicas distintas. Dado que las longitudes de onda de estas líneas barren una buena parte del espectro visible, la luz de descarga del kriptón es prácticamente blanca, y eso lo hace útil. Es común emplearlo en tubos de iluminación y bombillas de bajo consumo, ya sea para obtener luz blanca o pintando el tubo para darle algún otro color. Hemos hablado sobre tubos de este tipo al hacerlo del neón, por cierto, de modo que no voy a repetirme aquí.
A pesar de que el kriptón tiene ese color blanco que lo hace muy útil, es mucho más caro que algunos otros gases que se usan con el mismo propósito, como el argón, porque es menos común. Por eso también es relativamente frecuente encontrarlo en tubos fluorescentes mezclado con gases más baratos en vez de puro.
Cuando sí se usa puro es cuando se quiere una luz muy blanca y muy brillante y el precio no es un problema. Por ejemplo, algunos flashes de cámaras fotográficas lo utilizan. El gas inerte “pata negra”, sin embargo, no es normalmente el kriptón sino el xenón, como veremos cuando lleguemos a él.
Finalmente, el kriptón también se utiliza en láseres de mayor potencia que los de helio-neón. El más famoso de éstos es el de kriptón-flúor, que es uno de los empleados en los intentos de lograr fusión nuclear mediante confinamiento por láser. Este láser de kriptón-flúor tiene, como te puedes imaginar, poco que ver con los rojos de helio-neón que suelen verse por ahí: para empezar no es rojo, ni mucho menos… tiene una longitud de onda de unos 250 nanómetros, con lo que se encuentra en el ultravioleta y ni siquiera podemos verlo.
En la próxima entrega pasaremos, como siempre sucede al terminar un período, de un elemento extraordinariamente estable a uno que es justamente lo contrario: conoceremos el elemento de treinta y siete protones, el rubidio.
Suele decirse que el descubrimiento de los rayos X, como otros muchos avances de la ciencia se produjeron de manera casual, y en cierto modo es así.
Hace algo más de un siglo, en 1895 WILHELMCONRAD ROENTGEN (1845-1923),científico alemán de la Universidad de Würzburg (Alemania),estudiaba el comportamiento de los electrones emitidos por un tubo de crookes,(llamado así en honor a su inventor,el químico y físico británico WILLIAM CROOKES especie de ampolla de cristal cerrada casi totalmente al vacío que produce una serie de relámpagos violáceos. Un día, descubrió que estos destellos eran capaces de iluminar unos frascos de sales de bario colocados en el mismo laboratorio , lo extraordinario era que el tubo estaba envuelto en papel negro y entre el y los frascos había varias planchas de madera y unos gruesos libros.
Aquellas radiaciones tenía la propiedad de penetrar los cuerpos opacos. Así decidió llamarles «LOS RAYOS X«. Eligió éste nombre porque no tenía idea de la naturaleza exacta de lo que acaba de descubrir.
Gracias a su descubrimiento fue galardonado con el primer Premio Nobel de Física en 1901.
El premio se concedió oficialmente: «en reconocimiento de los extraordinarios servicios que ha brindado para el descubrimiento de los notables rayos que llevan su nombre.»
Röntgen donó la recompensa monetaria a su universidad. De la misma forma que Pierre Curie haría varios años más tarde, rechazó registrar cualquier patente relacionada a su descubrmiento por razones éticas.
En su honor recibe tal nombre la unidad de medida de la exposición a la radiación, establecida en 1928: Unidad Roentgen .
Los rayos X son invisibles a nuestros ojos, pero producen imágenes visibles cuando usamos placas fotográficas o detectores especiales para ello.
Como si de fantasmas cósmicos se tratase, es posible que agujeros negrosen miniatura atraviesen la Tierra diariamente sin crear ningún peligro, como sugiere un estudio reciente.
Los autores del estudio creen que estos minúsculos agujeros negros tienen un comportamiento completamente distinto al de sus hermanos mayores, llamados agujeros negros astrofísicos o de masa estelar.
A pesar de tener la masa de aproximadamente mil coches, un mini agujero negro es más pequeño que un átomo. Con ese tamaño un agujero negro no podría atraer mucha materia y en su lugar atraparía átomos y algunas moléculas más grandes a órbitas circulares, al igual que los protones atraen a los electrones en los átomos.
Así, los autores del estudio llaman a los mini agujeros negros que atraen materia a las órbitas «equivalentes gravitatorios de los átomos».
«Estos equivalentes no pueden causar ningún daño», afirma el coautor del estudio Aaron VanDevender, investigador de la empresa de biotecnologíaHalcyon Molecularde Redwood City (California). «Un átomo asociado a un equivalente gravitatorio podría desprenderse e impactar contigo, pero ni te darías cuenta. Se trata de una cantidad de energía muy pequeña».
Un universo lleno de mini agujeros negros
Se cree que los agujeros negros astrofísicos se forman al chocar enormes estrellas moribundas, dejando cuerpos tan densos que ni siquiera la luz puede escapar de su empuje gravitacional.
Los científicos creen que varios agujeros negros astrofísicos pueden unirse y formar agujeros negros supermasivos que se encuentran en el centro de grandes galaxias, incluida nuestra Vía Láctea.
Aunque no podemos ver el agujero negro en sí mismo, los científicos pueden ver la luz del material extremadamente caliente que cae en el agujero negro, formando lo que se conoce como disco de acrecimiento.
Entretanto, las teorías afirman que se crearon muchos mini agujeros negros poco después del comienzo del universo, a medida que la materia densa se iba enfriando y expandiendo.
Según VanDevender, esa materia originaria no estaba distribuida de forma uniforme en el cosmos, por lo que algunas regiones del espacio eran más densas que otras.
«Debido a las variaciones aleatorias de la densidad [de la materia], algunos trozos formaron al principio agujeros negros», afirmó.
De acuerdo con el físico Stephen Hawking, los agujeros negros más pequeños deberían perder masa en forma de radiación y evaporarse en última instancia.
Sin embargo, la radiación descrita por Hawking nunca ha sido observada, por lo que el nuevo estudio supone que los mini agujeros originarios siguen existiendo en el universo.
Basándose en sus cálculos, VanDevender y su padre, J. Pace VanDevender, deSandia National Laboratoriesen Albuquerque (Nuevo México), creen que uno o dos de estos mini agujeros atraviesan la tierra cada día.
En medio de vítores y ovaciones, científicos del mayor colisionador de átomos en el mundo anunciaron el descubrimiento de una nueva partícula subatómica, la cual «concuerda» con el largamente buscado bosón de Higgs
En medio de vítores y ovaciones, los científicos del mayor colisionador de átomos en el mundo dijeron este miércoles haber descubierto una nueva partícula subatómica, la cual «concuerda» con el largamente buscado bosón de Higgs -conocido popularmente como la ‘Partícula de Dios’- que ayuda a explicar qué le da forma y tamaño a toda la materia en el universo.
«Hemos hallado ahora la piedra angular que le faltaba a la física de las partículas», dijo Rolf Heuer, director de la Organización Europea para la Investigación Nuclear (CERN, por las siglas en francés de su nombre provisional), a otros científicos.
Indicó que la partícula subatómica recién descubierta es un bosón, pero no quiso afirmar que sea el mismísimo bosón de Higgs, una distinción fundamental.
«Como lego, creo que lo logramos», declaró ante la feliz multitud.
«Tenemos un descubrimiento. Hemos observado una nueva partícula que concuerda con un bosón de Higgs».
El bosón de Higgs, que hasta ahora ha sido una partícula teórica, es considerado clave para comprender por qué la materia tiene masa, que se combina con la gravedad para darle peso a un objeto.