Archivo de la categoría: FÍSICA

¿La realidad es el año 2050? Físicos creen que podríamos vivir en un simulacro del pasado

La vida que consideramos nuestra realidad puede ser simplemente una simulación computarizada del pasado, mientras la humanidad vive en el año 2050, según un artículo científico del investigador Robert Lawrence Kuhn.

«La idea de que la humanidad podría estar viviendo en una realidad artificial –un universo simulado– parecía ciencia ficción. Pero hablando con científicos y filósofos me di cuenta de que la idea de que todo lo que los seres humanos ven y saben es un juego de ordenador gigantesco, la creación de ‘hackers’ muy inteligentes que existen en otro lugar, no es una broma», afirma Kuhn. «Es una investigación profunda de la realidad», remata el creador y presentador del programa ‘Closer to Truth’ (‘Más cerca a la verdad’), que ha publicado en el sitio web Space.com los resultados de una investigación en la que entrevista a un grupo de físicos y escritores de ficción célebres de la actualidad.

Desde hace años circula entre científicos y entusiastas la idea de que nuestro mundo no es, en realidad –valga la redundancia–, real. La mayoría de los científicos consideran que los seres humanos no se darían cuenta de que el mundo que ven es falso. La única posibilidad de establecer que una persona se encuentra en un simulacro es hallar un ‘fallo de programación’ que podría representar, por ejemplo, la violación de una ley de la física.

Según David Brin, escritor de ciencia ficción y científico espacial, la vida real puede situarse en el año 2050 y tal vez nosotros solo vivamos en la creación de un ordenador que simula la vida del inicio del siglo XXI.

El filósofo Nick Bostrom, director del Instituto del Futuro de la Humanidad de la Universidad de Oxford, describe la idea de la falsedad del universo como una «simulación detallada de los seres humanos, incluidos sus predecesores históricos, a través de ‘software’ por una civilización tecnológicamente muy avanzada».

Bostrom cree que la vida de verdad podría ser casi como un ‘matrix’, excepto que «en lugar de tener en cubos nuestros cerebros alimentados por los estímulos sensoriales de un simulador, los propios cerebros también serían parte de la simulación. Sería un programa de computadora de gran tamaño que simula todo, incluido el cerebro humano, hasta las neuronas».

http://actualidad.rt.com/ciencias/182190-realidad-mundo-simulacro-pasado

Reformulan la teoría cuántica de forma simétrica en el tiempo

La nueva visión abre la puerta a fenómenos nunca antes contemplados
Investigadores de Bélgica han desarrollado una nueva formulación de la teoría cuántica totalmente simétrica en el tiempo, es decir, en la que las reglas sirven igual hacia adelante que hacia atrás. Hasta ahora se ha observado esta teoría de forma asimétrica, es decir, que podemos prever qué medición vamos a hacer, por ejemplo. La nueva perspectiva abre la posibilidad a fenómenos nunca antes contemplados.

La cuántica puede formularse de forma simétrica en el tiempo. Imagen: homyox. Fuente: FreeImages.
Físicos teóricos de la Universidad Libre de Bruselas (Bélgica) han desarrollado una formulación totalmente simétrica de la teoría cuántica, que establece una relación exacta entre la asimetría y el hecho de que podemos recordar el pasado pero no el futuro.

Las leyes de la mecánica clásica son independientes de la dirección del tiempo, pero que lo mismo ocurre en la mecánica cuántica ha sido un tema de debate. Si bien se ha acordado que las leyes que rigen los sistemas cuánticos aislados son simétricas en el tiempo, la medición cambia el estado de un sistema de acuerdo con reglas que sólo parecen funcionar hacia adelante, y hay diferencias en la opinión acerca de la interpretación de este efecto.

Ahora los físicos teóricos de Bélgica han desarrollado una formulación plenamente simétrica en el tiempo de la teoría cuántica, que establece una relación exacta entre esta asimetría y el hecho de que podamos recordar el pasado pero no el futuro – un fenómeno que el físico Stephen Hawking ha nombrado la flecha «psicológica» de tiempo.

El estudio ofrece nuevos conocimientos sobre los conceptos de libre elección y causalidad, y sugiere que la causalidad no tiene por qué ser considerada como un principio fundamental de la física. También expande un teorema fundamental de la mecánica cuántica debido a Eugene Paul Wigner, que apunta a nuevas direcciones para la búsqueda de la física más allá de los modelos conocidos. Los hallazgos de Ognyan Oreshkov y Nicolas Cerf se han publicado esta semana en la revista Nature Physics.

Causalidad

La idea de que nuestras elecciones en el presente pueden influir en los acontecimientos en el futuro, pero no en el pasado, se refleja en las reglas de la teoría cuántica estándar como un principio que los teóricos cuánticos llaman «causalidad», explica la nota de prensa de la universidad, recogida por AlphaGalileo.

Para entender este principio, los autores del nuevo estudio analizan lo que el concepto de elección en el contexto de la teoría cuántica significa realmente. Por ejemplo, pensamos que un experimentador puede elegir qué medición realizar en un sistema dado, pero no el resultado de la medición. Correspondientemente, de acuerdo con el principio de causalidad, la elección de la medición se puede correlacionar con resultados de mediciones sólo en el futuro, mientras que el resultado de una medición se puede correlacionar con resultados de mediciones tanto pasadas como futuras.

Los investigadores sostienen que la propiedad que determina que interpretemos la variable que describe la medida como dependiente de la elección del experimentador, mientras que el resultado no lo es, es que puede ser conocida antes de que la medición se realice.

Desde esta perspectiva, el principio de causalidad se puede entender como una limitación a la información disponible sobre las diferentes variables en diferentes momentos. Esta limitación no es simétrica en el tiempo ya que tanto la elección de la medición como el resultado de una medición pueden ser conocidas a posteriori. Esto, de acuerdo con el estudio, es la esencia de la asimetría implícita en la formulación estándar de la teoría cuántica.

«La teoría cuántica ha sido formulada sobre la base de conceptos asimétricos que reflejan el hecho de que podemos conocer el pasado y estamos interesados ​​en la predicción del futuro. Pero el concepto de probabilidad es independiente del tiempo, y desde una perspectiva de la física tiene sentido tratar de formular la teoría en términos fundamentalmente simétricos», dice Ognyan Oreshkov, el autor principal del estudio.

Nueva formulación

Para ello, los autores proponen adoptar una nueva noción de medida que no se define sólo por las variables del pasado, sino que puede depender de las variables del futuro también. «En el enfoque que proponemos, las mediciones no se interpretan como «elecciones libres» de los agentes, sino simplemente describen la información sobre los posibles eventos en diferentes regiones del espacio-tiempo», dice Nicolas Cerf, co-autor del estudio y director del Centro de Información Cuántica y Comunicación de la Universidad.

En la formulación simétrica en el tiempo de la teoría cuántica que se desprende de este enfoque, el principio de la causalidad y la flecha psicológica del tiempo surgen de lo que los físicos llaman condiciones de contorno -parámetros con base en los cuales la teoría hace predicciones, pero cuyos valores podrían ser arbitrarios en principio. Así, por ejemplo, de acuerdo con la nueva formulación, es concebible que en algunas partes del universo la causalidad pueda ser violada.

Otra consecuencia de la formulación simétrica en el tiempo es una extensión de un teorema fundamental de Wigner, que caracteriza a la representación matemática de simetrías físicas y es fundamental para la comprensión de muchos fenómenos, tales como qué partículas elementales pueden existir.

El estudio muestra que en la nueva formulación las simetrías se puede representar en formas no permitidas por la formulación estándar, lo que podría tener consecuencias físicas de gran alcance. Una posibilidad especulativa es que tales simetrías pueden ser relevantes en una teoría de la gravedad cuántica, ya que tienen la forma de las transformaciones que se han conjeturado que ocurren en presencia de agujeros negros.

«Nuestro trabajo demuestra que si creemos que la simetría del tiempo debe ser una característica de las leyes fundamentales de la física, tenemos que considerar la posibilidad de fenómenos más allá de lo concebible en teoría cuántica estándar. Que existan tales fenómenos y dónde podríamos buscarlos es una gran pregunta abierta», explica Oreshkov.

Referencia bibliográfica:

Ognyan Oreshkov, Nicolas J. Cerf: Operational formulation of time reversal in quantum theory. Nature Physics(2015). DOI: 10.1038/nphys3414.

http://www.tendencias21.net/Reformulan-la-teoria-cuantica-de-forma-simetrica-en-el-tiempo_a40928.html

Cuatro compuestos orgánicos del cometa 67P no habían aparecido nunca en otros cometas

La revista ‘Science’ publica siete artículos sobre los datos recogidos por el robot Philae de la sonda Rosetta en el 67P/Churyumov-Gerasimenko
El módulo de aterrizaje de la sonda espacial Rosetta, Philae, ha encontrado compuestos orgánicos en el cometa 67P/Churyumov-Gerasimenko considerados precursores de la vida, cuatro de ellos jamás encontrados en otro cometa. Los hallazgos salen publicados hoy en la revista ‘Science’ junto a otros sobre el cometa, también realizados gracias a los datos del robot. Por Marta Lorenzo.

Módulo de aterrizaje Philae de la misión Rosetta. Imagen: ESA. Fuente: CAB.
El módulo de aterrizaje de la sonda espacial Rosetta, Philae, ha encontrado “compuestos orgánicos en el cometa 67P/Churyumov-Gerasimenko, algunos considerados precursores de la vida”; cuatro de ellos nunca hallados en cometas, informa El Centro de Astrobiología (CAB, CSIC-INTA).

El descubrimiento ha sido realizado por un equipo científico liderado por Fred Goesmann (Instituto Max Planck de Alemania) y con participación del español Guillermo Muñoz Caro.  Se publica esta semana en Science, junto a otros seis trabajos sobre los datos recogidos por Philae.

En noviembre, este módulo descendió desde la sonda Rosetta hasta el cometa 67P para recoger y registrar de él todo lo posible. Fue un momento histórico, pues era la primera vez que el ser humano intentaba un descenso controlado a un cometa. En total, Philae ha descubierto 16 compuestos orgánicos.

Hallazgos realizados

Según se explica en la web del CAB, los cometas conservan el material más prístino de nuestro Sistema Solar en forma de hielo, silicatos y materia orgánica sólida que seguramente se formó en el espacio interestelar, incluso antes de que apareciese la nebulosa solar que, con el tiempo, se transformaría en el actual Sistema Solar.

Este material «primigenio» es interesante desde varios puntos de vista. Desde el geológico, porque aporta  claves sobre la formación del Sistema Solar. Desde el punto de vista de la habitabilidad, porque puede ayudar a entender el origen del agua en la Tierra y en otros planetas como Marte. Desde el punto de vista astrobiológico (la astrobiología estudia la vida en el conjunto del Universo), porque puede ayudar a comprender el origen de la vida en la Tierra.

Por tanto, los cometas serían algo así como un “archivo” de materiales, que aporta información sobre diversos aspectos de la historia del Sistema Solar. En el caso del cometa 67P/Churyumov-Gerasimenko, y en lo que a los compuestos orgánicos encontrados en él se refiere, los hallazgos han sido los siguientes:

– Muchos de los compuestos orgánicos descubiertos ya habían sido hallados en cometas, salvo cuatro: isocianato de metilo, acetona, propanal y acetamida.

– Muchas de las especies encontradas contienen nitrógeno, pero no hay evidencias de azufre.

– Sorprendentemente, no se han encontrado las cantidades de amoníaco o dióxido de carbono que suelen formar parte del hielo cometario. Esto probablemente se deba a que las moléculas más volátiles no permanecieron en el detector el tiempo suficiente para ser medidas.

– Algunos de los productos hallados en el polvo cometario se consideran precursores de la vida, ya que intervienen en la formación de aminoácidos esenciales o de bases nucleicas. Este hallazgo y, en general, la complejidad de la química existente en los núcleos cometarios, sugiere que los procesos químicos que se dieron en sistema solar temprano favorecieron la formación de materiales prebióticos en concentraciones notables.

¿Panspermia o caldo primigenio?

Los compuestos orgánicos son aquellos compuestos químicos que contienen carbono. En realidad, son denominados “orgánicos” (etimología procedente de la palabra órgano) por la antigua creencia de que sólo podían ser sintetizados por organismos vivos, una creencia posteriormente refutada ; pero el nombre se les quedó.

A pesar de esto, sí es cierto que los compuestos orgánicos constituyen moléculas básicas para la actividad biológica. Por eso, la Astrobiología da tanta importancia a su hallazgo en otros lugares del cosmos.

Hasta ahora, se ha logrado constatar que estos compuestos existen en lugares como Marte e incluso en planetas externos a nuestro Sistema Solar, lo que, junto con otros datos, ha llevado a creer a astrobiólogos como Josep María Trigo, del Instituto de Ciencias del Espacio (ICE, CSIC-IEEC),  que la vida podría no ser patrimonio único de la Tierra (teoría de la panspermia).

Sin embargo, aún está todo por demostrar, pues otra teoría señala que los ladrillos químicos necesarios para la vida (modelo de caldo primigenio) fueron de origen terrestre.  Este modelo fue demostrado por el científico estadounidense Stanley Miller  en 1953 y en laboratorio: Miller introdujo agua, metano, amoníaco en un recipiente de vidrio y simuló las condiciones de la Tierra primitiva. Después, una cromatografía en papel mostró que se habían formado varios aminoácidos y otras moléculas orgánicas.

Otros resultados de Philae

Como se ha dicho, además del estudio en el que ha participado Guillermo Muñoz Caro y que se publica hoy enScience, otros seis trabajos aparecen en este mismo número de la revista, todos referentes a los datos recogidos por Philae.

Según publica al respecto la agencia Sinc,  estos trabajos han registrado la presencia de un polímero inducido por radiación en la superficie del cometa y han confirmado la ausencia de compuestos aromáticos, como el benceno.

También han determinado otras características cometarias, que van más allá de la composición química del 67P/Churyumov-Gerasimenko, como que el cometa  está modelado por la erosión, que tiene una superficie muy fracturada (con granos de diversos tamaños y estructuras rocosas brillantes) y que la temperatura en dicha superficie varía durante el día entre 90 y 130 Kelvin (-183 y -143ºC).

Según los autores, el conjunto de datos recopilados por Philae “nos acercan más que nunca a la comprensión de la naturaleza de los cometas”.

Referencias bibliográficas:

F. Goesmann, Guillermo Muñoz Caro, et al. Organic compounds on comet 67P/Churyumov-Gerasimenko revealed by COSAC mass spectrometry. Science (2015). DOI: 10.1126/science.aab0689.

Jens Biele, et al. The landing(s) of Philae and inferences about comet surface mechanical properties. Science (2015). DOI: 10.1126/science.aaa9816.

W. Kofman et al. Properties of the 67P/Churyumov-Gerasimenko interior revealed by CONSERT radar. Science (2015). DOI: 10.1126/science.aab0639.

I.P. Wright et al. CHO-bearing organic compounds at the surface of 67P/Churyumov-Gerasimenko revealed by Ptolemy. Science (2015). DOI: 10.1126/science.aab0673.

J.-P. Bibring et al. 67P/Churyumov-Gerasimenko surface properties as derived from CIVA panoramic images. Science(2015). DOI: 10.1126/science.aab0673.

S. Mottola et al. The structure of the regolith on 67P/Churyumov-Gerasimenko from ROLIS descent imaging. Science(2015). DOI: 10.1126/science.aab0232.

T. Spohn et al. Thermal and mechanical properties of the near-surface layers of comet 67P/Churyumov-Gerasimenko.Science (2015). DOI: 10.1126/science.aab0464.

http://www.tendencias21.net/Cuatro-compuestos-organicos-del-cometa-67P-no-habian-aparecido-nunca-en-otros-cometas_a40926.html

Aida. Recomendación

  La cuántica y sus razones               Fandila Soria Martínez

Si os gusta la Fisica, os recomiendo la lectura de esta colaboración del Contertulio y amigo Fandila. Es de lectura amena y sencilla y nos transporta a lugares mágicos, donde podemos contemplar maravillas de la Naturaleza relacionadas con esos pequeños objetos que llamamos partículas elementales (algunas más elementales que otras), él nos explica con gran maestría lo que en ese infinitesimal “universo” ocurre y, desde luego, te aseguro que, cuando finalices la lectura, serás un poquito más sabio... ¡A mí me ha pasado! y, podrás entrar en ese mágico universo de la física cuántica.

Pincha encima de “La cuántica y sus razones”, arriba, encima del nombre del autor, y, te verás transportado a ese lugar.

« Colaboraciones »

Fuente: emilio silvera el 31 de julio del 2015

Aida. El latido, versión Corey & Dr Michael Salla.

559246_385717278221509_1989710858_n

 

En la quinta entrega de la serie de Revelación Cósmica de Gaiam tv, el denunciantes Corey Goode revela cómo los programas secretos del espacio donde trabajó entre 1987-2007 se habían dado cuenta de regiones de la galaxia con “superondas” que con el tiempo se enfrentaban a nuestro sistema solar. Se descubrió que los superondas se componen de nubes de partículas de energía que vibran impactando al sol, la tierra y la humanidad en formas que conducen a profundos cambios. La Propia conciencia humana se vería afectada directamente y llevaría bien a nuestra rápida evolución hacia una sociedad global avanzada, o una autodestrucción global como al parecer había sucedido en el pasado.

Goode dice que en la década de 1980 esferas gigantes comenzaron a aparecer en nuestro sistema solar y que tenían interés en el fenómeno de las superondas. Estas esferas se mantuvieron en un modo de observación hasta 2011 cuando entraron en funcionamiento. Las esferas variaron en tamaño su diámetro, equivalente al de la Luna y de Júpiter. Ellas fueron colocadas estratégicamente para actuar como “amortiguadores de resonancia” de superondas galácticas por lo que el sol, y la humanidad, no se verían abrumados conforme nuestro sistema solar entró progresivamente en la región afectada de la galaxia.

La revelación de Goode sobre las superondas galácticas que fueron secretamente descubiertas y estudiadas es una impresionante confirmación para el trabajo de astrofísico Dr. Paul LaViolette que ha predicho que estas superondas galácticas impactan nuestro sistema solar. En su libro de 2006 “Descifrando el mensaje de los púlsares” el Dr. LaViolette describe pulsares estratégicamente colocados en la galaxia transmitiendo advertencias sobre estas superondas que se generan fuera del núcleo galáctico en ciclos que van desde los 10.000 a los 16.000 años.

Esto sugiere que muy pronto estaremos experimentando la fuerza de estas superondas que sacarán lo mejor o lo peor de la humanidad entera, dependiendo de qué tan bien preparados estamos. Este episodio le ayudará al espectador a apreciar la importancia de tomar medidas firmes para prepararse para los eventos relacionados con las “superondas” que los programas espaciales secretos mismos se han preparado en silencio a lo largo de varias décadas.

http://exopolitics.org/secret-space-programs-monitor-galactic-superwaves-study-law-of-one/

Oroborus A.

Por qué a los 7 años de edad la mitad de tu experiencia de vida podría ya haber terminado

time

You are young and life is long and there is time to kill today..

And then one day you find ten years have got behind you…

Every year is getting shorter; never seem to find the time.

Pink Floyd, “Time”, The Dark Side of the Moon

Sabemos por la teoría de Einstein que el tiempo es relativo y se experimenta en función de la velocidad a la que nos movamos por el espacio. Viajar a la velocidad de la luz (que es absoluta en la teoría de Einstein) es lo más parecido a una forma de eternidad. Existe la famosa paradoja de unos hermanos gemelos: uno viaja a una velocidad cercana a la luz y regresa a su planeta para encontrarse a su hermano, pero difícilmente se reconocen, uno se mantiene joven, el otro tiene canas y se encuentra cerca de la muerte.

La relatividad del tiempo tiene otro factor más difícil de incluir en una ecuación, la percepción. Podríamos decir también que nuestra experiencia del tiempo es relativa a nuestra percepción. Existe la popular creencia de que al envejecer el tiempo pasa más rápido y que algunos momentos duran más que otros en función al aspecto cualitativo de nuestra percepción. Así por ejemplo, las experiencias místicas suelen describir instantes que de alguna manera penetran las bóvedas del cielo y del tiempo y acceden a una cantidad de información que sería imposible de asimilar en un modo de percepción ordinario. Ejemplos de esto pueden encontrarse entre las experiencias cercanas a la muerte, en algunas experiencias con drogas psicodélicas o en la literatura de ciencia ficción o fantasía (un buen ejemplo de esto es “El Aleph” de Borges, en el que si bien la percepción es de la superposición de todos los espacios en un único punto, ocurre también una asimultaneidad de momentos, recuerdos imposibles de enlistar en una sucesión temporal: el tiempo y el espacio son un continuum interdependiente). Más allá de que estas experiencias de eternidad sean solamente alucinaciones psicoquímicas o en realidad sean clarividencias, lo cierto es que la forma en la que experimentamos el tiempo varía según el estado mental en el que nos encontremos. Una intrigante forma de entender esto es pensar en cómo percibíamos el mundo cuando éramos niños.

Para explicar este efecto “psicocronométrico”, se suele citar la hipótesis de Paul Janet, que a la temprana edad de 21 años postuló la idea de que nuestra percepción del tiempo es logarítmica y no lineal como lo contamos. Percibimos los momentos comparándolos en proporción al tiempo que hemos vivido: cada período de tiempo es proporcional al tiempo que hemos vivido. Por ejemplo cuando tienes 2 años de edad 1 año es el 50% del total de tu vida; cuando tienes 4 años 1 año es el 25% del total de tu vida; cuando tienes 2 años 1 año es el 12.5% de tu vida; cuando tienes 16 1 año es el 12.5% de tu vida; cuando tienes 32 1 año es el 3.03% de tu vida y así cada año es un menor porcentaje de tu vida lo cual, según la teoría de Janet, también determina la cantidad de experiencia, el tiempo cualitativo que se percibe durante ese año.

El artista Maximilan Kiener ha realizado una visualización de esta paradoja de la percepción temporal, en la que sugiere que si nos basamos en el valor de tiempo percibido logarítmico y no en tiempo lineal, la mitad de la vida percibida de la persona promedio ya se ha acabado a los 7 años, con la peculiaridad de que no solemos recordar la mayoría de lo que ocurre en nuestros primeros 3 años, los cuales bajo esta lógica son equivalentes a más de 30 años de tiempo percibido. Si fuéramos a descontar esta variable de los primeros años –ya que no son experiencias que podamos recordar– entonces  la mitad de nuestra vida percibida acabaría a los 18 años.

Screen shot 2015-07-27 at 11.28.06 AM

La hipótesis del tiempo logarítmico de Janet supone que nuestra mente de manera innata percibe porcentajes y no las cantidades absolutas. Es por esto que para una persona de 20 años 2 años serían exactamente iguales que 1 año para un niño de 10 años. La hipótesis de Janet es consistente con la la ley de Weber-Fechner que sostiene que nuestra capacidad de percibir un cambio se basa en “el valor relativo de la variación” con respecto al valor original. Por ejemplo, si estamos cargando una masa de 100gr tal vez no sintamos una diferencia si se añaden 5gr más pero sí cuando se añaden 10gr más. Cuando sostenemos una masa de 1000gr no sentiremos cuando se añaden esos 10gr, tal vez necesitemos que se añadan 100gr más para sentir la diferencia. Todos esos intervalos que a nivel perceptual podemos considerar como estímulos –que pueden traducirse, a su vez, en experiencias– se van perdiendo en la medida que tenemos más tiempo o peso (el peso del pasado) sobre nosotros, lo cual nos impide distinguir la minuciosa riqueza de los momentos.

Sobre la hipótesis de Jenet, que data de la última década del siglo XIX, el psicólogo William James hace las siguientes apreciaciones:

Esta fórmula expresa grosso modo el fenómeno, es verdad, pero no puede considerarse una ley psíquica elemental; y es cierto que, en buena medida, la predisminución de los años al envejecer se debe a la monotonía del contenido de la memoria, y a la consecuente simplificación de la mirada retrospectiva. En la juventud podemos tener una experiencia absolutamente nueva, subjetiva u objetivamente, cada hora del día. La aprehensión es vívida, la retención es fuerte, y nuestra recolección de ese tiempo, como ocurre cuando pasamos el tiempo en viajes rápidos e interesantes, es de algo intrincado, multitudinario y de gran amplitud. Y mientras cada año convierte muchas de estas experiencia en una rutina automática, que apenas notamos, los días y las semanas se uniforman en recuerdos de unidades sin contenido y los años se ahuecan y colapsan.

Podemos pensar con James, entonces, que si bien el tiempo pasa más rápido con la edad esto no es inexorable sino que es un efecto de la habituación y de un opacamiento de nuestra percepción, hasta cierto punto natural, ya que sería prácticamente imposible estar recibiendo estímulos completamente nuevos cada día –incluso nuestra energía difícilmente podría aguantar esto ya que también exhibe un declive con la edad. Existe, sin embargo, una forma de combatir el gradual deterioro de nuestra captación de tiempo (y procesamiento de experiencias). Habría que procurar, de manera sostenible, una importante cantidad de estímulos novedosos (los cuales a su vez generan neurogénesis) y limpiar, por así decirlo, nuestra mirada, borrar de la pizarra con la que aprehendemos la realidad para poder acceder a un mayor “ancho de banda” o, mejor dicho,  para entrar en contacto con las cosas en sí mismas, con lo que René Guénon distingue como el reino cualitativo de las esencias y no de las meras cantidades. Una percepción menos mecánica del mundo, más abierta al cariz, a la particularidad, a la amplitud y a la expresión plena del instante, que, nos han dicho todos los místicos, contiene en su transparencia la eternidad, es una imagen o un holograma de todos los tiempos.

Podemos tal vez detener el tiempo, dilatarnos y no contraernos. Esto es, probablemente como casi todo en la vida, una cuestión de percepción. El lector estará de acuerdo en que es deseable buscar una mayor calidad de experiencias más que una mayor cantidad de experiencias. Aunque el aspecto cualitativo de una experiencia está de alguna manera relacionado con la cantidad de información que podamos asimilar de la misma. Esto es, el nivel de detalle, de definición, la riqueza de matices y relieves que podamos absorber de una escena o evento. Esta agudeza perceptiva no sólo se traduce en una mayor cantidad de pixeles, por así decirlo, a su vez abre una dimensión cualitativa: percibimos los anillos de los ojos de una persona, los filamentos que reflejan una luz azul grisácea, las comisuras de sus labios que se expanden… y sentimos nuestro latido con mayor fuerza, observamos que su expresión es un gesto que nos remite a otro gesto en otro momento, contiguo, por así decirlo, en el teatro de la memoria y accedemos a una serie de conexiones y correspondencias entre lo que observamos, una madeja que es también de significados, puesto que creemos entender que este mismo gesto es de alguna manera esencial el mismo que otro gesto, que otro momento, que sentimos y que se inscribe en nosotros con una profunda nitidez, antiguo y nuevo, emanando de una fuente de la cual podemos beber siempre. La información se convierte en conciencia emotiva, las cosas, en su multiplicidad, se integran dentro de un todo coherente.

Samuel Beckett escribió que “la creación del mundo no sucedió de una vez y para siempre, sino que sucede todos los días”. El egiptólogo y alquimista, R. A. Schwaller de Lubicz construyó todo un sistema filosófico alrededor de la percepción de esto que podemos llamar el instante cosmogénico del cual son eco todos los instantes. “El tiempo es génesis”, dice De Lubicz, porque todo está “en proceso de generación hacia su fin”, por lo que nos exhorta a percibir en la realidad inmediata de la semilla, el fruto, en el capullo, la flor. Bajo esta óptica cada objeto tiene en sí mismo ya la virtualidad de todos los momentos y una percepción completa, liberada de la fragmentación temporal, debería de ser capaz de percibir la totalidad de la existencia de cada cosa en una percepción singular. De Lubicz sugiere que este es el verdadero significado de la alquimia, cuyos antiguos adeptos solían decir que la materia prima de la piedra filosofal estaba en todas las cosas y en todos los fenómenos estaba su magna operación. La evolución del individuo, en la filosofía de De Lubicz, ocurre justamente a través de este tipo de percepción, capaz de inscribir profundamente en el organismo las experiencias más allá del procesamiento del cerebro racional y de lo factual; un aspecto cualitativo que es el tiempo como génesis: el génesis revelándose todo el tiempo. La creación: siempre nueva; el origen: presencia perpetua.

Twitter del autor: @alepholo

http://pijamasurf.com/2015/07/por-que-a-los-7-anos-de-edad-la-mitad-de-tu-experiencia-de-vida-podria-ya-haber-terminado/

El Gran Colisionador de Hadrones presenta en Viena los resultados de sus experimentos

Los hallazgos se muestran en la Conferencia de Física de Altas Energías de la Sociedad Europea de Física
Viena se ha convertido, del 22 al 29 de julio, en la sede de la Conferencia de Física de Altas Energías organizada por la Sociedad Europea de Física. La convención es testigo de los últimos hallazgos en este campo; entre ellos, los resultados de los experimentos realizados en el Gran Colisionador de Hadrones de Ginebra, en su primera y segunda fase. Por Jorge Lázaro.

Detector de partículas CMS en el Gran Colisionador de Hadrones. Fuente: CMS/CERN
El Gran Colisionador de Hadrones vuelve a ser noticia en las páginas de la Física. Hace apenas dos meses se reanudaron los experimentos, tras dos años de descanso, en una segunda fase conocida como “Run 2”.

Y ahora, con los primeros datos todavía en ebullición, los investigadores de Ginebra han acudido a Viena para presentar sus resultados en el marco de la Conferencia de Física de Altas Energías que organiza la Sociedad Europea de Física (EPS-HEP2015).

“Aún es pronto para esperar algún descubrimiento, hemos de ser pacientes”, advierte Rolf Heuer, director general del CERN. Sin embargo, a pesar del poco tiempo transcurrido, ya se pueden apreciar los avances: en estos dos meses se han reunido 100 veces más datos que tras dos meses de experimentos a 7 TeV en 2010.

Una energía récord

Ese aumento en la recopilación de datos se explica, en buena medida, por el aumento en la energía utilizada en los experimentos. En 2010 el GCH funcionaba con dos haces, cada uno a 3.5 TeV (teraelectronvoltios, la unidad de energía más elevada con que trabajan los aceleradores de partículas); tras su cierre en 2013, se iniciaron trabajos de mejora que han permitido que en la fase Run 2 el acelerador funcione a 14 TeV.

El funcionamiento del GCH ha ido optimizando sus capacidades, de manera progresiva, a lo largo de esta fase. Poco a poco se ha avanzado hasta alcanzar un rendimiento de alta energía con cada rayo conteniendo 476 manojos de cien mil millones de protones que colisionan cada 50 nanosegundos. La intensidad se espera que crezca hasta las colisiones cada 25 nanosegundos en los próximos días, y hasta los 2000 manojos de protones por haz tras una parada técnica en septiembre.

Toda esta fase es, podríamos decir, de “aprendizaje”. Frédérick Bordry, director de Aceleradores y Tecnología del CERN, opina que ahora tienen que “aprender de manera progresiva a almacenar y manejar la energía de los haces”, siendo el objetivo comenzar con la explotación de esta a partir de 2016.

Resultados de enorme importancia

Aunque la presentación con más visibilidad en la conferencia EPS-HEP2015 ha sido la de los datos obtenidos en el Run 2, y las nuevas características de funcionamiento del acelerador, todavía no se han obtenido grandes resultados en este aspecto. La nueva fase ha permitido “redescubrir” todas las partículas elementales  (incluyendo el caso concreto del bosón de Higgs), así como hacer mediciones con 13 TeV de producción de hadrones ; el objetivo –encontrar indicios de un nuevo tipo de física diferente de la del Modelo Estándar de física de partículas que se está poniendo a prueba- aún es solo una esperanza.

Hay, con todo, resultados confirmados que se han presentado en la conferencia, y que corresponden a la primera fase de funcionamiento del acelerador, antes de su “descanso” de dos años: entre ellos, resultados ya definitivos o inéditos en los experimentos sobre materia oscura, supersimetría y partículas exóticas.

Entre estos descubrimientos, dos han sido especialmente destacables: por una parte, las referidas al comportamiento de los protones cuando colisionan, que apunta a ser muy similar tanto a 13 TeV como lo era a 7 TeV; por otra parte, el descubrimiento de una nueva clase de partículas, los pentaquarks, y la confirmación de que un deterioro en el quark fondo relacionado con la fuerza débil.

En los próximos meses, el GCH continuará probando nuevas combinaciones energéticas para aumentar el rendimiento y recopilar nuevos datos. “Los físicos están observando datos completamente nuevos con una energía nunca explorada antes”, afirma Rolf Heuer, que concluye con optimismo: “podemos ver que hay un fantástico espíritu pionero aquí”.

http://www.tendencias21.net/El-Gran-Colisionador-de-Hadrones-presenta-en-Viena-los-resultados-de-sus-experimentos_a40908.html

Teoría insólita: Los viajes en el tiempo crearían dobles que se destruirían entre sí

Imagine un futuro en el que se pueda viajar en el tiempo para, por ejemplo, conocer a sus antepasados. Según la impactante teoría de un físico teórico estadounidense, si fuera posible viajar más rápido que la velocidad de la luz, se producirían extraños y graves efectos secundarios.

El acto de viajar en el tiempo crearía varias versiones de uno mismo; una de ellas cargada de masa positiva y otra de masa negativa, sostiene el físico teórico Robert Nemiroff, de la Universidad Tecnológica de Michigan, que ha elaborado ecuaciones matemáticas para demostrar como funcionaría este proceso según las premisas científicas vigentes en la actualidad, informa LiveScience. Según Nemiroff, los dobles de uno mismo estarían destinados a encontrarse en algún momento, autodestruyéndose mutuamente.

Para ilustrar las implicaciones de este viaje relativista en el tiempo, Nemiroff expone un caso sencillo. En su experimento teórico, una nave espacial sería lanzada desde una plataforma de la Tierra y viajaría a una velocidad cinco veces superior a la velocidad de la luz hasta un planeta situado a unos 10 años luz de distancia, para luego dar media vuelta y regresar a un lugar cercano a la pista de despegue.

En ese momento, explica Nemiroff, un par de «naves fantasmas», una cargada de masa positiva y otra con masa negativa, «saldrían del aire».

Cuanto más se acerca uno va a la velocidad de la luz y más largo es el viaje, más allá en el futuro se puede ir

Cinco años después del embarque, se produciría una aparición un tanto extraña: dado que la luz de la nave espacial viaja más despacio que la nave espacial en sí, cuando la nave regresara y aterrizara en la pista, los terrícolas verían imágenes de la nave en su salida y otra nave espacial de aspecto similar en su camino de regreso.

Ocho años más tarde, se registrarían sucesos aún más extraños: una imagen de la nave aterrizando en la pista sería todavía visible, al igual que dos imágenes (tal vez hologramas) de la nave espacial en su viaje de ida y de vuelta. Esta vez las imágenes parecerían mucho más lejanas. Finalmente, al cabo de poco más de 10 años, los pares de las naves espaciales fantasmas se aniquilarían entre sí.

«Cuanto más se acerca uno va a la velocidad de la luz y más largo es el viaje, más allá en el futuro se puede ir», explica el físico teórico.

http://actualidad.rt.com/actualidad/181593-teoria-viajes-tiempo-dobles-autodestruir

Resuelto el enigma de la sincronización de los relojes de péndulo contiguos

Resuelto-el-enigma-de-la-sincronizacion-de-los-relojes-de-pendulo-contiguos-3.jpg

Corría el año 1665 cuando el físico Christiaan Huygens hizo un descubrimiento perturbador. Los dos relojes de péndulo que tenía en una de las paredes de su sala habían sincronizado sus oscilaciones y así se mantenían, ¿por qué? Misterio, al parecer aclarado ahora, ¡tres siglos y medio después!

Christiaan Huygens, un inventor sorprendido por su invento

Resuelto-el-enigma-de-la-sincronizacion-de-los-relojes-de-pendulo-contiguos-1.jpg

El holandés Christiaan Huygens ha sido uno de los científicos más brillantes de la historia. Descubrió los anillos de Saturno y al mayor satélite de este planeta, al que llamó Titán, único satélite del Sistema Solar que tiene su propia atmósfera. Otra de sus contribuciones en astronomía fue el descubrimiento de la nebulosa de Orión. Huygens también descubrió lapolarización de la luz y desarrolló la teoría ondulatoria de la luz.

Pero es en su faceta de físico aplicado a la medición del tiempo y a la relojería en la que estamos más interesados ahora. Huygens fue el primero en postular que existe una relación entre la longitud de un péndulo y su periodo de oscilación, e inventó el reloj de péndulo. También fue el creador del resorte en espiral, que le permitió hacer el primer reloj de bolsillo.

En cuanto a sus relojes que parecían haberse puesto de acuerdo, Huygens lo atribuyó a una especie de «comunicación» entre los aparatos, que se le escapaba. Por cierto que existe una curiosa leyenda sobre el primer reloj de péndulo que construyó. Se lo regaló a Luis XIV, rey de Francia, y se cuenta que el aparato se detuvo a las 7:45 AM del 1 de septiembre de 1715, momento en que el llamado Rey Sol emitió su último suspiro.

Aquí te dejamos un interesante video de como ajustar un reloj de pared con péndulo:

Las incompletas explicaciones de la ciencia

Resuelto-el-enigma-de-la-sincronizacion-de-los-relojes-de-pendulo-contiguos-2.jpg

Hasta ahora, la ciencia había resuelto el enigma de la sincronización de los relojes de péndulosituados en la misma pared, a través de la teoría de las oscilaciones acopladas que se observan en la vida. A la naturaleza parece que le gusta andar ajustada y no dando traspiés.

Esto es observable en los latidos del corazón, que emiten electrocardiogramas perfectamente cíclicos en personas con una salud cardíaca normal. Igual ocurre con las ondas cerebrales. Incluso, cuando aplaudimos a nuestro cantante favorito en un concierto en vivo, nos comportaríamos como osciladores sincronizados.

Pareciera que nos ponemos de acuerdo para intensificar los aplausos en determinado momento y luego disminuirlos, pero no haríamos más que comportarnos como osciladores que se acoplan con los demás fanáticvos presentes.

Resuelto el enigma

Resuelto-el-enigma-de-la-sincronizacion-de-los-relojes-de-pendulo-contiguos.jpg

Dos matemáticos de la Universidad de Lisboa, Enrique Oliveira y Luís Melo, parece que resolvieron el enigma, reporta Scientific Reports. Los modelos matemáticos desarrollados por estos científicos indican que entre los dos relojes se van produciendo microtransferencias de energía y se van perturbando el uno al otro hasta que logran acompasarse en un armónico baile.

¡El lúcido Christiaan Huygens ya lo sospechaba hace 350 años! ¿Qué te parece?

http://curiosidades.batanga.com/9135/resuelto-el-enigma-de-la-sincronizacion-de-los-relojes-de-pendulo-contiguos

Aida. Hoy un sueño ¿Realidad mañana?

Llegará un día en el que, podremos entrar en un inmenso espacio, una enorme habitación, en la que, previa elección de la  programación adecuada, todo se transformará en un “mundo ficticio”, un holograma que, lo mismo podrá ser una playa luminosa con arena dorada por el Sol que, una Selva tropical o un desierto, dependiendo de los gustos del usuario.

Si repasamos la historia de la ciencia, seguramente encontraremos muchos motivos para el optimismo. Witten (el Físico de la Teoría M),  está convencido de que la ciencia será algún día capaz de sondear hasta las energías de Planck. Como ya he referido en otras ocasiones, él dijo:

“No siempre es tan fácil decir cuáles son las preguntas fáciles y cuáles las difíciles. En el siglo XIX, la pregunta de por qué el agua hierve a 100 grados era desesperadamente inaccesible. Si usted hubiera dicho a un físico del siglo XIX que hacia el siglo XX sería capaz de calcularlo, le habría parecido un cuento de hadas… La teoría cuántica de campos es tan difícil que nadie la creyó completamente durante 25 años.”

 

 

 

 

En su opinión, las buenas ideas siempre se verifican. Los ejemplos son innumerables: la gravedad de Newton, el campo eléctrico de Faraday y el electromagnetismo de Maxwell, la teoría de larelatividad de Einstein en sus dos versiones y su demostración del efecto fotoeléctrico, la teoría delelectrón de Paul Dirac, el principio de incertidumbre de Heisenberg, la función de ondas de Schrödinger, y tantos otros. Algunos de los físicos teóricos más famosos, sin embargo, protestaban de tanto empeño en la experimentación. El astrónomo arthur Eddington se cuestionaba incluso si los científicos no estaban forzando las cosas cuando insistían en que todo debería ser verificado. ¡Cómo cambia todo con el Tiempo! Hasta la manera de pensar.

Sin embargo, muchos son los ejemplos de un ingenio superior que nos llevaron a desvelar secretos de la Naturaleza que estaban profundamente escondidos, y, el trabajo de Dirac en relación al electrón, es una buena muestra de ese ingenio humano que, de vez en cuando vemos florecer.

Ya que la ecuación de Dirac fue originalmente formulada para describir el electrón, las referencias se harán respecto a “electrones”, aunque actualmente la ecuación se aplica a otros tipos de partículas elementales de espín ½, como los quarks. Una ecuación modificada de Dirac puede emplearse para describir de forma aproximada los protones y los neutrones, formados ambos por partículas más pequeñas llamadas quarks (por este hecho, a protones y neutrones no se les da la consideración de partículas elementales).

La ecuación de Dirac presenta la siguiente forma:

 left(alpha_0 mc^2 + sum_{j = 1}^3 alpha_j p_j , cright) <a href=

Siendo m la masa en reposo del electrón, c la velocidad de la luz,  p el operador de momento, hbar la constante reducida de Planck,  x y t las coordenadas del espacio y el tiempo,  respectivamente; y ψ (x, t) una función de onda de cuatro componentes. La función de onda ha de ser formulada como un espinor (objeto matemático similar a un vectorque cambia de signo con una rotación de 2π descubierto por Pauli y Dirac) de cuatro componentes, y no como un simple escalar,  debido a los requerimientos de la relatividad especial. Los α son operadores lineales que gobiernan la función de onda, escritos como una matriz y son matrices de 4×4 conocidas comomatrices de Dirac.

El premio Nobel Paul dirac incluso llegó a decir de forma más categórica: “Es más importante tener belleza en las ecuaciones que tener experimentos que se ajusten a ellas“, o en palabras del físico John Ellis del CERN, “Como decía en una envoltura de caramelos que abrí hace algunos años, «Es sólo el optimista el que consigue algo en este mundo».

Yo, como todos ustedes, un hombre normal y corriente de la calle, escucho a unos y a otros, después pienso en lo que dicen y en los argumentos y motivaciones que les han llevado a sus respectivos convencimientos, y finalmente, también decido según mis propios criterios mi opinión, que no obligatoriamente coincidirá con alguna de esas opiniones, y que en algún caso, hasta me permito emitirla.

¿No es curioso que, cuando se formula la moderna Teoría M, surjan, como por encanto, las ecuaciones de Einstein de la Relatividad General? Nadie las llama y, sin embargo, allí aparecen para decirnos que, la Teoría de cuerdas es un buen camino a seguir, ya que, si en ella subyacen las ecuaciones de Einstein de la relatividad General… ¡No debe ser por casualidad!

Suponiendo que algún físico brillante nos resuelva la teoría de campos de cuerdas y derive las propiedades conocidas de nuestro universo, con un poco de suerte, podría ocurrir en este mismo siglo, lo que no estaría nada mal considerando las dificultades de la empresa. El problema fundamental es que estamos obligando a la teoría de supercuerdas a responder preguntas sobre energías cotidianas, cuando “ámbito natural” está en la energía de Planck. Esta fabulosa energía fue liberada sólo en el propio instante de la creación, lo que quiere decir que la teoría de supercuerdas es naturalmente una teoría de la creación.

Las primeras observaciones realizadas por Planck | ESA y Axel Mellinger.

    Las primeras observaciones realizadas por Planck | ESA y Axel Mellinger.

Fuimos capaces de predecir que el Big Bang produjo un “eco” cósmico reverberando en el universo y que podría ser mesurable por los instrumentos adecuados. De hecho, Arno Penzias y Robert Wilson de los Bell Telephone Laboratories ganaron el premio Nobel en 1.978 por detectar este eco del Big Bang, una radiación de microondas que impregna el universo conocido. El que el eco delBig Bang debería estar circulando por el universo miles de millones de años después del suceso fue predicho por primera vez por George Gamow y sus discípulos Ralpher y Robert Herman, pero nadie les tomó en serio. La propia idea de medir el eco de la creación parecía extravagante cuando la propusieron por primera vez poco después de la segunda guerra mundial. Su lógica, sin embargo, era aplastante.

la estufa básica es la resistencia por hilo enrollado Nicrom. Ésta se llega a poner al rojo vivo, por lo que emite también algo de calor por radiación.

Cualquier objeto, cuando se calienta, emite radiación de forma gradual. Ésta es la razón de que el hierro se ponga al rojo vivo cuando se calienta en un horno, y cuanto más se calienta, mayor es la frecuencia de radiación que emite. Una fórmula matemática exacta, la ley de Stefan-Boltzmann, relaciona la frecuencia de la luz (o el color en este caso) con la temperatura. De hecho, así es como los científicos determinan la temperatura de la superficie de una estrella lejana; examinando su color. Esta radiación se denomina radiación de cuerpo negro.

Esta radiación, cómo no, ha sido aprovechada por los ejércitos, que mediante visores nocturnos pueden operar en la oscuridad. De noche, los objetos relativamente calientes, tales como soldados enemigos o los carros de combate, pueden estar ocultos en la oscuridad, pero continúan emitiendo radiación de cuerpo negro invisible en forma de radiación infrarroja, que puede ser captada por gafas especiales de infrarrojo. Ésta es también la razón de que nuestros automóviles cerrados se calientes en verano, ya que la luz del Sol atraviesa los cristales del coche y calienta el interior. A medida que se calienta, empieza a emitir radiación de cuerpo negro en forma de radiación infrarroja. Sin embargo, esta clase de radiación no atraviesa muy bien el vidrio, y por lo tanto queda atrapada en el interior del automóvil, incrementando espectacularmente la temperatura.

Análogamente, la radiación de cuerpo negro produce el efecto invernadero. Al igual que el vidrio, los altos niveles de dióxido de carbono en la atmósfera, causados por la combustión sin control de combustibles fósiles, pueden atrapar la radiación de cuerpo negro infrarroja en la Tierra, y de este modo calentar gradualmente el planeta.

Gamow razonó que el Big Bang era inicialmente muy caliente, y que por lo tanto sería un cuerpo negro ideal emisor de radiación. Aunque la tecnología de los años cuarenta era demasiado primitiva para captar esta débil señal de la creación, Gamow pudo calcular la temperatura de dicha radiación y predecir con fiabilidad que un día nuestros instrumentos serían lo suficientemente sensibles como para detectar esta radiación “fósil”.

Ya la lista de ingenios es larga. Todos quieren medir la radiación del fondo de microondas generadas por el Big Bang. Incluso hemos preparado telescopios especiales para que nos puedan captar las ondas gravitatorias surgidas en aquellos primeros momento de la inflación.

La lógica que había detrás de su razonamiento era la siguiente: alrededor de 300.000 años después del Big Bang, el universo se enfrió hasta el punto en el que los átomos pudieron empezar a componerse; los electrones pudieron empezar a rodear a los protones y neutrones formando átomos estables, que ya no serían destruidos por la intensa radiación que estaba impregnando todo el universo. Antes de este momento, el universo estaba tan caliente que los átomos eran inmediatamente descompuestos por esa radiación tan potente en el mismo acto de su formación. Esto significa que el universo era opaco, como una niebla espesa absorbente e impenetrable.

Pasados 300.000 años, la radiación no era tan potente; se había enfriado y por lo tanto la luz podía atravesar grades distancias sin ser dispersada. En otras palabras, el universo se hizo repentinamente negro y transparente.

Terminaré esta parte comentando que un auténtico cuerpo negro es un concepto imaginario; un pequeño agujero en la pared de un recinto a temperatura uniforme es la mejor aproximación que se puede tener de él en la práctica.

La radiación de cuerpo negro es la radiación electromagnética emitida por un cuerpo negro. Se extiende sobre todo el rango de longitudes de onda y la disminución de energías sobre este rango tiene una forma característica con un máximo en una cierta longitud de onda, desplazándose a longitudes de onda más cortas al aumentar las temperaturas*.

Hablar, sin más especificaciones, de radiación, es estar refiriéndonos a una energía que viaja en forma de ondas electromagnéticas o fotones por el universo. También nos podríamos estar refiriendo a un chorro de partículas, especialmente partículas alfa o beta de una fuente radiactiva o neutrones de un reactor nuclear.

La radiación actínida es la electromagnética que es capaz de iniciar una reacción química. El término es usado especialmente para la radiación ultravioleta y también para denotar radiación que podría afectar a las emulsiones fotográficas.

Monografias.com

La radiación gamma es un tipo de radiación electromagnética producida generalmente por elementos radioactivos o procesos subatómicos como la aniquilación de un par positrón-electrón. Este tipo de radiación de tal magnitud también es producida en fenómenos astrofísicos de gran violencia.

La radiación gamma

Debido a las altas energías que poseen, los rayos gamma constituyen un tipo de radiación ionizante capaz de penetrar en la materia más profundamente que la radiación alfa o beta. Dada su alta energía pueden causar grave daño al núcleo de las células, por lo que son usados para esterilizar equipos médicos y añimentos.

La Radiación expone un amplio abanico dependiendo de la fuente:  blanda, radiación cósmica, radiación de calor, radiación de fondo, de fondo de microondas, radiación dura, electromagnética, radiación gamma, infrarroja, ionizante, monocromática, policromática, de sincrotón, ultravioleta, de la teoría cuántica, de radiactividad… y, como se puede ver, la radiación en sus diversas formas es un universo en sí misma.

Siempre me llamó la atención y se ganó mi admiración el físico alemán Max Planck (1.858 – 1.947), responsable entre otros muchos logros de la ley de radiación de Planck, que da la distribución de energía radiada por un cuerpo negro. Introdujo en física el concepto novedoso de que la energía es una cantidad que es radiada por un cuerpo en pequeños paquetes discretos, en vez de una emisión continua. Estos pequeños paquetes se conocieron como cuantos y la ley formulada es la base de la teoría cuántica.

Einstein se inspiró en este trabajo para a su vez presentar el suyo propio sobre el efecto fotoeléctrico, donde la energía máxima cinética del fotoelectrón, Em, está dada por la ecuación que lleva su nombre: Em = hf – Φ.

Cada metal requiere, para que se produzca la extracción, una radiación con una frecuencia mínima (no). Cualquier otra radiación de menor frecuencia, no será capaz de arrancar electrones. Por debajo de la frecuencia mínima la intensidad de corriente -”i” (amperios)- será cero. No hay efecto fotoeléctrico.

Planck publicó en 1.900 un artículo sobre la radiación de cuerpo negro que sentó las bases para la teoría de la mecánica cuántica que más tarde desarrollaron otros, como el mismo Einstein, Heisenberg, Schrödinger, Dirac, Feymann, etc. Todos los físicos son conocedores de la enorme contribución que Max Planck hizo en física: la constante de Planck, radiación de Planck, longitud de Planck, unidades de Planck, etc. Es posible que sea el físico de la historia que más veces ha dado su nombre a conceptos de física. Pongamos un par te ejemplos de su ingenio:

1.      vale 10-35 metros. Esta escala de longitud (veinte órdenes de magnitud menor que el tamaño del protón, de 10-15 m) es a la que la descripción clásica de gravedad cesa de ser válida y debe ser tenida en cuenta la mecánica cuántica. En la fórmula que la describe, G es la constante gravitacional, ħ es la constante de Planck racionalizada y c en la velocidad de la luz.

2.      . Es la masa de una partícula cuya longitud de onda Compton es igual a la longitud de Planck. En la ecuación, ħ es la constante de Planck racionalizada, c es la velocidad de la luz y G es la constante gravitacional. Así, Se denomina masa de Planck a la cantidad de masa (21,7644 microgramos) que, incluida en una esfera cuyo radio fuera igual a la longitud de Planck,  generaría una densidad del orden de 1093 g/cm³. Según la física actual, esta habría sido la densidad del Universo cuando tenía unos {10}^{-44} segundos, el llamado Tiempo de Planck. Su ecuación, es decir la masa de Planc se denota:

M_p = sqrt{frac{hbar c}{G}} = 2,18 times 10^{-8}, mbox{kg}

El valor de la masa de Planck (M_p) se expresa por una fórmula que combina tres constantes fundamentales, la constante de Planck,  (h), la velocidad de la luz (c),  y la constante de gravitación universal (G). La masa de Planck es una estimación de la masa del agujero negroprimordial menos masivo, y resulta de calcular el límite donde entran en conflicto la descripción clásica y la descripción cuántica de la gravedad.

Al entrar en algunos límetes de la materia, nos encontramos con la espuma cuántica

“Aunque todas estas descripciones reflejan más una abundante imaginación que un hecho existencial apoyado teóricamente con alguna hipótesis que pueda ser comprobada en el laboratorio sobre hechos que están más allá de poder ser medidos jamás en algún laboratorio construído por humanos. La única forma de confrontar la factibilidad o la posibilidad del modelo de la espuma cuántica nos lleva necesariamente a confrontar la carencia de un modelo que logre unificar exitosamente al macrocosmos con el microcosmos, a la Relatividad General con la Mecánica Cuántica, la Gravedad Cuántica. Si la energía y la materia (o mejor dicho la masa-energía) están discretizadas, se supone que también deben de estarlo el espacio y el tiempo (o mejor dicho, el espacio-tiempo), y la “partícula fundamental” del espacio-tiempo debe de serlo el gravitón, aunque de momento todo esto son especulaciones que seguirán siéndolo mientras no tengamos a la mano algo que pueda confirmar la existencia de tan exótica partícula, quizá la más exótica de cuantas hayan sido concebidas por la imaginación del hombre.”

 

La descripción de una partícula elemental de esta masa, o partículas que interaccionan con energías por partículas equivalentes a ellas (a través de E = mc2), requiere de una teoría cuántica de la gravedad. Como la masa de Planck es del orden de 10-8 Kg (equivalente a una energía de 1019 GeV) y, por ejemplo, la masa del protón es del orden de 10-27 Kg y las mayores energías alcanzables en los aceleradores de partículas actuales son del orden de 103 GeV, los efectos de gravitación cuántica no aparecen en los laboratorios de física de partículas. Únicamente en un laboratorio aparecieron partículas que tenían energías del orden de la masa de Planck: en el universo primitivo, de acuerdo con la teoría del Big Bang, motivo éste por el que es necesaria una teoría cuántica de la gravedad para estudiar aquellas condiciones. Esta energía de la que estamos hablando, del orden de 1019 GeV (inalcanzable para nosotros), es la que necesitamos para verificar la teoría de supercuerdas.

Siempre, desde que puedo recordar, me llamó la atención los misterios y secretos encerrados en la naturaleza, y la innegable batalla mantenida a lo largo de la historia por los científicos para descubrirlos. Muchos han sido los velos que hemos podido descorrer para que, la luz cegadora del saber pudiera entrar en nuestras mentes para hacerlas comprender cómo actuaba la Naturaleza en ciertas ocasiones y el por qué de tales comportamientos, y, sin embargo, a pesar del largo camino recorrido, es mucho más el que nos queda por andar.

 Fuente: emilio silvera

«La Realidad No Existe Sin Un Observador»


Nuevo experimento de la MENTE confirma que la realidad no existe si no estás MIRÁNDOLA.
De acuerdo con una teoría muy conocida en la física cuántica, el comportamiento de una partícula cambia dependiendo de si hay un observador o no. Básicamente, sugiere que la realidad es una especie de ilusión y sólo existe cuando estamos ante la misma.

Numerosos experimentos cuánticos se llevaron a cabo en el pasado y mostraron que este hecho podría ser el caso. Ahora, los físicos de la Universidad Nacional de Australia han descubierto una prueba más, de la naturaleza ilusoria de la realidad. Ellos recrean el experimento de elección retardada de John Wheeler y confirmaron que la realidad no existe hasta que se mide, al menos en la escala atómica.

Hallazgos que hacen reflexionar

Algunas partículas, como los fotones o los electrones, pueden comportarse como partículas y como ondas. Aquí viene una pregunta de lo que hace exactamente un fotón o un acto de electrones, ya sea como una partícula o como una onda. Esto es lo que el experimento de Wheeler pregunta: ¿en qué momento un objeto “decide”?

Los resultados del experimento de los científicos australianos, que fueron publicados en la revista Nature Physics, muestran que esta elección está determinada por la forma en que se mide el objeto, que está de acuerdo con lo que predice la teoría cuántica.

“Esto demuestra que la medición es todo. A nivel cuántico, la realidad no existe si no estás mirándola

Dijo en un comunicado de prensa el investigador principal, el Dr. Andrew Truscott.

El experimento

La versión original del experimento de John Wheeler propuesto en 1978, involucro a rayos de luz recuperados por espejos. Sin embargo, era difícil de aplicar y obtener resultados concluyentes, debido al nivel de los avances tecnológicos en ese entonces. Ahora, se hizo posible recrear con éxito el experimento, utilizando átomos de helio esparcidos por la luz láser.

De acuerdo con una teoría muy conocida en la física cuántica, el comportamiento de una partícula cambia dependiendo de si hay un observador o no. Básicamente, sugiere que la realidad es una especie de ilusión y sólo existe cuando estamos ante la misma.

El equipo del Dr. Truscott obligó a un centenar de átomos de helio a estar en un estado de la materia llamado condensado de Bose-Einstein. Después de esto, se expulsan todos los átomos hasta que sólo queda uno.

Luego, los investigadores utilizaron un par de rayos láser para crear un patrón de rejilla, lo que dispersa a un átomo que pasa a través de él, como una rejilla sólida dispersa la luz. Por lo tanto, el átomo sería o bien actuaría como una partícula y pasaría a través de un brazo o actuaría como una onda y pasaría a través de ambos brazos.

Gracias a un generador de números al azar, una segunda rejilla se añadió entonces al azar con el fin de recombinar los caminos. Esto se hizo sólo después de que el átomo ya había pasado la primera rejilla.

Como resultado, la adición de la segunda rejilla causó la interferencia en la medición, mostrando que el átomo había viajado ambos caminos, comportándose así como una ola. Al mismo tiempo, cuando no se añadió la segunda rejilla, no hubo interferencia y el átomo parecía haber viajado sólo un camino. 

Puedes ver el experimento aquí:

 

Los resultados y su interpretación

Como se añadió la segunda rejilla sólo después de que el átomo había pasado por la primera, sería razonable sugerir que el átomo aún no había “decidido” si iba a ser una partícula o una onda antes de la segunda medición.

Según el Dr. Truscott, puede haber dos posibles interpretaciones de estos resultados. O bien el átomo “decidió” cómo comportarse en base a la medición o una medida futura afectó el pasado del fotón.

“Los átomos no viajaban de A – B. Fue sólo cuando se midieron al final del viaje, que su comportamiento ondulatorio o de partículas fue traído a la existencia”, dijo.

Por lo tanto, este experimento se suma a la validez de la teoría cuántica y proporciona nueva evidencia a la idea de que, la realidad no existe sin un observador. Tal vez, aún más investigación en el campo de la física cuántica y más evidencia reflexiva como ésta, cambie por completo nuestra comprensión de la realidad un día.

“Si la mecánica cuántica no te ha conmocionado profundamente, no la has entendido todavía”.


Fuente: lastermitasdelcielo.wordpress.com
Publicado por Raquel Cherem Ades ​​en ​www.altaeducacion.org

Stephen Hawking dice que es el momento de contactar vida extraterrestre

Stephen Hawking
El físico teórico, que padece esclerosis lateral amiotrófica (ELS), utiliza un nuevo sistema avanzado para comunicarse.

El físico británico Stephen Hawking lanzó un nuevo proyecto para responder la pregunta que lo ha apasionado por muchos años: ¿hay vida en otras partes del espacio?

La iniciativa, que se cree es la más grande que se pone en marcha para buscar inteligencia extraterrestre, será un esfuerzo de 10 años enfocado en escuchar las señales emitidas por un millón de las estrellas más cercanas a la Tierra.

El proyecto fue lanzado por el grupo Breakthrough Initiatives (Iniciativas de descubrimiento) de la Royal Society en Londres y cuenta con un presupuesto de US$100 millones.

En el marco del lanzamiento de la iniciativa, el profesor dijo: «En algún lugar del cosmos, quizás, vida inteligente podría estar viendo estas luces nuestras, conscientes de lo que ellas significan».

«O ¿es que nuestras luces vagan en un cosmos sin vida: faros invisibles anunciando que aquí, en una roca, el Universo descubrió su existencia? Sea lo que sea, no existe una pregunta más grande. Es tiempo de comprometerse a hallar la respuesta, buscar la vida más allá de la Tierra«, señaló el científico.

«Estamos vivos. Somos inteligentes. Tenemos que saber».

Quienes apoyan la iniciativa aseguran que se trata de la investigación científica más grande que se emprende en busca de signos de inteligencia más allá de la Tierra.

El plan es cubrir el cielo diez veces más que programas previos y escanear cinco veces más el espectro radioeléctrico para hacerlo cien veces más rápido.

El proyecto permitirá tener acceso a dos de los más poderosos telescopios: el Green Bank ubicado en Virginia Occidental y el Parkes en Nueva Gales del Sur, en Australia.

¿Estamos solos?

«La búsqueda de vida extraterrestre es la investigación más emocionante en la ciencia del siglo XXI. El objetivo de Breakthrough Initiatives es poner a la altura de otras inquietudes científicas esa exploración», indicó el astrónomo Lord Martin Reen.

null
Yuri Milner fundó la iniciativa que tiene el respaldo de uno de los físicos más reconocidos del siglo XXI.

El público será invitado a participar en los esfuerzos para encontrar una señal de otro mundo a través del proyecto SETI@home.

Yuri Milner es un multimillonario ruso del sector tecnológico que está radicado en Estados Unidos y que fundó la iniciativa.

Milner señaló que se había desarrollado la tecnología necesaria para hacer posible la escucha de señales de inteligencia extraterrestre sobre una base científica.

«La actual tecnología nos proporciona un cambio real para responder una de las preguntas más ambiciosas de la humanidad: ¿Estamos solos?»

«Con la iniciativa Breakthrough Listen (Escucha de descubrimiento), estamos comprometidos a aplicar el enfoque de Silicon Valley a la búsqueda de vida inteligente en el Universo. Nuestro acercamiento a la información, a los datos, aprovechará el poder para la solución de problemas de las redes sociales», dijo el empresario.

Hawking añadió que creía que la investigación es uno de los esfuerzos científicos más importantes de la humanidad.

«Para entender el Universo, tienes que entender sobre átomos, sobre las fuerzas que los unen, los contornos del espacio y del tiempo, el nacimiento y la muerte de las estrellas, el baile de las galaxias, los secretos de los agujeros negros», explicó.

«Pero eso no es suficiente. Estas ideas no pueden explicarlo todo. Ellas pueden explicar la luz de las estrellas, pero no las luces que brillan desde el planeta Tierra. Para entender estas luces, debes saber sobre la vida. A cerca de las mentes».

http://www.bbc.com/mundo/noticias/2015/07/150720_ciencia_vida_extraterrestre_stephen_hawking_mr

El lado oscuro del genio Isaac Newton

Isaac Newton

Isaac Newton cambió nuestra comprensión del Universo.

Fue venerado durante su vida, descubrió las leyes de la gravedad y del movimiento, inventó el cálculo infinitesimal y ayudó a moldear nuestra visión racional del mundo.

Pero su vida personal a menudo estuvo plagada de sentimientos menos felices.

25 de diciembre de 1642: Sin expectativa de vida

null
Ilustración de la casa en la que nació Isaac Newton.

Newton nació prematuramente el día después de Navidad en Woolsthorpe, Lincolnshire.

Era un bebé pequeñísimo y le dieron pocas posibilidades de supervivencia.

El país en el que nació era caótico y turbulento.

Inglaterra estaba siendo destrozada por una guerra civil. La peste era una amenaza constante. Muchos creían que el fin del mundo era inminente.

Lea también: Lo que quizás no sabías de la gravedad

Pero la aldea de Woolsthorpe era una comunidad tranquila, a la que casi no había llegado ni la guerra ni la peste, donde se respetaban los valores puritanos de la sobriedad, el trabajo duro y la adoración sencilla.

null
La peste fue la enfermedad más temida del siglo XVII, y no sólo de ese siglo, sino de todos desde su reaparición en Europa en la década de 1340.

1645: Un niño solitario que odiaba a su padrasto

El padre de Newton murió antes de que él naciera. Cuando cumplió tres años, su mamá lo dejó con su abuela y se casó con un hombre de un pueblo cercano.

Esto le dejó una herida de por vida; se sintió rechazado por su familia.

Odiaba a su padrasto y amenazaba con prenderle fuego a su casa.

Lea también: Árbol de Newton desafía la gravedad

En la escuela, buscó consuelo en los libros.

No le interesaba ni la literatura ni la poesía, pero le fascinaba la mecánica y la tecnología, que lo llevaron a inventar un elaborado sistema de relojes de sol que daban la hora y los minutos precisos.

Su madre tenía la esperanza de que se dedicara a manejar la granja de la familia, pero su tío y el director del colegio se dieron cuenta de que Newton estaba destinado a vivir en la esfera intelectual.

1661: Un mentor matemático

Newton se inscribió en el colegio Trinity de la Universidad de Cambridge y ahí encontró a una figura paterna que lo puso rumbo a importantes descubrimientos.

En vez de pedirle que estudiara los textos que los otros universitarios leían, Isaac Barrow -el primer profesor de matemáticas de Cambridge- lo orientó hacia los grandes problemas matemáticos no resueltos de ese momento, como el Cálculo, esa manera de describir cómo cambian las cosas.

Esa materia después sería crucial para explicar el Universo en términos matemáticos.

Newton además se la pasaba buscando nuevos escritos de hombres como Descartes, quien argumentaba que el Univeso estaba gobernado por leyes matemáticas.

Platón es mi amigo, Aristóteles es mi amigo, pero mi mejor amigo es la verdad»

Escrito en la libreta de notas de Newton, que empezó en 1664

1665: Los años productivos de la peste

Cuando la Universidad de Cambridge cerró debido a la peste, Newton tuvo que volver a casa. Ese fue el período más productivo de su vida.

Él siempre había creído que para llegar al conocimiento verdadero había que observar más que leer libros. Por ejemplo, en vez de confiar en los textos sobre óptica, experimentó metiéndose una aguja sin punta en su ojo para ver qué efecto tenía.

Durante esta época, sentó las bases de sus teorías de cálculo y las leyes del movimiento que más tarde lo harían famoso. Pero como era por naturaleza reservado, se guardó sus ideas.

1671: Espejos para un revolucionario telescopio

null
Telescopio newtoniano.

Newton siguió experimentando en su laboratorio, y esa mezcla de teoría y práctica resultó en muchos tipos de descubrientos diferentes.

Su teoría de la óptica lo hizo reconsiderar el diseño del telescopio, que hasta entonces era un instrumento grande y engorroso.

Usando espejos en lugar de lentes, Newton creó un instrumento más poderoso y 10 veces más pequeño que los telescopios tradicionales.

Cuando la Real Sociedad de Londres para el Avance de la Ciencia Natural supo del telescopio de Newton, sus miembros quedaron impresionados. Eso lo animó a contarles sobre lo que describía como un «experimiento crucial» sobre luz y color.

1672: No toleraba la crítica

null
Newton estaba fascinado con la naturaleza de la luz y creó un arcoíris.

La Real Sociedad era un grupo de élite que se reunía para compartir y criticar el trabajo de cada uno, y alentó a Newton a hacer lo mismo.

Pero las teorías de Newton sobre la luz no cayeron en gracia: otros miembros de la Real Sociedad no pudieron reproducir sus resultados, en parte porque Newton describió su experimento de una manera complicada.

A Newton a su vez, no le cayeron bien las críticas. Cuando el científico Robert Hooke cuestionó sus teorías sobre la luz y el color, se ganó un enemigo de por vida.

Newton tenía un temperamento horrible y una convicción inquebrantable de que estaba en lo correcto.

Con su orgullo aporreado, empezó a retirarse de la vida intelectual.

1679: Un exilio autoimpuesto

null
Los alquimistas estaban en busca de la piedra filosofal y el elixir de la vida, e intentaban tornar metales comunes en oro.

Afligido por la crítica, Newton se aisló de otros filósofos naturales y se dedicó a trabajar en cuestiones religiosas y alquímicas.

Como su madre estaba agonizante, volvió a casa y se embarcó en un período de estudio solitario.

Lo absorbió la alquimia, un hermético estudio de la naturaleza de la vida y la precursora medieval de la química.

Hay quienes piensan que esas ideas, aunque no fueran científicas en el sentido moderno, lo ayudaron a pensar de la manera radical que le permitió lograr su trabajo más importante, como la teoría de la fuerza de gravedad.

En un campo joven y repentinamente fértil como el de las Matemáticas (…), los descubrimientos estaban esperando a que diferentes personas los encontraran una y otra vez»

James Gleick, biógrafo de Newton, describiendo el mundo del siglo XVII

1684: El inicio de la rivalidad más profunda

Cuando el filósofo alemán Gottfried Leibniz publicó un estudio matemático importante empezó una disputa que duró toda la vida.

Leibniz, uno de los más prominentes filósofos de Europa, se había dedicado a uno de los problemas matemáticos más complicados: la forma en la que las ecuaciones pueden describir el mundo físico.

Como Newton, creó una nueva teoría de cálculo.

Sin embargo, Newton reclamó que él había hecho el mismo trabajo 20 años antes y que Leibniz le había robado sus ideas.

No obstante, el reservado Newton no había publicado su trabajo y tuvo que recurrir a sus viejas anotaciones para que el mundo pudiera ver lo que había hecho.

1687: Principios de la filosofía

null
Carátula del libro considerado como la base de la ciencia moderna.

Ante el reto de Robert Hooke de que probara sos teorías sobre las órbitas planetarias, Newton produjo lo que se considera como la base de la Física que conocemos.

Le tomó dos años escribir la Philosophiæ naturalis principia mathematica, latín para Principios matemáticos de la filosofía natural.

Era la culminación de más de 20 años de pensamiento y presentaba su teoría de cálculo matemático, las tres leyes del movimiento y el primer informe riguroso de la constante de gravitación universal.

Juntas proveían una nueva y revolucionaria descripción matemática del Universo.

Esa obra consolidó su reputación y contiene mucho de lo que hace que lo recordemos hoy en día.

1689: De científico a político

null
Retrato hecho por Godfrey Kneller en 1689, cuando Newton tenía 47 años de edad.

Tras destacar como filósofo natural, lo atrajo una nueva vida como político y personalidad pública.

Como era profundamente religioso, no podía ser indiferente al hecho de que el rey Jacobo II estaba intentando volver a convertir a la Universidad de Cambridge al catolisismo.

Luchó con éxito contra las reformas del rey y fue electo como miembro del Parlamento.

No obstante, tuvo muy poco impacto en la Cámara de los Comunes, y en sólo aparece una vez en las transcripciones de las sesiones: cuando solicitó que cerraran una ventana.

null
La ley de gravedad, con el relato de la manzana, se quedó en la memoria popular.

1693: Exhausto y desmoronado

A mediados de 1693, Newton sufrió un colapso mental cuando sospechó que sus amigos estaban conspirando en su contra.

Tras trabajar durante cinco noches seguidas, sufrió lo que podríamos describir como una crisis nerviosa. Más tarde le pidió disculpas al filósofo John Locke y al miembro del Parlamento Samuel Pepys por haber deseado que se murieran.

Pero a pesar de su frágil salud mental, su reputación se mantuvo intacta y pronto le ofrecieron un cargo importante.

null
La segunda ley de Newton o ley de la fuerza: la fuerza es el producto de la masa por la aceleración.

1696: Rescata la moneda británica

Como intendente de la Real Casa de la Moneda, Newton encontró una nueva vocación. Quiso hacer de la libra británica la moneda más estable del mundo.

En el siglo XVII, las finanzas británicas estaban en crisis. Una de cada 10 monedas era falsa, y a menudo el metal con el que estaba hecha una moneda valía más que lo que esta representaba.

Newton supervisó un enorme proyecto para retirar la moneda circulante e introducir una más confiable.

Metódico como siempre, mantenía una base de datos de falsificadores, y los sancionaba con una furia puritana.

Fue nombrado director de la Real Casa de la Moneda en 1700 y permaneció en ese cargo por el resto de su vida.

1703: Un cargo con la oportunidad de venganza

Newton fue elegido como presidente de la Real Sociedad.

null
Firma de Isaac Newton en una invitación de la Royal Society cuando ya era presidente.

Como la personalidad más notable de la filosofía natural británica, ya había completado su trabajo más relevante. Era hora de dedicarse a asegurar su reputación.

Era un líder imponente, obsesionado con el poder y el prestigio.

Aunque siguió publicando su propio trabajo, también se ocupó de construir y destruir la reputación de otros.

Trató de borrar a Hooke de la historia y se metió en otra disputa amarga con el astrónomo John Flamsteed publicando su catálogo de las estrellas sin su consentimiento.

Newton siguió siendo una figura influyente, rodeado de una nueva generación de estudiantes que habían crecido con sus ideas.

Si he logrado ver más lejos ha sido por pararme sobre los hombros de gigantes»

La famosa cita de Isaac Newton pudo haber sido un insulto a su más bien bajito rival Robert Hooke

1712: Reescribe la historia a su favor

Newton y Leibniz habían reñido durante años sobre quién había inventado el cálculo infinitesimal. Pero Newton finalmente encontró la manera de arrebatarle la victoria a su enemigo intelectual.

En 1713 la Real Sociedad formó un comité para decidir de una vez por todas quién lo había inventado. La conclusión fue que Newton se le había anticipado a Leibniz por muchos años.

Sin embargo, el autor secreto del informe de la Real Sociedad no fue otro que el mismo Newton.

Leibniz se negó a aceptar la derrota y la pelea sólo terminó cuando ambos hombres ya estaban muertos.

Hoy en día se acepta que ambos llegaron al cálculo independientemente, así que no hubo plagio.

1726: Crea una leyenda

null
Una imagen idealizada de Newton pintada por Robert Hannah en la década de 1850.

Al final de su vida, Newton contó una historia que se ha convertido en una de las leyendas más perdurables en la historia de la ciencia.

Mientras cenaba con otro miembro de la Real Sociedad, William Stukeley, Newton recordó que había estado sentado debajo de un manzano en la casa de su familia en Woolsthorpe, y que ver caer una manzana fue lo que lo llevó a pensar en la gravedad.

La historia también fue relatada por otra gente que conocía a Newton, incluida su sobrina Catherine, quien lo cuido durante sus últimos años.

No obstante, el mito de que la manzana le había caído en la cabeza a Newton fue un invento posterior.

Fui sólo un niño que, jugando en la playa, halló una piedra más fina o una concha más linda de lo normal mientras que el gran océano de la verdad se extendía inexplorado ante mí»

Comentario atribuido a Newton, dicho poco antes de su muerte

20 de marzo de 1727: Muere el genio

Newton murió a la edad de 84 años y fue enterrado con todos los honores en la Abadía de Westminster. Como un filósofo natural afamado, era un nuevo tipo de héroe nacional.

Fue él quien sentó las bases de nuestra era científica.

Sus leyes del movimiento y teoría de la gravedad apuntalan mucho de la física e ingeniería moderna.

No obstante, él creyó que había sido puesto en la Tierra para decifrar la palabra de Dios, estudiando tanto las Sagradas Escrituras como el libro de la naturaleza.

Para él, la teología y las matemáticas eran parte de un proyecto para descubrir un sistema único del mundo.

Sus logros fueron tan trascendentales que el término ‘genio científico’ fue creado para describirlo a él»

Robert Iliffe, director de The Newton Project

Aida. 50 años de la Ley de Moore: ¿qué ocurrirá cuando ya no se cumpla?

50 años de la Ley de Moore: ¿qué ocurrirá cuando ya no se cumpla?
Acaban de cumplirse 50 años de la Ley de Moore, enunciada en 1965 por Gordon Moore, uno de los padres de Intel. Expresa que cada dos años aproximadamente se duplica el número de transistores en un circuito integrado. Ha venido cumpliéndose durante los últimos 50 años y lo seguirá haciendo algunos más, pero ¿tiene un límite?
La Ley de Moore apareció por primera vez enunciada en un artículo de la revista Electronics y a pesar de que no es exactamente una ley en un sentido estrictamente científico, sino más bien una observación, ha sentado las bases de gran parte del progreso de la humanidad durante el siglo XX. Para dar algo de contexto, en 1978 un vuelo comercial entre París y Nueva York costaba 900 dólares y tenía una duración de unas 6 horas. Aplicando los principios de la ley de Moore, hoy en día ese vuelo costaría como 1 centavo y tardaría menos de 1 segundo en realizarse.
Cada chip que la humanidad ha ido produciendo es más barato que el anterior, más barato y más poderoso. Pero toda progresión exponencial, al menos en la vida real y no en la matemática teórica, tiene su límite. Y el de Moore parece estar acercándose rápidamente. El propio Moore ya afirmó en una entrevista en 2010 que su propia ley estaba muerta. No lo decía en un sentido literal, no es que ya esté muerta, pero tiene una fecha de caducidad muy obvia: la propia dimensión física de la materia, los átomos.

La carrera hacia el infinito

50 años de la Ley de Moore: ¿qué ocurrirá cuando ya no se cumpla?
La Ley de Moore es, en el fondo, una carrera apasionante hacia el infinito, hacia los límites de la miniaturización. Al momento de escribir estas líneas la frontera en la mayoría de procesadores de consumo de compañías como Intel está dibujada sobre los 14 nanómetros para cada transistor (aunque eso no quiera decir que sean los más utilizados).
Un transistor es el alma de un microprocesador, emula los 1 y los 0 del código binario según deje o no pasar la energía a través de él.
50 años de la Ley de Moore: ¿qué ocurrirá cuando ya no se cumpla?
Para dar un mínimo de contexto sobre las dimensiones tan extraordinarias de las que estamos hablando, el diámetro de una molécula de glucosa está en 1 nm, la insulina es un poco más grande, 5 nm, y la pared de una bacteria se queda en 10 nm. Un virus son 75 nm. Así que si estás leyendo esto desde un PC o teléfono de última generación es posible que la tecnología de transistores que lleva el procesador que te permite hacerlo sea aún más pequeña que un simple virus.

Dentro de alrededor de un año o año y medio llegarán los 10 nanómetros y después el camino es relativamente ambiguo. En principio llegaríamos a los 7 nanómetros allá por 2020 y una vez llegados a ese punto la mayoría de expertos da por sentado que la Ley de Moore llegará a un trágico pero lógico final. No quiere decir que la innovación vaya a terminarse, no quiere decir que no se estén desarrollando nuevas investigaciones para evitarlo pero de momento no hay nada que nos asegure al 100% que esa progresión exponencial va a seguir cumpliéndose.

¿Y después qué?

¿Y después? Esa es la pregunta que instituciones de todo el mundo se hacen continuamente. La agencia estadounidense de investigación de proyectos avanzados de defensa, DARPA, tiene dos grandes proyectos en desarrollo y empresas como Intel o AMD en cuyo futuro desarrollo tiene mucho que decir la Ley de Moore albergan también iniciativas similares.
50 años de la Ley de Moore: ¿qué ocurrirá cuando ya no se cumpla?

No hay ningún crecimiento exponencial que, en la práctica y más allá de la teoría, sea infinito. Eso lo tenemos claro” dice Simón Viñals, Director de Tecnología de Intel Iberia en conversación telefónica a Gizmodo en Español, La mayoría de iniciativas actuales se encaminan a mejora la eficiencia sobre la reducción de costes y aumento de potencia que implica la Ley de Moore
Se investiga, por ejemplo, en capas de transistores en 3D. A día de hoy la impresión de las obleas de procesadores mediante litografía óptica es planar. El reto es crear ahora capas tridimensionales de transistores interconectadas entre sí. “Aunque es algo bastante complejo” apunta Viñals.
La computación cuántica, aún en pañales, puede ser otra de las vías. No sólo utiliza una arquitectura completamente distinta, basada en qbits (bits que pueden ser 1 y os al mismo tiempo) en lugar de bits sino que algunos de los problemas teóricos intratables del actual modelo pasarían a ser tratables.
Y, por último, la computación neuromórfica. “La computación neuromórfica replica, con transistores, el comportamiento de un cerebro biológico. Implica la conexión masiva de millones de elementos pequeños, el equivalente a las neuronas, en lugar de pocos y más grandes” afirma Viñals. La idea de replicar con una máquina el funcionamiento del cerebro no es nueva, lleva dando vueltas desde la década de los 80, pero es apasionate. En 2011 IBM consiguió fabricar el de la imagen de abajo, que funciona como si fuesen 256 neuronas con 1024 sinapsis.
50 años de la Ley de Moore: ¿qué ocurrirá cuando ya no se cumpla?

No sólo daría lugar a chips más eficientes sino que allanaría el camino, en parte, hacia la inteligencia artificial.
El punto crítico tras la muerte de la ley de Moore no es sólo que reducirá el crecimiento tecnológico, en cualquiera de sus formas, sino que detrás de él irá también en parte el económico. El auge de compañías como Apple, Google, Pixar o Dreamworks se debe en gran parte a la progresión que supone la ley. Podremos intentar emular un crecimiento, podremos ver periodos de crecimiento acelerado aquí y allá pero de momento no parece que un crecimiento exponencial sostenido durante seis décadas, como ha ocurrido con Moore, vaya a ocurrir.
¿Qué ocurrirá cuando la Ley de Moore decida, definitivamente, dejar de aplicarse? Nadie lo sabe, no a ciencia cierta al menos. Pero será divertido descubrirlo.
fuente/es.gizmodo.com
SABIENS.