Archivo de la categoría: FÍSICA

La realidad: Un universo de información

Referencia: New.Scientist.com .
Autor: Michael Brooks, 26 de septiembre 2012

Lo que llamamos realidad podría ser en realmente el resultado de un programa que se ejecuta en un equipo cuántico de tamaño cósmico.

Independientemente del tipo de realidad que creas que estás viviendo, seguramente estarás equivocado. El universo es un ordenador, y todo lo que pasa en él se puede explicar en términos de procesamiento de información.

La conexión entre realidad e informática puede no hacerse obvia inmediatamente, pero si quitamos las capas que lo ocultan, eso es exactamente lo que algunos investigadores piensan que encontramos. Pensamos en un mundo compuesto de partículas que se mantienen unidas por fuerzas, por ejemplo, pero la teoría cuántica nos dice que se trata de un revoltijo de campos sólo podemos describir adecuadamente mediante la invocación de las matemáticas de la física cuántica.

Y ahí es donde llega el equipo, si al menos lo pensamos en términos conceptuales como algo que procesa información, más que en una máquina cuadrada encima del escritorio. «La física cuántica es casi parafrasear en términos de procesamiento de información», diceVlatko Vedral, de la Universidad de Oxford. «Es sugerente encontrar el procesamiento de información en la base de todo».

La información, sin duda, tiene un lugar especial en la teoría cuántica. El famoso principio de incertidumbre, que establece que no se puede conocer simultáneamente el momentum y la posición de una partícula, se reduce a una información. Igual que el entrelazamiento, donde los objetos cuánticos comparten propiedades e intercambiar información independientemente de la distancia física entre ellos.

De hecho, todos los procesos en el universo puede ser reducidos a las interacciones entre partículas que dan lugar a respuestas binarias: sí o no, aquí o allá, arriba o abajo. Eso significa que la naturaleza, en su nivel más fundamental, es simplemente un dar la vuelta a los dígitos binarios o bits, igual que un ordenador. El resultado de una miríada de bit vueltos se manifiesta en lo que percibimos como una disposición en marcha, un reordenamiento y una interacción de átomos, en otras palabras, la realidad.

Según Ed Fredkin del Instituto de Tecnología de Massachusetts, si pudiéramos profundizar en este proceso nos encontraríamos con que el universo sigue una sola ley, una sola regla de procesamiento de información que es todo lo que necesita para construir el cosmos. Según Fredkin, sería algo así como el procedimiento «si – entonces», que es el tipo de regla que se utiliza en la informática tradicional para manipular los bits que contienen los transistores de un chip y operar con puertas lógicas, pero esta vez aplicado a los bits del universo.

Vedral y otros, piensan que es un poco más complejo que eso. Porque podemos reducir todo en el universo a entidades que siguen las leyes de la física cuántica, el universo debe ser un ordenador cuántico en vez del tipo clásico que conocemos.

Uno de los atractivos de esta idea es dar una respuesta a la pregunta «¿por qué hay algo en lugar de nada?». La aleatoriedad inherente a la mecánica cuántica significa que la información cuántica, y por extensión, el universo, puede llegar a ser de manera espontánea, señala Vedral.

Con todas estas ideas teóricas, probar que el universo es un ordenador cuántico no es tarea fácil. Aun así, hay una observación que apoya la idea de que el universo se compone fundamentalmente de información. En 2008, el detector de ondas gravitacionales GEO 600 de Hannover, Alemania, recogió una señal anómala sugiriendo que el espacio-tiempo está pixelado. Esto es exactamente lo que cabría esperar de un universo «holográfico», donde la realidad 3D es en realidad una proyección de la información codificada en la superficie bidimensional de las fronteras del universo (New Scientist, 17 enero 2009, p 24).

Esta extraña idea surgió de una discusión sobre los agujeros negros. Uno de los principios fundamentales de la física es que la información no puede ser destruida, pero un agujero negro parece violar esto, tragándose las cosas que contienen información para más tarde evaporarse progresivamente. Lo que sucede con esa información fue objeto de un largo debate entre Stephen Hawking y varios de sus colegas. Al final, Hawking perdió el debate, reconociendo que la información que impresa en el horizonte de eventos que define el límite del agujero negro, y se escapa como el agujero negro se evapora. Esto llevó a los físicos teóricos Leonard Susskind y Gerard’t Hooft a proponer que el universo entero podría conservar la información en sus límites, con la consecuencia de que nuestra realidad podría ser la proyección de esa información en el espacio dentro del límite. Si esta conjetura es cierta, la realidad es como la imagen de la princesa Leia proyectada por R2D2 en Star Wars: un holograma.


– Edición especial: ¿Qué es la realidad?»
– Imagen: Wookieepedia .

http://bitnavegante.blogspot.com.es/2012/10/la-realidad-un-universo-de-informacion.html?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed:+bitnavegante+(BitNavegantes)&utm_term=Google+Reader

Nobel de Física de 2012 por intentar controlar la luz El premio lo reciben Serge Haroche y David Wineland, pioneros en óptica cuántica

El francés Serge Haroche y el estadounidense David Wineland han compartido el Premio Nobel de Física de 2012. Según la Real Academia de las Ciencias de Suecia, por ser autores de “revolucionarios métodos experimentales para la medición y manipulación de sistemas cuánticos individuales”. Los dos científicos están especializados en óptica cuántica, el control preciso de los fotones y las unidades fundamentales de la luz. Haroche es conocido por haber elaborado entre los años 1970 y 1980 los nuevos métodos de espectroscopia láser basados en el estudio de batideros cuánticos y superradiancia. Pero se considera que su mayor logro científico fue probar la ‘decoherencia cuántica’ (es decir, probar que la correlación de las partículas cuánticas se quiebra debido a la influencia del ambiente que las rodea y que el sistema cuántico ‘se mezcla’ con el ambiente) a través de observaciones experimentales. Para hacerlo, Haroche experimentó con los átomos de Rydberg, los átomos excitados con electrones de un número cuántico principal muy alto que son caracterizados por una respuesta exagerada a los campos eléctricos y magnéticos, lo que los convierte en objetos casi ideales para estudiar la interacción entre materia y radiación. Al acoplar estos átomos a las cavidades de un superconductor con pocos fotones, alcanzó poner a prueba las leyes de la ‘decoherencia cuántica’ y demostrar que es posible llevar a cabo operaciones de lógica cuántica (el conjunto de reglas algebraicas que rigen las operaciones para combinar y los predicados para relacionar proposiciones asociadas a acontecimientos físicos que se observan a escalas atómicas), prometedoras para el tratamiento de información. Wineland, por su parte, es conocido por sus métodos de enfriamiento de iones en las trampas de Paul (trampas iónicas cuadripolares que son un componente de espectrómetro de masa) y el uso de los iones atrapados para realizar operaciones de computación cuántica, un paradigma de computación que se basa en el uso de ‘qubits’ en lugar de ‘bits’, y da lugar a nuevas puertas lógicas que hacen posibles nuevos algoritmos. La semana de los anuncios de los Nobel comenzó ayer con el nombramiento de los premios de Medicina, que fueron para el japonés Shinya Yamanaka y el británico John Gurdon, por sus experimentos en clonación. El miércoles se dará a conocer el Nobel de Química; el jueves, el de Literatura; y el viernes, el de Paz. El Nobel de Economía, un premio establecido por el Banco Central de Suecia en 1968 será, anunciado el 15 de octubre.

Texto completo en: http://actualidad.rt.com/ciencias/view/55530-nobel-fisica-intentar-controlar-luz

La realidad: ¿Es real la materia?

Referencia: NewScientist.com .
Autor: Jan Westerhoff, 2 de octubre 2012

Nada parece más real que el mundo de los objetos cotidianos, pero las cosas no son como parecen. Un conjunto de experimentos relativamente simples revelan enormes agujeros es nuestra comprensión intuitiva de la realidad física. El tratar de explicar lo que sucede conduce a algunas teorías muy peculiares y a menudo sorprendentes sobre el mundo que nos rodea.

He aquí un simple ejemplo. Tomemos una lámpara de escritorio normal, unas cuantas piezas de cartulina con agujeros de tamaños decrecientes, y algún tipo de pantalla de proyección, como una pared blanca. Si pones la cartulina entre la lámpara y la pared, veremos una mancha brillante donde la luz pasa a través del agujero de la cartulina. Si ahora reemplazamos la cartulina con piezas que contengan agujeros más y más pequeños, las manchas de luz también disminuirán de tamaño. Pero una vez que estemos por debajo de un cierto tamaño, el patrón sobre la pared cambia desde un pequeño punto a una serie de anillos concéntricos oscuros y claros, más bien como una diana de tiro con arco. Este es el «patrón de Airy«, el signo característico de una onda que se ve forzada a pasar por un agujero (ver imagen).

En sí mismo, esto no tiene nada de sorprendente. Después de todo, sabemos que la luz es una onda, por lo que debe mostrar un comportamiento ondulatorio.

Pero consideremos ahora lo que sucede si cambiamos un poco la configuración del experimento. En lugar de una lámpara, se utiliza un dispositivo que dispara electrones, como el que había en los televisores antiguos, y en lugar de una pared, utilizamos una placa de cristal recubierta con fósforo que se ilumina cuando la golpea un electrón. De esta manera, podemos usar esta pantalla para realizar un seguimiento de los sitios donde chocan los electrones. Los resultados son similares: con agujeros lo suficientemente pequeños da lugar al disco de Airy.

Esto tiene ahora una pinta peculiar: los electrones son partículas localizadas en puntos exactos y no se puede dividir; sin embargo, se comportan como ondas que pueden marchar a través del espacio, son divisibles, y se fusionan entre sí cuando se encuentran.

Tal vez no sea tan extraño después de todo. El agua se compone de moléculas, sin embargo, se comporta como una onda. El patrón de Airy sólo puede surgir cuando bastantes partículas se unen, ya sean moléculas de agua o electrones.

Una variante simple de los experimentos demuestra que esto no puede ser correcto. Supongamos que reducimos la salida de la pistola de electrones a una partícula cada minuto. El patrón de Airy se ha ido, y todo lo que vemos es un pequeño destello cada minuto. Dejamos que esta configuración funcione por un tiempo, grabando cada pequeño destello que se produce. A continuación, mapeamos la ubicación de todos los miles de flashes.

Sorprendentemente, no terminan con una disposición aleatoria de puntos, sino en un nuevo patrón de Airy. Este resultado es extremadamente raro. Ningún electrón individual puede saber dónde van a golpear todos los electrones anteriores y posteriores, así que no pueden comunicarse entre sí para crear el patrón de ojo de buey. Más bien, cada electrón tiene que haber viajado como una onda a través del agujero para producir ese patrón característico, después regresa como partícula para producir el punto de la pantalla. Esto, por supuesto, se trata de la famosa dualidad onda-partícula de la mecánica cuántica.

Este extraño comportamiento es compartido por cualquier pieza lo suficientemente pequeña de la materia, incluyendo electrones, neutrones, fotones y otras partículas elementales, pero no sólo ellas. Se han observado efectos similares en los objetos que son lo bastante grandes, en principio, para ser vistos bajo un microscopio, como las buckybolas.

A fin de explicar el comportamiento peculiar de tales objetos, los físicos asocian una función de onda con cada uno de ellos. A pesar del hecho de que estas ondas tienen las propiedades normales de las ondas más familiares, como las ondas de sonido o del agua, incluyendo la amplitud (la distancia hacia arriba o abajo se desvía del estado de reposo), la fase (en qué punto de un ciclo está la onda) y las interferencias (en qué fases de «arriba» y «abajo» se reúnen las ondas y anulan entre sí), y lo que son las ondas en sí no está del todo transparente. Einstein acertadamente habló de su medio como un «campo fantasma».

Para una onda en un medio ordinario, tal como el agua, podemos calcular su energía en un punto si tomamos el cuadrado de su amplitud. Las funciones de onda, sin embargo, no acarrean energía. En lugar de eso, el cuadrado de su amplitud en cualquier punto dado, nos da la probabilidad de observar la partícula si un detector, como puede ser una pantalla recubierta de fósforo, se coloca allí.

Es evidente que el punto donde un objeto cambia de ser una onda de probabilidad, con su posible existencia a través de todo el espacio, para convertirse en un objeto real, espacialmente localizado, es de vital importancia a la hora de entender si la materia es real. ¿Qué sucede exactamente cuando la función de onda colapsa, o sea,  cuando entre las innumerables posibilidades de ser de una partícula en cualquier momento, una es elegida, mientras que todos las demás son rechazadas?

En primer lugar, tenemos que preguntarnos si se hace esta elección. En el ejemplo descrito anteriormente, parece que suceda justo antes del flash sobre la pantalla de fósforo. En ese momento, la medición de la posición del electrón se hace por una parte del fósforo brillante, cuando la partícula lo golpea, por lo que debe haber habido un electrón allí, y no sólo una onda de probabilidad.

Pero asumamos que no estamos en el laboratorio para observar el experimento, así que apuntamos la cámara a la pantalla de fósforo y obtenemos un resultado que se envía a través de satélite a un ordenador de escritorio. En este caso, el flash de luz emitida desde la pantalla de fósforo tiene que viajar a la cámara de grabación, y el proceso se repite: como los electrones, la luz también viaja como una onda y llega como una partícula. ¿Qué razón hay para creer que el cambio de la onda de probabilidad a partícula ocurre realmente en la pantalla de fósforo, y no en la cámara?

Al principio, parecía que la pantalla de fósforo era un instrumento de medida, y que el electrón era lo que se medía. Pero ahora el dispositivo de medición es la cámara y la pantalla de fósforo es aquello que se mide. Teniendo en cuenta que cualquier objeto físico transmite la medida que podemos añadir a esta secuencia (cámara, ordenador, nuestros ojos, nuestro cerebro), que están hechos de partículas con las mismas propiedades que el electrón, ¿cómo podemos determinar cualquier paso en particular donde colocar el corte entre lo que se mide y lo qué está haciendo la medición?

Esta cadena cada vez más expandida, se llama cadena de von Neumann, en honor al físico y matemático John von Neumann. Uno de sus colegas, en la Universidad de Princeton, Eugene Wigner, hizo una sugerencia sobre dónde hacer el corte. Si seguimos hacia arriba en la cadena de von Neumann, la primera entidad que encontramos que de ninguna manera está formada de materia es la conciencia del observador. Por lo tanto, tal vez quiera decir que cuando la conciencia entra en escena, el colapso de la función de onda y de la onda de probabilidad se convierte en una partícula.

La idea de que la conciencia de la realidad cotidiana venga a la existencia es muy extraña por supuesto, tal vez no lo sea tanto si se ve desde un un punto de vista minoritario.

Hay otra forma de interpretar el problema de la medición que no implica la conciencia, aunque tiene sus propias ramificaciones peculiares. Pero por ahora vamos a explorar la idea de Wigner con mayor profundidad.

Si un observador consciente no colapsa la función de onda, también tiene consecuencias curiosas. Conforme más y más objetos se atrapen en la vortex de la cadena de von Neumann, mediante el cambio de instrumento de medición a ser aquello que se mide, la estructura «desplegada» de la onda de probabilidad se convierte también en una propiedad de estos objetos. La naturaleza «superpuesta» del electrón (su capacidad de estar en varios sitios a la vez) también afecta ahora a los instrumentos de medición.

Se ha comprobado experimentalmente que no sólo los pequeño objetos inobservables, sino los grandes objetos suficientemente grandes, como los vistos bajo microscopio, como una tira de metal de 60 micrómetros de largo, pueden exhibir un comportamiento de superposición. De acuerdo que no podemos mirar a través de un microscopio y ver esa banda de metal en dos sitios a la vez, ya que esto derrumbaría inmediatamente la función de onda. Sin embargo, está claro que la indeterminación que descubrimos a un nivel atómico se puede extender a un nivel macro.

Sin embargo, si aceptamos que la función de onda debe colapsar tan pronto como la conciencia entre en la medición, las consecuencias son aún más curiosas. Si decidimos romper la cadena en este punto, se deduce que, de acuerdo con una de las definiciones de la realidad, la materia no puede ser considerada como real. Si resulta necesaria la conciencia para convertir las fantasmales ondas de probabilidad en cosas, como los objetos que encontramos en la vida cotidiana, ¿cómo afirmar que la materia es lo que estaría allí de todos modos, dependiendo de si la mente humana estaba o no a su alrededor?

Pero quizá esto sea un poco apresurado. Incluso si estamos de acuerdo con la idea de que la conciencia es necesaria para romper la cadena, se deduce entonces que los atributos dinámicos de la materia, como la posición, el momentum y la orientación del spin dependen de la mente. Lo que no se deduce es que sus atributos estáticos, entre ellos la masa y la carga, dependan de ello. Los atributos estáticos están ahí, tanto si lo consideramos o no.

Sin embargo, tenemos que preguntarnos si la redefinición de la materia como «un conjunto de atributos estáticos» conserva bastante de su contenido para que podamos considerar la materia como algo real. En un mundo sin mentes, todavía habría atributos como la masa y la carga, pero las cosas no estarían en ninguna ubicación en particular o viajarían en ninguna dirección particular. Un mundo así no tiene prácticamente nada en común con el mundo tal y como se nos presenta. Werner Heisenberg señaló que, «la ontología del materialismo se basaba en la ilusión de que el tipo de existencia, la “realidad” directa del mundo que nos rodea, puede ser extrapolada en un rango atómico. Esta extrapolación, sin embargo, es imposible … Los átomos. no son las cosas».

Me parece que lo mejor a lo que vamos a llegar en este punto es la afirmación de que algunas cosas están ahí independientemente de que nosotros, como observadores humanos, estemos ahí, a pesar de que puede ser que tengamos muy poco que ver con la comprensión ordinaria de la materia.

¿Comprendemos la realidad del cambio de materia si elegimos la otra definición fuerte de la realidad, no por lo que está ahí de todos modos, sino por lo que proporciona de cimientos para todo lo demás?

Para responder a esta pregunta, tenemos que mirar en clave científica la noción de una explicación reductiva. Gran parte del poder de estas teorías científicas se deriva de la idea de que podemos utilizar una teoría que aplicada a un conjunto determinado de objetos pueda explicar el comportamiento de otro conjunto muy distinto de objetos. De esta manera, no necesitaremos un conjunto diferente de leyes y principios para explicar el segundo conjunto.

Un buen ejemplo puede ser la manera en que las teorías de la física y la química tratan la materia inanimada, puede ser usado para explicar los procesos biológicos. No hay necesidad de postular una física o una química especial para explicar el metabolismo de un organismo, cómo se procrea, cómo se transmite su información genética, o cómo envejece y muere. El comportamiento de las células que componen el organismo puede ser explicada en términos del núcleo, las mitocondrias y otras entidades subcelulares, a su vez, pueden ser explicadas en términos de reacciones químicas basadas en el comportamiento de las moléculas y los átomos que las componen. Por esta razón, las explicaciones de los procesos biológicos puede decirse que son reducibles a la química, y en última instancia, a procesos físicos.

Si buscamos una explicación reduccionista de los fenómenos que nos rodean, un primer paso sería reducir afirmaciones acerca de las cosas de tamaño medio que nos rodean (ladrillos, cerebro, abejas, facturas y bacterias), a declaraciones sobre los objetos materiales fundamentales, como las moléculas. Entonces nos damos cuenta de que cada una de estas cosas pueden ser explicadas en términos de sus componentes, a saber, sus átomos. Los átomos, por supuesto, tienen partes también, y ahora estamos en el buen camino hacia el ámbito de las cada vez más pequeñas partículas subatómicas, tal vez (si la teoría de cuerdas fuese correcta) hasta el final de las cuerdas vibrantes de pura energía. Hasta el momento no hemos llegado a los objetos más fundamentales. De hecho, no hay ni siquiera un acuerdo sobre tales objetos.

Sin embargo, esto no es razón para detener nuestra explicación reduccionista aquí, ya que siempre se pueden entender los objetos físicos más básicos en términos de dónde se encuentren en el espacio y el tiempo. En lugar de hablar de una cierta partícula que existe en tal o cual lugar en uno u otro período de tiempo, podemos simplemente reducir esto hablando de una cierta región del espacio que está ocupada entre dos distintos momentos.

Podemos llegar a algo más fundamental. Si tomamos un punto arbitrario fijo en el espacio, y una unidad estable de distancia espacial, podemos especificar cualquier otro punto en el espacio por tres coordenadas. Esto nos indica, simplemente, que vamos a tantas unidades hacia arriba o hacia abajo, así como muchas unidades hacia la izquierda o la derecha, y tantas unidades atrás o adelante. Podemos hacer lo mismo con los puntos en el tiempo. Ahora tenemos una forma de expresar los puntos en el espacio-tiempo como conjuntos de cuatro números, x, y, z, t, de donde x, y, z, representan las tres dimensiones espaciales y tes la dimensión de tiempo. De esta manera, la realidad se puede reducir a números.

Y esto abre la puerta a algo todavía más fundamental. Los matemáticos han encontrado una manera de reducir el número a algo aún más básico: los conjuntos. Para ello, sustituyen el número 0 por el conjunto vacío, el número 1 con el conjunto que contiene sólo un conjunto vacío, y así sucesivamente. Todas las propiedades de los números también son válidas para todos estos números sucedáneos, elaborados a partir de los conjuntos. Parece que ahora hayamos reducido todo el mundo material que nos rodea a una serie de conjuntos.

Por este motivo, es importante saber lo que son en realidad estos objetos matemáticos llamados conjuntos. Hay dos puntos de vista de los objetos matemáticos que importan en este contexto. El primero, existe la opinión de que estos son como objetos «platónicos». Esto significa que los objetos matemáticos son diferentes a todos los demás objetos que encontramos. No están hechas de materia, que no existen en el espacio o el tiempo, no cambian, no pueden crearse ni destruirse, y no pueden dejar de existir. Según la comprensión platónica, los objetos matemáticos existen en un «tercer reino» distinto del mundo de la materia, y por otro lado, el mundo de las entidades mentales, como las percepciones, pensamientos y sentimientos.

En segundo lugar, podemos entender que los objetos matemáticos son fundamentalmente de naturaleza mental. Son del mismo tipo que las otras cosas que pasan por nuestra mente: los pensamientos y los planes, conceptos e ideas. No son enteramente subjetivas, ya que otras personas pueden tener el mismo objeto matemático en sus mentes tal como hemos hecho nosotros con el nuestro, así que, cuando hablamos sobre el teorema de Pitágoras, estamos hablando de la misma cosa. Sin embargo, no existe más que en la mente de quienes lo piensan.

Cualquiera de estos entendimientos conduce a un resultado curioso. Si a un nivel de fondo el mundo consiste de conjuntos, y si los conjuntos no son materiales sino que son, de alguna manera, entidades platónicas, los objetos materiales han desaparecido por completo de la vista y no pueden ser reales en el sentido de constituir la base fundamental de toda existencia. Si continuamos con este reduccionismo científico hasta el final, nos encontramos con cosas que desde luego no se parecen a pequeñas piedras o bolas de billar, ni siquiera a las cuerdas que vibran en un espacio multidimensional, sino con algo más parecido a lo que trata la matemática pura.

Por supuesto, la visión platónica de los objetos matemáticos apenas tiene controversia, y a muchas personas les resulta difícil obtener una idea clara de cómo los objetos pueden existir fuera del espacio y del tiempo. Pero si tomamos los objetos matemáticos desde lo mental a la naturaleza, nos encontramos con un escenario aún más extraño.

El reduccionismo científico propone reducir la mente humana a la actividad del cerebro, el cerebro a un conjunto de células que interactúan, las células a moléculas, las moléculas a átomos, los átomos a partículas subatómicas, las partículas subatómicas a colecciones de puntos de espacio-tiempo, las colecciones de puntos del espacio-tiempo a conjuntos de números, y los conjuntos de números a conjuntos puros. Al final de esta reducción, ahora nos parece un círculo de vuelta a donde partimos: a las entidades mentales.

Nos encontramos con un curioso bucle, similar a la forma más influyente de comprensión de la mecánica cuántica, la interpretación de Copenhague. A diferencia de la interpretación basada en la conciencia de Wigner, esto no quiere supone que la función de onda colapse cuando una mente consciente observa el resultado de algún experimento. En vez de eso, esto sucede cuando el sistema para medir (el electrón) interactúa con el dispositivo de medición (la pantalla de fósforo). Por esta razón, tiene que suponer que la pantalla de fósforo no exhibirá ese peculiar comportamiento cuántico mostrado por el electrón.

En la interpretación de Copenhague, entonces, las cosas y los procesos descriptibles en términos de conceptos conocidos clásicos son los fundamentos de cualquier interpretación física. Y aquí es donde viene a cuento la circularidad. Analizamos el mundo cotidiano de las cosas materiales de tamaño medio en términos de constituyentes cada vez más pequeños, hasta que nos ocupamos de cosas tan pequeñas que los efectos cuánticos se vuelven relevantes para describirlos. Pero cuando se trata de detallar lo que realmente está pasando cuando una función de onda colapsa en un electrón que golpea la pantalla de fósforo, no basamos nuestra explicación en cosas más pequeñas que las micro estructuras, sino en términos de lecturas realizadas por las cosas materiales no-cuánticas.

Esto significa que en lugar de ir más abajo, saltamos hasta el nivel de los fenómenos concretos de la percepción sensorial, a saber, la medición de los dispositivos como pantallas de fósforo y cámaras. Una vez más, nos encontramos en una situación en la que no podemos decir que el mundo de los objetos cuánticos sea fundamental. Tampoco podemos decir que el mundo de los dispositivos de medición sea fundamental, ya que estos dispositivos no son otra cosa que grandes aglomeraciones de objetos cuánticos.

Por tanto, tenemos un círculo de cosas que dependen la una de la otra, eso sí, a diferencia del caso anterior, los objetos mentales ya no son parte de este círculo. Como resultado de ello, ni la pantalla de fósforo ni el minúsculo electrón  se pueden considerar como reales en un sentido fundamental, puesto que no constituyen la clase de objetos de lo que todo dependa. Lo que pensamos que debería ser lo más fundamental viene a participar, básicamente, de lo que consideramos como lo menos fundamental.

En nuestra búsqueda de fundamentos, hemos dado la vuelta en círculo, desde la mente, a través de los diversos componentes de la materia, regresando a la mente o, en el caso de la interpretación de Copenhague, desde lo macroscópico a lo microscópico, y vuelta a lo macroscópico. Pero esto sólo significa que nada es fundamental, de la misma manera que no hay primera ni última parada en la línea circular del Metro de Londres. La moraleja que se traduce de la escena reduccionista parece decirnos que, o bien lo fundamental no es material, o que nada en absoluto es fundamental.


Autor: Jan Westerhoff es filósofo de la Universidad de Durham y de la Escuela de Estudios Orientales y Africanos y de la Universidad de Londres, ambas en el Reino Unido, y autor del libro “Reality: A very short introduction” -La Realidad: Una muy corta introduccion- (Oxford University Press, 2011)
– Edición Especial: ¿Qué es la realidad? . 
– Imagen 1) Disco de Airy creado al pasar un haz láser a través de la abertura de un agujero de alfiler. Wikipedia.
– Imagen 2) Conjuntos.

http://bitnavegante.blogspot.com.es/2012/10/la-realidad-es-real-la-materia.html?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed:+bitnavegante+(BitNavegantes)&utm_term=Google+Reader

Científicos demuestran la existencia de mundos paralelos

фотон лазер наука физика луч

Foto: ru.wikipedia.org

Un equipo de científicos de la Universidad de Oxford ha demostrado la existencia de los mundos paralelos. 

La teoría de tales mundos fue planteada por primera vez en 1950 por Hugh Everett quien supuso que cada nuevo suceso en el universo posiblemente provocaba su división.

De esta manera, el número de universos alternativos tiende al infinito. La teoría fue reconocida como ficción y olvidada. Pero de repente en Oxford llegaron a la conclusión de que Everett estaba en el camino cierto.

Los cálculos demuestran que las estructuras con ramificaciones que aparecen en la división del Universo en versiones paralelas de sí mismo, explican los resultados de la naturaleza relativista de la mecánica cuántica.

Es decir, según los científicos, no vivimos en un mundo único sino en un solo mundo de muchos mundos paralelos.

eds/rl

http://spanish.ruvr.ru/2012_10_08/fisica-mundos-paralelos-cientificos-descubrimiento/

Convertir productos tóxicos en oro ya es una realidad

orobarra

Los científicos han desarrollado pequeñas bacterias que pueden convertir productos químicos peligrosos en oro de 24 quilates.

A lo largo de la historia la capacidad de convertir materiales sin valor en oro ha sido el santo grial buscado sin descanso por los alquimistas ya que creían que el descubrimiento del proceso,los haría ricos más allá de sus sueños más salvajes.

Pero hasta este año 2012 ,los científicos de la Universidad Estatal de Michigan llegaron al sorprendente descubrimiento en el que las bacterias llamadas metallidurans Cupriavidus son capaces de convertir cloruro de oro, una sustancia residual y toxica ,en oro de 24 quilates.

«La alquimia microbial que estamos haciendo ,es la transformación de algo que no tiene valor en un metal sólido, precioso que es muy valioso», dijo el asistente del profesor Kazem Kashefi.

Lamentablemente, para todos los que ya se habían hecho ilusiones, el proceso no es  particularmente rentable porque es más caro hacer la conversión que el valor real del oro producido.

El resultado de su investigación esta publicado en una obra, llamada «La Gran Obra del amante de metal».

http://froggerenelmundo.blogspot.com.es/2012/10/convertir-productos-toxicos-en-oro-ya.html

Cómo se formó el Universo

Cómo-se-formó-el-Universo.jpg

A lo largo de la historia e incluso la prehistoria de toda la humanidad, la interrogante de la que hoy hablaremos, a inquietado a toda la comunidad científica, desde los primeros filósofos y matemáticos a los astrónomos y físicos del mundo. Lo más probable es que hasta tú en algún momento también te hayas preguntado: ¿cómo se formó el universo? Y que luego de pensarlo un instante, hayas dejado la pregunta rondando por alguna parte de tu cerebro.

Con el correr de los años, el desarrollo y la amplia masificación de las ciencias, la pregunta sigue inquietando absolutamente a todo el mundo. En nuestros días, consideramos la teoría del Big Bang como la teoría más eficaz y de hecho es la más aceptada, pero de todas maneras, tampoco tenemos pruebas completamente factibles como para validarla en definitiva. Echémosle el ojo a esta pregunta para así impregnarnos un poco más en el asunto.

¿Cómo se formó el Universo?

Teoría del Big Bang

Bueno, intentemos comprender mejor la pregunta hablando de la teoría del Big Bang o como en ocasiones se la conoce, la teoría de la Gran Explosión. Esta teoría señala que el origen del Universo habría ocurrido aproximadamente entre hace unos 13 y 15 mil millones de años, cuando una gran explosión generó la expansión de materia y energía dando lugar, en última instancia, a la formación de galaxias.

La prueba más cabal del origen del Universo a través del Big Bang es la actual expansión de las galaxias y los quasars, que continúan expandiéndose gracias a la fuerza expansiva de dicha explosión inicial. Otro hecho que estaría respaldando la explicación que la teoría del Big Bang nos ofrece para comprender el misterio del origen del Universo, es la radiación de fondo en el espacio, conocida en cosmología como la radiación de fondo de microondas.

Radiación de fondo de microondas

Cómo-se-formó-el-Universo-1.jpg

La radiación de fondo de microondas es una amplia radiación de tipo electromagnético que se encuentra dispersa en todo el Universo, llenándolo todo. La comunidad científica supone que se trata de una especie de eco, o de onda de choque de la gran explosión y que tiene las características de un cuerpo negro, se detecta sólo en forma de microondas, teniendo una señal de 160,2 GHz.

Ningún telescopio humano sería capaz de verla, con el paso del tiempo se ha enfriado y debilitado considerablemente, se estima que su temperatura debe rondar entre unos 2.7 grados Kelvin (equivalentes a -271.5º celsius) y que esta radiación es una gran prueba de que el postulado cosmológico de la teoría del Big Bang es correcta.

Stephen Hawking

También tenemos los postulados del gran Hawking, pero claro, como ya lo hemos hablado en tantas oportunidades, lo mejor será dejarlo aparte de esta publicación y tener en cuenta que para Hawking, el universo como es de suponer, no fue creado por un Dios, sino que el universo se ha creado a sí mismo.

En palabras de Stephen Hawking“ Como existe una ley de gravedad, el universo puede y se va a crear de la nada.” “La creación espontánea es la razón por la que hay algo en lugar de nada, por la que existe el universo y por la que existimos todos.”

¿Qué había antes del Big Bang?

Cómo-se-formó-el-Universo-2.jpg

Esta es una pregunta más imposible de responder que la anterior y probablemente la más inquietante de todas las que podríamos llegar a formularnos. En ocasiones me la he formulado y tan solo al dar un poco de rienda suelta a mi mente, termino hasta asustandome de los resultados. Nos la hicimos cuando hablamos sobre aquellas preguntas que no tienen una respuesta científica aún en nuestros días, ¿recuerdas?

Bien, pero de forma muy vaga, podemos teorizar al respecto y creer que en el instante anterior a la explosión inicial todo se reducía a un punto de densidad infinita. Los experimentos realizados actualmente con el LHC tienen el objetivo de reproducir a escala atómica lo ocurrido en esta explosión, para así poder encontrar nuevas respuestas.

Con el correr de los años la teoría del Big Bang se ha convertido en un paradigma para la explicación de este misterio, y aunque no podemos probarla en laboratorio o reducirla a un experimento análogo, es la explicación que más convence a la comunidad científica en relación a este problema.

¿Cuál es tu opinión al respecto? ¿Qué otras teorías (científicas) conoces sobre el origen del universo y cuál crees tú que puede ser la más efectiva o cercana a la realidad?

http://www.ojocientifico.com/2010/08/01/como-se-formo-el-universo

Físicos rusos podrían haber descubierto un nuevo bosón ligero La comunidad científica se muestra escéptica acerca del hallazgo

Especialistas rusos han descubierto huellas de la desintegración de un bosón ligero que no forma parte del Modelo Estándar de física de partículas. Han estimado su masa en ~38 megaelectronvoltios. La partícula que recibió el nombre condicional de Е(38) fue descubierta por los físicos del Instituto Unificado de Investigaciones Nucleares de Dubná (Rusia) en el marco de sus experimentos en el Nuclotrón, el sincrotrón de partículas basado en la tecnología de imanes superconductores. Los experimentos consistían en acelerar los deuterones (es decir, los núcleos del átomo de deuterio -un isótopo pesado estable del hidrógeno- que se componen de un neutrón y un protón) hasta que adquieran una energía equivalente a 2 o 3 gigaelectronvoltios y los protones, hasta 4,6 GeV y dirigir el haz a un blanco de carbono o de cobre. El electronvoltio es una unidad de energía que representa la energía cinética que adquiere un electrón cuando es acelerado por una diferencia de potencial de 1 voltio. En física de altas energías, el electronvoltio resulta una unidad muy pequeña, por lo que son de uso frecuente múltiplos como el MeV o el GeV. Con los más potentes aceleradores de partículas se alcanzan energías del orden del teraelectronvoltio TeV: un ejemplo es el Gran Colisionador de Hadrones, LHC, que puede trabajar con una energía de hasta 14 teraelectronvoltios. En cuanto al experimento ruso, los espectrómetros gamma ubicados a unos tres metros de distancia del eje del haz registraban los resultados de las colisiones de las partículas con los blancos. Han sido estos espectrómetros que detectaron las huellas de la desintegración de la partícula actualmente conocida bajo el nombre condicional de Е(38) en dos fotones -que Е(38) forma dos fotones cuando se desintegra significa que es un bosón-. La respectiva señal apareció en tres tipos de experimento: cuando los protones y los deuterones acelerados hasta 2 GeV caían en el blanco de carbono y cuando los deuterones acelerados hasta 3 GeV caían en el blanco de cobre. Por primera vez los físicos postularon la posible existencia de Е(38) en 2011. En aquel entonces los especialistas Eef van Beveren y George Rupp descubrieron las primeras indicaciones de que existía analizando datos de colisiones de electrones y positrones en el PEP-II, un acelerador de partículas del laboratorio estadounidense SLAC. En febrero de 2012 sumaron los resultados de los experimentos realizados en varios otros colisionadores, como CMD (Rusia), CB-ELSA (Alemania) y COMPASS (la Organización Europea para la Investigación Nuclear). Sin embargo, su suposición provocó una oleada de críticas. Un gran número de científicos, entre ellos los especialistas del CERN que trabajan con el COMPASS, comunicaron que esta teoría no tiene fundamento real. Cabe mencionar que el experimento ruso ha tenido la misma reacción en la comunidad científica internacional. “No hay ninguna partícula nueva”, insiste Tommaso Dorigo, uno de los especialistas que trabajan con el Gran Colisionador de Hadrones. Acentúa que los físicos rusos no proporcionan ningún detalle de cómo determinaron la distribución de la masa invariante de los pares de fotones. Si los especialistas rusos finalmente logran probar de forma definitiva sus observaciones, se tratará del primer descubrimiento de una partícula no predicha por el Modelo Estándar.

Texto completo en: http://actualidad.rt.com/ciencias/view/54466-fisicos-rusos-habran-descubierto-nuevo-boson-ligero

el orden dentro del caos: propuesta revolucionaria encuentra un patrón lógico entre los números primos

Propuesta que algunos consideran ya el planteamiento matemático más revolucionario del siglo XXI, el japonés Shinichi Mochizuki encuentra una relación insospechada entre los números primos, un orden dentro de su caos, que afecta directamente la llamada “conjetura abc”.

Interpretación gráfica de los números primos (que se muestran más oscuros que los otros)

La “conjetura abc” es uno de los planteamientos más fundamentales de las matemáticas, específicamente de la teoría de números. Formulada en la década los 80 por Joseph Oesterlé y David Masser (cada uno por separado), la conjetura considera una ecuación simple de tres números enteros: a+b=c, en la cual dichos números no tienen ningún divisor común salvo 1. Así, por ejemplo, 1+2=3 o 81+64=145, satisfacen la conjetura, pero no 2+2=4. Por sus condiciones mismas, la conjetura abc está relacionada estrechamente con la noción de números primos, aquellos que solo pueden dividirse entre sí mismos y la unidad.

Entre otras implicaciones, de la conjetura se deriva que hay números primeros que dividen a o b muchas veces, por lo cual su presencia tiene que “compensarse” por números primos mayores que dividen c solo pocas veces. 3 divide 81 cuatro veces, 2 divide 64 seis veces, pero si 29 veces 5 da 145, esto significa que los primos 5 y 29 dividen el 145 solo una vez.

Ahora bien, la idea general es que con un conjunto infinito como lo es el de números enteros, este patrón se extiende infinitamente. Sin embargo, Shinichi Mochizuki, matemático japonés de la Universidad de Kioto, recién publicó un extenso estudio alusivo, que le tomó cuatro años completar, en el que propone una solución radicalmente distinta de la conjetura, en la cual existiría una razón lógica para este patrón (una especie de orden dentro del caos que, usualmente se piensa, es propio de los números primos).

Por ahora la comunidad matemática reconoce que pasarán varios años antes de que la propuesta de Mochizuki puedas ser comprendida a cabalidad, pues se trata de un estudio sumamente “extenso y técnico”.

“En este momento, probablemente él es el único que lo conoce todo”, declaró al respecto Dorian Goldfeld, matemático de la Universidad de Columbia en Nueva York.

Con información de Big ThinkNature y The NYT

http://pijamasurf.com/2012/09/el-orden-dentro-del-caos-propuesta-revolucionaria-encuentra-un-patron-logico-entre-los-numeros-primos/

Materia oscura: una frontera de la ciencia

materia-oscura-una-frontera-de-la-ciencia.jpg

Desde que Galileo alzara la vista al cielo a través de su telescopio para observar los movimientos de los cuerpos celestes se han sucedido increíbles descubrimientos que nos ayudan a entender el funcionamiento del Universo y nuestro lugar en el cosmos.

Uno de estos descubrimientos lo llevó a cabo el astrofísico Fritz Zwicky, que midiendo la velocidad de rotación de estrellas alejadas del centro de una galaxia, en relación con la cantidad de materia visible, descubrió que las estrellas se movían mucho más rápido de lo esperado, como si la masa de la galaxia fuera 400 veces mayor. Concluyó que debía haber materia que no emitía luz, por lo que se la llama materia oscura.

Los últimos cálculos estiman que el 95% de la materia del Universo es materia oscura.

Tipos de materia oscura

Se han propuesto diferentes tipos de materia oscura, algunas de estas hipótesis aún están por confirmar y presentan un campo de estudio muy emocionante. Conocer la materia oscura nos ayudaría a entender la estructura misma del Universo, como se formaron las galaxias y nuestro sistema solar.

Massive Astrophysical Compact Halo Objects, en español Objetos Astrofísicos Masivos de Halo Compacto, son por ejemplo, agujeros negros, estrellas de neutrinos y en menor medida estrellas enanas muy débiles para ser detectadas por su luz. Estos cuerpos celestes son percibidos de forma indirecta mediante lentes gravitatorias, que detectan la deformación que sufre la luz al pasar cerca de un campo gravitatorio muy potente. Su presencia ha sido confirmada y conforman el 20% de la materia total.

Los neutrinos son partículas de interacción débil conocidas, cuya masa es casi nula y no ha podido medirse con precisión. Se presentan en grandes cantidades, pero debido a lo difícil que es detectarlas no se puede estimar la masa que aportan a la materia oscura.

materia-oscura-una-frontera-de-la-ciencia-4.jpg

Hipótesis no confirmadas

La cantidad de materia oscura que conocemos no sirve para explicar toda la masa que falta para mantener unidas a las galaxias, ya que la velocidad medida podría desgarrar las galaxias sin la presencia de la materia oscura. Las investigaciones más pujantes en este campo son:

Weakly Interacting Massive Particles o Partículas Masivas de Interacción Débil, son unas partículas teóricas, sobre ls cuales aún no han sido comprobada su existencia. En teoría interaccionan poco con la materia ordinaria y por tanto son difíciles de detectar, pero ayudarían a resolver el puzle de la materia oscura.

Se han propuesto otros modelos para explicar la presencia de partículas masivas de baja interacción, como la hipersimetría en el Modelo Estándar o el uso de cuerdas vibrantes cerradas en la teoría de cuerdas.

Universos paralelos

Los universos paralelos sólo podrían interaccionar con nuestro universo mediante la gravedad. De esta forma se explicaría el motivo por el que la materia oscura se presenta en halos en torno a las galaxias, ya que las galaxias en varios universos se atraerían y alinearían, creando la estructura en la que se dispone toda la materia de nuestro universo.

materia-oscura-una-frontera-de-la-ciencia-5.jpg

http://www.ojocientifico.com/3940/materia-oscura-una-frontera-de-la-ciencia

MISTERIOS DE LA FISICA CUANTICA

«Aquel que no se asombra cuando se encuentra por primera vez con la teoría cuántica es que posiblemente no se ha enterado de nada.»
Niels Bohr, galardonado con el Premio Nobel de Física en 1922 por su trabajo sobre la estructura del átomo.

Si gente como los ganadores del Premio Nobel no entienden la teoría cuántica, entonces ¿qué esperanza nos queda? ¿Qué se hace cuando la realidad llama a tu puerta y te dice cosas que te confunden, te desconciertan y te dejan perplejo? Tu forma de reaccionar, de actuar en la vida, y las opciones que te planteas dicen mucho de ti, pero ése es un misterio que trataremos en otro capítulo. Ahora, de momento, charlemos sobre electrones, fotones y quarks, y de cómo algo (¡y si es que se trata de algo!) tan diminuto puede ser tan insondable y hacer pedazos nuestro mundo tan bien ordenado y comprensible.

Lo conocido se encuentra con lo desconocido
La física clásica de Newton se fundamentaba en observaciones relativas a objetos cotidianos, desde la caída de una manzana a planetas en órbita. Sus leyes se sometían constantemente a examen, se probaban y se difundieron durante cientos de años. Pero a finales del siglo XIX, cuando los físicos comenzaron a crear herramientas para investigar los diminutos campos de la materia, descubrieron algo que les dejó atónitos: ¡la física de Newton no funcionaba! A lo largo de los siguientes cien años se fue creando una descripción científica completamente nueva para explicar el mundo de lo diminuto. Ese nuevo saber, conocido como mecánica cuántica o física cuántica (o simplemente teoría cuántica), no viene a reemplazar la física de Newton, que aún funciona muy bien para explicar los objetos grandes, macroscópicos. La nueva física, en cambio, se inventó para llegar, valientemente, donde la física de Newton no pudo llegar: al mundo subatómico.

«El universo es muy extraño -dice Stuart Hameroff–. Al parecer existen dos grupos de leyes que rigen el universo. En nuestro mundo clásico de cada día, entendiéndolo más o menos a nuestro tamaño y escala de tiempo, las cosas se explican según las leyes del movimiento de Newton, elaboradas cientos de años atrás… Sin embargo, cuando llegamos a una escala más reducida, al nivel de los átomos, aparece un conjunto de leyes diferente. Son las leyes cuánticas».

¿Hecho o ficción?
Lo que la teoría cuántica ha revelado nos deja tan pasmados que suena a ciencia ficción: las partículas pueden estar en dos o más lugares a la vez. (Un experimento muy reciente demostró que una partícula podía estar ¡hasta en 3.000 lugares distintos!). El mismo «objeto» puede parecer una partícula localizable en un lugar, o una onda extendida en el espacio y el tiempo.

Einstein dijo que nada puede viajar más rápido que la velocidad de la luz, pero la física cuántica ha demostrado que las partículas subatómicas se comunican al parecer instantáneamente, sea cual sea la extensión del espacio.

La física clásica era determinista: dado un conjunto cualquiera de condiciones de un objeto (tales como la posición y la velocidad), se puede determinar con seguridad adonde va. La física cuántica es probabilista: nunca se puede saber con seguridad absoluta en qué se convertirá una cosa en concreto.
La física clásica era reduccionista. Se basaba en la premisa de que sólo si se conocen las distintas partes, se podrá finalmente entender el todo. La nueva física es más orgánica y holística; pinta una imagen del universo como un todo unificado, cuyas partes están interconectadas e influyen unas sobre otras.

Lo que quizá sea más importante es que la física cuántica ha borrado la tajante división cartesiana entre sujeto y objeto, entre observador y observado, que ha dominado la ciencia durante cuatrocientos años.

En física cuántica, el observador influye en el objeto observado. No existen los observadores aislados del universo mecánico, sino que todo participa en el universo.

Perplejidad 1: espacio vacío
Una de las primeras grietas en la estructura de la física newtoniana fue el descubrimiento de que los átomos, los pilares del universo físico, supuestamente sólidos, estaban formados en su mayor parte por un espacio vacío. ¿Cómo de vacío? Si utilizamos una pelota de baloncesto para representar el núcleo de un átomo de hidrógeno, el electrón que lo circunda estaría a unos 32 kilómetros de distancia y el espacio intermedio entre ambos estaría vacío. Así pues, cuando mires a tu alrededor recuerda que lo que hay realmente son puntitos diminutos de materia rodeados de nada.

Bueno, en realidad no es así. Ese supuesto «vacío» no está vacío del todo; contiene cantidades enormes de energía, poderosa y compleja. Sabemos que la energía se incrementa a medida que nos adentramos en niveles de materia más sutiles (la energía nuclear es un millón de veces más poderosa que la energía química, por ejemplo). Los científicos dicen ahora que hay más energía en un centímetro cúbico de espacio vacío (el tamaño de una canica, más o menos) que en toda la materia del universo conocido. Aunque los científicos no han conseguido medirla directamente, sí han visto los efectos de ese mar inmenso de energía.

* (Para obtener más información sobre este punto, consultar las «Fuerzas Van der waals» y el «Efecto Casimir»).

Perplejidad 2: ¿partícula, onda u ondícula?
No sólo hay «espacio» entre las partículas, sino que, cuando los científicos han investigado el átomo más detenidamente, han descubierto que las partículas subatómicas (los componentes del átomo) tampoco son sólidas. Al parecer, tienen una naturaleza dual. Dependiendo de cómo las miremos, pueden comportarse como partículas o como ondas. Las partículas se pueden describir como objetos sólidos e independientes, que ocupan un lugar específico en el espacio. Las ondas, por el contrario, ni están localizadas ni son sólidas, sino que están extendidas, como las ondas sonoras o las olas en el agua.

En cuanto ondas, los electrones o los fotones (partículas lumínicas) no ocupan una posición precisa, sino que existen como «campos de probabilidades». Y en cuanto partículas, el campo de probabilidades se «desintegra» y da paso a un objeto sólido localizable en un tiempo y un lugar específicos.

Sorprendentemente, lo que parece marcar la diferencia es la observación o la medición. Sin ser medidos ni observados, los electrones se comportan como ondas, pero en cuanto se someten a observación en un experimento, «dan paso» a una partícula que puede ser localizada.

¿Cómo es posible que algo pueda ser a la vez una partícula sólida y una onda blanda y fluida? Quizá podamos resolver la paradoja si recordamos lo que dijimos antes: las partículas se comportan como una onda o como una partícula. La «onda» es sólo una analogía y la «partícula» es otra analogía tomada de nuestro mundo cotidiano. Erwin Schródinger dio consistencia al concepto de onda en la teoría cuántica, con su famosa «ecuación de ondas», que calcula matemáticamente las probabilidades de onda que tiene la partícula antes de ser observada.

Los científicos no saben realmente con qué RAYOS están tratando, pero, sea lo que sea, nunca han visto algo parecido. Algunos físicos han decidido llamar a este fenómeno «ondícula».

Perplejidad 3: saltos cuánticos y probabilidad
Al estudiar el átomo, los científicos descubrieron que cuando los electrones se mueven de órbita en órbita alrededor del núcleo, no se mueven por el espacio como lo hacen los objetos ordinarios, sino que se mueven instantáneamente. Es decir, desaparecen de un lugar, de una órbita, y aparecen en otra, lo cual se conoce como salto cuántico.

Por si esto no rompiera ya suficientes reglas de la realidad lógica y razonable, los científicos descubrieron también que no podían determinar con exactitud dónde aparecerían los electrones, ni cuándo saltarían. Lo mejor que pudieron hacer fue formular las probabilidades de la nueva situación del electrón (ecuación de ondas de Schródinger). «Dentro de ese mar de posibilidades, la realidad, tal y como la experimentamos, se crea constantemente de nuevo en cada momento», dice el doctor Satinover, y añade: «Pero el verdadero misterio consiste en que, en ese mar de posibilidades, lo que determina qué posibilidad es la que va a ocurrir no es nada que sea parte del universo físico. No hay un proceso que haga que suceda».

O como se dice muchas veces: los eventos cuánticos son los únicos eventos verdaderamente aleatorios en el universo.

Perplejidad 4: el Principio de Incertidumbre En la física clásica, todos los atributos de un objeto, incluyendo su posición y su velocidad, se pueden medir con precisión con el único límite que imponga la tecnología. Ahora bien, en el nivel cuántico, cuando se mide una propiedad, como la velocidad, no se puede obtener una medición precisa de otras propiedades, como la posición. Si se sabe dónde está algo, no se puede saber a qué velocidad se mueve. Y si se sabe a qué velocidad se mueve, no se sabe dónde está.

El Principio de Incertidumbre (conocido también como Principio de Indeterminación) lúe formulado por Werner Heisenberg, uno de los pioneros de la física cuántica. Sostiene que no se puede conseguir una medición precisa de la velocidad y la posición, por mucho que se intente. Cuanto más se concentra uno en una de ambas magnitudes, más incierta se hace la medición de la otra.

Perplejidad 5: la no-localidad, EPR, el teorema de Bell y la interconexión cuántica
A Albert Einstein no le gustaba la física cuántica, por decirlo suavemente. Entre otras cosas, se refirió al carácter aleatorio que acabamos de describir con la infausta afirmación: «Dios no juega a los dados con el Universo». Y Niels Bohr le contestó: «¡Deje de decirle a Dios lo que tiene que hacer!».

En 1935, en un intento de frustrar la mecánica cuántica, Einstein, Pedolsky y Rosen (EPR) idearon y pusieron por escrito un experimento tratando de demostrar lo ridícula que era. Dedujeron hábilmente una de las consecuencias de la teoría cuántica que no fue apreciada en la época: te las arreglas para tener dos partículas creadas a la vez, lo que significa que estarán interconectadas o superpuestas. Entonces, las lanzas a lugares opuestos del universo; luego, haces algo a una de ellas para que cambie de estado y la otra partícula cambia al instante para adoptar el estado correspondiente. ¡Instantáneamente!

La idea era tan absurda que Einstein se refería a ella como «una acción fantasmagórica a distancia». Según la teoría de la relatividad, nada puede moverse a una velocidad mayor que la de la luz. ¡Pues eso era infinitamente más rápido! Además, la idea de que un electrón pudiera seguir la pista a otro que estaba en la otra punta del universo sencillamente transgredía cualquier juicio sensato sobre la realidad.

Después, en 1964, John Bell formuló una teoría que decía que sí, que, en efecto, la afirmación de EPR era correcta. Que eso es exactamente lo que ocurre; que la idea de que algo sea local, o exista en un lugar concreto, es incorrecta. Todo es no-local. Las partículas están íntimamente conectadas en un nivel que trasciende el tiempo y el espacio.

Esta idea se ha verificado una y otra vez en el laboratorio durante años, desde que Bell publicó su teorema. Intenta concentrarte en ella durante un minuto. En el mundo cuántico, el tiempo y el espacio (los rasgos básicos del mundo en que vivimos) se reemplazan por la idea de que todo se está en contacto con todo, todo el tiempo. No es de extrañar que Einstein pensara que semejante idea supondría un golpe mortal para la mecánica cuántica: no tiene sentido.

Sin embargo, parece ser que ese fenómeno es una ley factible del universo. De hecho, cuentan que Schródinger afirmaba que la interconexión no era uno de los aspectos interesantes de la teoría cuántica: era el aspecto. En 1975, el físico teórico Henry Stapp definió el Teorema de Bell como «el descubrimiento más profundo de la ciencia». Observa que dice ciencia y no meramente física.

La física cuántica y el misticismo
Probablemente ahora resulte más fácil ver por qué los terrenos de la física y del misticismo se rozan uno con otro. Las cosas están separadas pero están siempre en contacto (no-locales); los electrones se mueven de A a B pero nunca en medio de las dos; la materia parece ser (matemáticamente hablando) una función de onda distribuida y sólo se desintegra, o existe espacialmente, cuando se mide.

Muchos de los fundadores de la teoría cuántica tenían un interés enorme en temas espirituales. Niels Bohr utilizaba el símbolo ying/yang en su escudo de armas; David Bohm tenía largas discusiones con el sabio indio Krishnamurti; Erwin Schródinger daba conferencias sobre los upanishads.’

(Los upanishads son textos sagrados del hinduismo relacionados con los vedas. N.delT.)
Las preguntas sobre qué causa la desintegración de la función ondular, o sobre si los eventos cuánticos son realmente aleatorios, permanecen aún sin respuesta en su mayoría. No obstante, aun cuando sea imperiosa la necesidad de elaborar un concepto verdaderamente unificado de la realidad que nos incluya forzosamente y que dé respuesta a los misterios cuánticos, el filósofo contemporáneo Ken Wilber, también nos insta a ser cautos:

El trabajo de estos científicos (Bohm, Pribram, Wheeler y todos los otros) es demasiado importante como para lastrarlo con especulaciones insensatas sobre el misticismo. Y el propio misticismo es demasiado profundo como para vincularlo con fases de la especulación científica. Dejemos que se valoren el uno al otro y dejemos que nunca cese el diálogo entre ellos y el intercambio mutuo de ideas…(Ken Wilber, El paradigma holográfico, Kairós, Barcelona, 1987).

http://secretosdelamatrix.blogspot.com.es/2012/09/misterios-de-la-fisica-cuantica.html

La historia cósmica de la vida desde el fósforo

Referencia: LiveScience.com, vía Astrobiology Magazine.
Autor: Michael Schirber, 23 de agosto 2012

A pesar de su impresionante hoja de servicios a la vida biológica, el fósforo es relativamente inaccesible como elemento. Para entender cómo el fósforo obtuvo este papel tan prominente, los científicos han modelado un entorno geoquímico primitivo de la Tierra y el espacio.

Los elementos más comunes en una célula típica son el hidrógeno, el oxígeno, el carbono, el nitrógeno, el fósforo y el azufre. Todos ellos, excepto el fósforo, se encuentran entre los 10 elementos más abundantes del sistema solar. El fósforo está en el número 17.

«El fósforo es el elemento menos abundante cósmicamente en relación con su presencia en la biología», apuntó Matthew Pasek, de la Universidad del Sur en Florida.

Esta escasez de fósforo es si cabe más aguda en la superficie de la Tierra, donde la mayor parte del fósforo está encerrado en determinados minerales donde la vida tiene dificultades para usarlos.

Entonces, ¿cómo llegó la vida a depender de este relativamente raro elemento?

Pasek, está dirigiendo un esfuerzo por entender las posibles vías químicas que pudo haber tomado el fósforo para estar disponible para la vida en la Tierra primitiva. Esta investigación ha sido apoyada por el programa Exobiology and Evolutionary Biology de la NASA.

Obtener lo suficiente

El fósforo no suele recibir tanta atención, como ocurre con otros nutrientes esenciales como el calcio y el hierro, pero el elemento P se presenta en una amplia y sorprendentemente gama de moléculas biológicas.

Para empezar, el fósforo es un elemento estructural importante del ADN y el ARN. Ambas ambas moléculas genéticas tienen un esqueleto de azúcar-fosfato. El fosfato (PO4) funciona como una especie de «súper-pegamento», ya que tiene tres átomos de oxígeno que transportan cargas en solución. Dos de ellos forman enlaces iónicos con otros dos azúcares vecinos, mientras que el tercer oxígeno se queda «en suspensión» con carga negativa, lo que hace que el ADN por completo o la molécula de ARN estén cargados negativamente. Esta carga global ayuda a mantener a la molécula a la deriva separada de ubicaciones prohíbidas.

No muchas moléculas pueden llevar a cabo este acto de malabarismo de tres cargas. Elarseniato es una posibilidad. Recientemente, un grupo de investigadores afirmó haber encontrado un microbio que podía usar arseniato en lugar de fosfato, pero la controversia se mantiene sobre este presunto descubrimiento.

«El jurado aún está deliberando sobre el arseniato, pero está claro que el fosfato es la mejor opción cuando se le da la opción», adujo Pasek.

El fosfato juega otros papeles en la célula además de su presencia en el ADN. Se muestra tres veces en el trifosfato de adenosina o ATP, que es una forma vital de almacenar energía en las células. Muchas funciones biológicas requieren energía de la descomposición (o quema) de ATP, en lo que suele llamarse la «unidad molecular de medida» de la transferencia de energía.

«El cuerpo humano aporta su peso en ATP cada día y lo quema», explica Pasek.

El fósforo también tiene un papel importante en los vertebrados, cuyos huesos y dientes contienen apatita, un mineral de fosfato altamente estable.

Conseguir vitamina P

Debido a su importancia vital, todos los organismos de la Tierra deben encontrar una fuente de fósforo.

Los humanos y otros animales obtienen su fósforo al comer plantas (o comiendo animales que comen plantas). Las plantas extraer los compuestos de fósforo del suelo, pero buena parte de esto es material reciclado de la materia orgánica en descomposición.

Las plantas no son capaces de reciclar todo el fósforo disponible en el suelo, así que algo de ello acaba por entrar en el océano a través de la escorrentía. Una vez allí, lo pueden utilizar los organismos marinos, pero ocasionalmente, el fosfato se asienta en el fondo marino, donde vuelve de nuevo a ser incorporado en los sedimentos de roca.

Una vez que el fósforo está encerrado en minerales insolubles, se necesita muchísimo tiempo para que pueda regresar a una forma que las plantas y otros organismos puedan utilizar. En efecto, el ciclo del fósforo es uno de los  elementos de importancia biológica con ciclo más lento.

No satisfecho con la espera de los procesos geológicos para liberar el fósforo, los humanos en la actualidad gastan mucho esfuerzo en la minería de «roca de fosfato» y la modifica químicamente para hacer abono.

Y he aquí el problema para los astrobiólogos. Las primeras formas de vida no tuvieron a nadie que les rociara con el rico fertilizante P, así que ¿de dónde sacaron el fósforo?

Un camino distinto

La mayor parte del fósforo de la superficie de la Tierra se halla en algún tipo de fosfato. La razón, explica Pasek, es que el fosfato es el estado de menor energía para P en el ambiente rico en oxígeno de nuestro planeta. También existe de otas formas, pero más reducido.

«El fósforo reducido es químicamente más reactivo que el fosfato», señala Pasek, y esta reactividad adicional podría haber ayudado la fósforo a entrar, de manera furtiva, en el juego de la vida hace miles de millones de años.

Algunos ejemplos de compuestos de fósforo reducido incluyen los fosfuros. Estas moléculas suelen ser combinaciones de fósforos y metales, como el fosfuro de zinc, que se encuentra en el veneno de rata, o el fosfuro de hierro-níquel llamado schreibersita.

La Tierra contiene una gran cantidad de fosfuro, pero la mayor parte se encuentra en el núcleo, enterrado bajo 3.219 km. de roca. En la superficie, la forma más común de fosfuro de origen natural es la schreibersita, que no viene de abajo, sino de arriba, en forma de meteoritos.

«No podemos extraer material del núcleo de la Tierra, pero sí tenemos acceso al material del núcleo de los asteroides que se han roto, creando meteoritos», añadió Pasek.

Los fosfuros tienden a formarse allí donde el oxígeno es escaso y los metales abundantes. Por lo tanto, los núcleos de la mayoría de cuerpos astronómicos tienen fosfuros. También pueden formarse cuando un mineral de fosfato es golpeado por un rayo o un impacto de alta energía.

Pasek y sus colegas, han estudiado muestras geológicas de fosfuros, y han encontrado que la mayoría de fosfuros en la superficie de la Tierra provenían de meteoritos. Con el tiempo, gran parte de este material ha evolucionado en fosfatos. El equipo estima que de 1 a un 10 por ciento de los fosfatos hallados actualmente en la Tierra provienen de meteoritos.

Volviendo atrás en el tiempo

Aunque los fosfuros y otros compuestos de fósforo reducido no desempeñan ningún papel importante en la biología actual, sí que pudieron ser más prominentes cuando la vida luchaba por tener un punto de apoyo en este planeta.

Con simulaciones por ordenador, Pasek y sus colegas están modelando la química relacionada con P en diferentes períodos de tiempo, desde el principio del sistema solar hasta las primeras etapas de la vida. Se centran en la Tierra, pero también están buscando en otros lugares donde la química de P pudo haber sido importante, como los cometas y en la luna Titán.

Ellos han aumentado sus simulaciones con experimentos, en los que la schreibersita y otros minerales meteóricos se van añadiendo a una especie de «sopa primordial» de agua y moléculas orgánicas. Estas mezclas han producido algunos compuestos órganofosforadosque son similares a los encontrados en la biología. Por ejemplo, los investigadores han obtenido trifosfatos que pertenecen a la misma familia molecular de ATP.

«Hemos tenido buena suerte con los experimentos hasta ahora», comentó Pasek.

¿La receta original?

A través de su trabajo, el equipo de Pasek espera ofrecer el paisaje químico del fósforo a través de los primeros 2 mil millones de años de historia geológica de la Tierra. Esto podría ayudar a revelar cuándo y cómo la vida llegó a depender tan fuertemente de este elemento.

«El tiempo y el modo de entrada del fósforo en la vida es un intrigante rompecabezas», agrega Nicholas Hud, de Georgia Tech.

Hud cree que el fósforo no pudo haber sido uno de los ingredientes de la primera receta de la vida.

«Los ácidos nucleicos, las proteínas y los lípidos, todos ellos usan fósforo, pero podemos imaginar que pudo tratarse de una posterior sustitución de moléculas más simples» indicó.

En los ácidos nucleicos, por ejemplo, el papel de «pegamento» del fosfato pudo haber sido llenado por el glioxilato, una molécula todavía utilizada hoy en día por la vida. Hud piensa que el fósforo pudo comenzar en forma de trazas en unos pocos procesos biológicos, y que sólo más tarde, la vida encontró su potencial para ella.

«Una vez que la vida desarrolló la maquinaria molecular que permitió la incorporación del fósforo, e incluso la ‘cosecha’ de fósforo, la vida pudo evolucionar hacia un nivel más alto», añadió Hud. «La inclusión del fosfato probablemente representó un mayor avance evolutivo de la vida (supuniendo que no estuviese allí desde el principio), por esa razón es tan importante comprender el origen y la evolución primitiva de la vida.»


– Fuente: Astrobiology Magazine, una publicación patrocinada por el programa de astrobiología la NASA . 

http://bitnavegante.blogspot.com.es/2012/08/historia-cosmica-de-la-vida-con-fosforo.html?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed:+bitnavegante+(BitNavegantes)&utm_term=Google+Reader

El algoritmo que recorre el mundo

Referencia: NewScientist.com ,
Autor: Richard Elwes, 13 de agosto 2012

Sus servicios son llamados miles de veces por segundo para asegurar que los negocios del mundo funcionan sin problemas, pero sus matemáticas ¿son realmente tan dignas de confianza como pensamos?

Es posible que no haya oído hablar del algoritmo que dirige el mundo. Pocas personas lo conocen, a pesar de que puede determinar, y mucho, lo que va sucediendo en nuestro día a día: la comida que tenemos para comer, el horario del trabajo, cuando vendrá el tren que nos transporta. En algún lugar, en algún sótano perdido hay un servidor, y justo ahora es probable que esté trabajando en algún aspecto de su vida de mañana, de la semana próxima o de aquí a un año.

Tal vez la ignorancia del funcionamiento de este algoritmo sea una bendición. En la puerta de la Academia de Platón, en la antigua Atenas, colgaba una leyenda «Aquí no entra nadie que no sepa geómetría«. Eso fue fácil de decir en aquel entonces, cuando la geometría se basaba firmemente en las tres dimensiones del espacio que construían nuestros cerebros. Sin embargo, este algoritmo opera en planos totalmente superiores. Cuatro, cinco, miles o incluso millones de dimensiones: estos son los espacios inimaginables de la serie de algoritmos matemáticos diseñados para indagar.

Quizá debamos esforzarnos un poco hasta conseguir ubicarnos mejor en su onda. Debido a que resulta tan poderoso, sin duda, el algoritmo se recorre con un punto de incomodidad. Sus fundamentos matemáticos, aunque no estructuralmente defectuosos, sí empieza a desmoronarse en su avance. Con tanta cosa descansando sobre él, puede no ser tan fiable como parecía.

Para entender de qué se trata todo esto, primero tenemos que ahondar en las profundas y sorprendentes formas  en las que las abstracciones de la geometría describen el mundo que nos rodea. Las ideas sobre este tipo de conexiones ya vienen tan de lejos como Platón, que escogió las cinco formas geométricas 3D, o poliedros, cuya perfecta regularidad, pensaba, representaban la esencia del cosmos. El tetraedro, cubo, octaedro y el icosaedro de 20 caras, encarnaban los «elementos» de fuego, tierra, aire y agua, y el dodecaedro de 12 caras la forma del mismo universo.

Las cosas han cambiado un poco desde entonces. Las teorías de la física de hoy invocan geometrías extrañamente deformadas desconocidas por Platón, o proponen la existencia de dimensiones espaciales más allá de la obvia inmediatez de tres. Los matemáticos, también han llegado a dimensiones cada vez mayores, extendiendo las ideas sobre los poliedros a alucinantes «politopos«, con cuatro, cinco o cualquier número de dimensiones.

Un ejemplo de ello es una ley de poliedros propuesto en 1957 por el matemático estadounidense, Warren Hirsch, quien afirmaba que el número máximo de aristas que tiene que cruzar entre dos vértices en cualquier poliedro, nunca será mayor que el número de sus caras menos el número de dimensiones del problema, en este caso tres. Los dos vértices opuestos en un cubo de seis caras, por ejemplo, están separados exactamente por tres aristas, y ningún par de vértices está separado a cuatro o más.

La conjetura de Hirsch mantiene su validez para todos los poliedros 3D. Pero nunca se ha demostrado, de manera general, para las formas de dimensiones superiores. La expectativa de su aplicación ha venido, en gran parte, por analogía con otras reglas geométricas que han demostrado ser igualmente elásticas (ver Anexo I: «Aristas, vértices y caras»). Cuando se trata de garantizar rutas cortas entre los puntos en una superficie de una forma 4D, 5D ó 1000D, la regla de Hirsch ha sido uno de esos irresolubles problemas de las matemáticas, una mera conjetura.

Pero, ¿es esto relevante? Porque, para los matemáticos de hoy en día, las dimensiones no solo hablan del espacio. Cierto, el concepto surgió cuando teníamos tres coordenadas de localización que podían variar de forma independiente: arriba-abajo, izquierda-derecha y adelante-atrás. Pasado el tiempo, nos encontramos con una cuarta «dimensión» que funcionaba de manera muy similar, aparte del hecho inexplicable de que debemos pasar a través de él en una sola dirección.

Pero más allá del movimiento, a menudo nos encontramos con situaciones del mundo real donde podemos variar mucho más de cuatro cosas de manera independiente. Supongamos, por ejemplo, que usted está haciéndose un bocadillo para el almuerzo. Su refrigerador contiene 10 ingredientes que puede utilizar en cantidades diversas: queso, salsa picante, atún, tomates, huevos, mantequilla, mostaza, mayonesa, lechuga y hummus. Estos ingredientes no son más que las dimensiones de un problema para hacer un bocadillo. Esto puede ser tratado geométricamente: combinar la elección de los ingredientes de cualquier manera particular, y completarlo se representa por un solo punto en un espacio de 10 dimensiones.

Problemas brutales

En este espacio multidimensional, es poco probable que haya una libertad ilimitada de movimiento. Habría sólo dos trozos de queso descomponiéndose en la nevera, por ejemplo, o a lo sumo, unos restos en la parte inferior del frasco de mayonesa. Nuestras preferencias personales pueden suministrar otras limitaciones más sutiles a nuestro problema de hacer el bocadillo: echar un ojo a las calorías, tal vez, o el deseo de no mezclar el atún con el hummus. Cada una de estas restricciones representa un límite a nuestro espacio multidimensional, más allá del cual no podemos movernos. Nuestros recursos y preferencias, en realidad van construyendo un politopo multidimensional a través del cual debemos navegar hacia nuestro perfecto bocata.

Realmente, los procesos de toma de decisión de nuestro bocadillo son susceptibles de ser un tanto aleatorios, con tan sólo unas pocas variables a tener en cuenta, y el resultado posible de la mera satisfacción gástrica, eso no es un problema. Pero en los negocios, el gobierno y la ciencia, con problemas de optimización similares van creciendo por todas partes, y rápidamente se transforman en bestias con muchos miles e incluso millones de variables y restricciones. Un importador de fruta podría tener un problema 1000-dimensional para hacer frente, supongamos, al envío de plátanos procedentes de cinco centros de distribución que almacenan un número variable de frutas a 200 tiendas con distintas cantidades de demanda. ¿Cuántos paquetes de fruta deben ser enviados desde qué centros y a qué tiendas para reducir al mínimo los costos totales de transporte?

De igual manera, un gestor de fondos que desee organizar una cartera óptima que equilibre el riesgo y la expectativa dentro de un rango de acciones, la programación del ferrocarril que decide la óptima configuración del personal de plantilla y de los trenes, o de una fábrica, la gerencia de un hospital para averiguar cómo hacer malabares con los finitos recursos de maquinaria o de salas disponibles. Cada uno de estos problemas puede ser representado como una figura geométrica, cuyo número de dimensiones es el número de variables dicho problema, y ​​cuyas fronteras están delimitadas por las limitaciones de lo que hay (ver diagrama). En cada caso, necesitamos encajar nuestra salida a través de este politopo hacia su punto óptimo.

El trabajo del algoritmo

Su nombre completo es algoritmo simplex, y surgió tardíamente en la década de 1940, de la mano del matemático estadounidense, George Dantzig, que se pasó la segunda guerra mundial investigando las formas de aumentar la eficiencia logística de la fuerza aérea de EE.UU. Dantzig fue un pionero en el campo de lo que él llamó la programación lineal, que utiliza las matemáticas de politopos multidimensionales para resolver problemas de optimización. Una de las primeras ideas a las que llegó fue la del valor óptimo de la «función objetivo» (lo que se pretende maximizar o minimizar, sea ganancias, tiempo de viaje o lo que sea), se garantiza que se encuentre en uno de los vértices del politopo. Esto inmediatamente hace que las cosas sean mucho más manejables: hay una infinidad de puntos dentro de cualquier politopo, pero solamente un número finito de curvas.

Si tenemos sólo unas cuantas dimensiones y limitaciones con las que jugar, este hecho es todo lo que necesitamos. Podemos ver nuestro camino a lo largo de las aristas del politopo, testeando el valor de la función objetivo en cada vértice hasta encontrar su punto óptimo. Pero las cosas aumentan rápidamente. Aunque sólo sea un problema de 10 dimensiones con 50 restricciones —como podría ser el asignar un horario de trabajo a 10 personas con diferentes especialidades y limitaciones de tiempo—, ya nos encontraríamos con varios miles de millones de vértices para ensayar.

El algoritmo simplex busca de manera más rápida. En lugar de vagar al azar a lo largo de las aristas de un politopo, implementa una «regla pivote» en cada vértice. Existen variaciones sutilmente diferentes de esta regla pivote en diferentes implementaciones del algoritmo, pero a menudo consiste en elegir la arista a lo largo del cual la función objetivo desciende más abruptamente, eso garantiza que cada paso nos lleva más cerca del valor óptimo. Cuando se descubre un vértice donde ya no es posible descender más, sabemos que hemos llegado al punto óptimo.

La experiencia práctica demuestra que el método simplex es generalmente una solucionador de problemas muy hábil, que suele alcanzar una solución óptima después de un número de pivotes comparable con el número de dimensiones del problema. Esto significa un máximo probable de unos pocos cientos de pasos para resolver un problema de 50 dimensiones, en lugar de los miles de millones con el enfoque de ‘probar y comprobar’. Este tiempo de ejecución se dice que es «polinomial» o simplemente «P», el punto de referencia para los algoritmos prácticos que tienen que ejecutarse en procesadores limitados en el mundo real.

El algoritmo de Dantzig vio su primera aplicación comercial en 1952, cuando Abraham Charnes y William Cooper estaban en lo que hoy es la Universidad Carnegie Mellon en Pittsburgh, Pennsylvania, formaron equipo con Robert Mellon en la Gulf Oil Company para descubrir la mejor manera de combinar las existencias disponibles de cuatro productos de petróleo diferentes en un combustible de aviación, con un óptimo nivel de octanaje.

Desde entonces, el algoritmo simplex ha ido conquistando el mundo, integrado tanto en la optimización de paquetes comerciales como en productos de software a medida. Siempre que alguien está tratando de resolver un problema de optimización a gran escala, lo más probable es que algún chip de computador esté canturreando su melodía. «Es probable que se hagan decenas o cientos de miles de llamadas del método simplex cada minuto», afirmaJacek Gondzio, especialista en optimización de la Universidad de Edimburgo, Reino Unido.

Sin embargo, aunque su popularidad creció en los años de 1950 y 1960, las bases del algoritmo comienza a mostrar signos de tensión. Para empezar, su tiempo de ejecución es polinómica solamente de promedio. En 1972, los matemáticos Victor Klee y George Minty reforzaron este aspecto ejecutando el algoritmo en torno a algunos «hipercubos» multidimensionales ingeniosamente deformes. Al igual que un cuadrado tiene cuatro vértices, y un cubo ocho, un hipercubo de n dimensiones tiene 2n vértices. La precaria manera de Klee y Minty de poner juntos sus hipercubos significó que el algoritmo simplex tenía que recorrer a través de todos los vértices antes de aterrizar en el óptimo. Con sólo 41 dimensiones, eso deja al algoritmo con más de un billón de aristas que atravesar.

Una historia similar se mantiene para todas las variantes de la regla pivote del algoritmo, ensayado desde el diseño original de Dantzig: por muy bien que lo haga, en general, siempre es posible inventar algunos difíciles problemas de optimización en los que no da buenos resultados. La buena noticia es que estos casos patológicos tienden a no aparecer en las aplicaciones prácticas, aunque exactamente el por qué esto es así no está todavía claro. «Este comportamiento escapa a cualquier explicación matemática rigurosa, pero sin duda agrada a los profesionales», señala Gondzio.

Pretendientes deslumbrantes

Ese fallo fue suficiente para estimular a los investigadores a encontrar una alternativa al método simplex. El principal pretendiente apareció en los años 1970 y 1980 con el descubrimiento de los “métodos de punto interior«, unos algoritmos llamativos, que en lugar de hacernos sentir su camino alrededor de la superficie de un politopo, perfora un camino a través de su núcleo. Venían con el sello de aprobación de una genuina matemática, la garantía que se ejecutan siempre en tiempo polinómico, y habitualmente llevaban un menor número de pasos para alcanzar el punto óptimo que el método simple, rara vez necesitaban más de 100 movimientos, independientemente de cuántas dimensiones tuviese el problema.

El descubrimiento generó mucho entusiasmo, y por un tiempo pareció inminente la desaparición del algoritmo de Dantzig. Sin embargo, sobrevivió e incluso prosperó. El problema con los métodos de punto interior, es que cada paso conlleva mucho más cálculo que un pivote simplex: en vez de comparar una función objetivo a lo largo de un pequeño número de aristas, debe analizar todas las direcciones posibles dentro del interior del politopo, una empresa gigantesca. Para algunos problemas industriales enormes, este inconveniente es la pena, pero de ninguna manera para todos. Gondzio estima que entre el 80 y el 90 por ciento de los problemas actuales de optimización lineal se resuelven aún con alguna variante del algoritmo simplex. Lo mismo ocurre con algunos de los más complejos problemas no-lineales (ver Anexo III: «Bajando derecho a la línea»). «Como devoto investigador del punto interior tengo un gran respeto por el método simplex», apunta Gondzio. «Y estoy haciendo mi mejor esfuerzo tratando de competir».

Me encantaría encontrar algo mejor: alguna variante nueva del algoritmo simplex que conservara todas sus ventajas, pero también que siempre se ejecutara en tiempo polinómico. Para el matemático y medallista estadounidense, Steve Smale, según escribía en 1998, el descubrimiento de un algoritmo «firmemente polinomial» es una de las 18 cuestiones matemáticas pendientes a tratar en el siglo XXI.

Sin embargo, encontrar tal algoritmo puede que ni siquiera sea posible.

Esto es debido a la existencia de que un algoritmo así de mejorado e infalible, que depende de un supuesto geométrico más fundamental, que existe una ruta lo bastante corta por la superficie del politopo entre dos vértices. Sí, lo tenemos: la conjetura de Hirsch.

El destino de la conjetura y el algoritmo siempre han estado entrelazados. Hirsch fue él mismo pionero en investigación operativa y un colaborador inicial de Dantzig, y fue en una carta a Dantzig en 1957, donde reflexionando acerca de la eficiencia del algoritmo que Hirsch, formuló por primera vez su conjetura.

Hasta tiempos recientes, poco había pasado para poner en duda la misma. Klee probó su certeza en todos los poliedros 3D en 1966, pero tenía el presentimiento de qie no ocurría lo mismo con los politopos de más dimensiones. En sus últimos años, se creó el hábito de sugerirlo como problema a todos los investigadores con los que se cruzaba. En 2001, uno de ellos, un joven español, Francisco Santos, ahora en la Universidad de Cantabria en Santander, asumió el reto.

Como suele pasar con este tipo de rompecabezas, le llevó su tiempo. Después de casi una década trabajando en el problema, Santos estaba listo para anunciar sus hallazgos en una conferencia en Seattle en 2010. El mes pasado, el documento resultante se publicó en la revista Annals of Mathematics (vol 176, p 383). En ella, Santos describe un politopo de 43 dimensiones con 86 caras. Según la conjetura de Hirsch, el camino más largo a través de esta forma tendría (86-43) pasos, es decir, 43 pasos. Pero Santos fue capaz de establecer de manera concluyente que contiene un par de vértices de al menos 44 pasos.

Aunque sólo sea como caso especial único, se había demostrado que la conjetura de Hirsch era falsa. «Se resolvió un problema que no sabíamos cómo enfocar desde hacía muchas décadas», señaló Gil Kalai, de la Universidad Hebrea de Jerusalén. «La prueba de entera es profunda, compleja y muy elegante. Es un gran resultado.»

Un gran resultado, cierto, y mala noticias para el algoritmo simplex. Desde primera refutación de Santos, además los desafíantes politopos de Hirsch se han encontrado en dimensiones de tan sólo 20. Hay únicamente un límite conocido en la distancia más corta entre dos puntos de la superficie de un politopo, y se encuentra ahora en una expresión matemática obtenida por Kalai y Daniel Kleitman del Instituto de Tecnología de Massachusetts en 1992. Esta delimitación es mucho mayor que la que habría proporcionado la conjetura de Hirsch teniéndola por verdadera. Es demasiado grande, de hecho, para garantizar un tiempo de ejecución razonable para el método simplex, cualquiera que sea la regla pivote que podamos imaginar. Si esto es lo mejor que podemos hacer, es posible que el objetivo de Smale de un algoritmo idealizado quede para siempre fuera del alcance, con sus consecuencias potencialmente graves para el futuro de la optimización.

No todo está perdido, sin embargo. Una variante altamente eficiente del algoritmo simplex todavía es posible, si la denominada conjetura polinomial de Hirsch es cierto. Esto estrecha considerablemente la delimitación de Kalai y Kleitman, garantizando que no hay caminos politopos desproporcionadamente largos, en comparación con su dimensión y el número de caras. Un tema de interés ,antes de que la conjetura Hirsch se desvaneciera, es que la versión polinomial ha llamado intensamente la atención desde el anuncio de Santos, tanto como el profundo acertijo geométrico y un lugar prometedor para olisquear sobre un procedimiento de optimización óptimamente eficiente.

Hasta el momento, no hay ninguna señal concluyente de que la conjetura polinomial se pueda probar de alguna manera. «No estoy seguro en absoluto», comenta Kalai. «Lo interesante acerca de este problema es que no sabemos la respuesta.»

Seguir leyendo El algoritmo que recorre el mundo