Archivo por días: septiembre 6, 2011

¿Por qué ahora?: Israel simulará esta semana un ataque a un reactor nuclear

 Traducción Trinity a Tierra

La Dirección de  Interior llevará a cabo un importante ejercicio llamado “Fernando”: Israel está estudiando muy de cerca la reciente crisis en la planta japonesa de Fukushima

 El Prof. Uzi Even, ex dirigente del Centro de Investigación Nuclear en Dimona, en martes dio la voz de alarma de que el reactor está anticuado y un posible daño a su sistema de refrigeración podría resultar en un fallo de consecuencias mucho más graves.

La Dirección de  Interior y la Comisión de Energía Atómica ( de Israel) llevarán a cabo un importante ejercicio esta semana para simular un ataque contra el reactor nuclear israelí de Dimona en el Negev.

El ejercicio ha sido denominado “Fernando” por la fusión nuclear en 1959 en el Valle de San Fernando en Los Angeles donde se necesitó un mes entero para obtener el control del reactor y más de 50 años para Estados Unidos limpiar la zona contaminada.

Israel ha estudiado de cerca la reciente crisis en Japón que se produjo tras los terremotos en Fukushima y que llevaron a una fusión nuclear en un número de reactores y está tratando de obtener lecciones que puedan ser aplicadas en caso de un ataque nuclear en las instalaciones de Dimona.

Hay que subrayar que la tecnología en el reactor de Dimona y en los reactores japoneses es similar. “Los reactores fueron construidos sobre la misma época, hace 40 o 50 años. En principio, la planificación y diseño de los mismos es similar. El punto débil de ambos  es el sistema de enfriamiento que debe ser operado con una enorme cantidad de energía, incluso después de que el reactor haya sido apagado.” dijo Even.

“Si hay un fallo en el sistema de refrigeración, esto causará que el núcleo colapse. Esto es lo que sucedió en los reactores japoneses.”

Fin de artículo(fuente)

No tiene nada de particular realizar una prueba de seguridad en una central nuclear. Pero el caso es que estamos en un escenario muy turbulento donde la tensión entre Israel y otros países de la región es máxima. Estas son sólo algunas notas que reflejan  cuál es el escenario actual:

Aumenta tensión Turquía-Israel por flotilla

La segunda flotilla no consiguió llegar a Israel,

Turquía ha expulsado recientemente al embajador de Israel  y habla de que “ha llegado el tiempo para Israel de pagar el precio por cometer acciones ilegales”.

Mientras tanto, Irán e Israel  hacen  en el Mar Rojo una demostración de poderío militar

Recientemente, un ex   jefe del Mossad Meir Dagan y ex jefe de recursos humanos, el general Gabi Ashkenazi hicieron unos comentarios públicos sin precedentes en los que advertían de que si Israel atacara Irán, esto sería un   espectacular acto de naturaleza auto-destructiva y lamentaban que el primer ministro Benjamin   Netanyahu y el ministro de Defensa  Ehud Barak estuvieran ambos tan inclinados a tales caprichos imprudentes .

En estas acciones, gestos y decisiones políticas que sin duda pueden ser calificadas de “auto-destructivas”,  se observa la influencia clara de las ideas de la secta judía milenarista de Jabad Lubavitch que está considerado el lobby y grupo religioso con mayor influencia en las decisiones del gobierno de los Estados Unidos.

El objetivo inmediato de los de Lubavicth es extender la “santidad” por toda la tierra,  pero, atención, esa “santidad” se alcanza elevando las cosas materiales para formar una conexión con Dios, en lugar de llegar por medio del rechazo  lo material.   Además de esto, creen que si el mundo alcanza el grado de “santidad” necesario, se acelerará la llegada del Mesías y esto acabará con todos los males que aquejan la Tierra.

Esto se podría traducir en forma coloquial como “cuanto peor, mejor”. Cuanto mayor sea el hundimiento del mundo en el lodo de “lo material”, más cerca estará el fin de este mundo y por lo tanto la llegada del Nuevo Mesías.

Los sufís creen que el Dajal (El Dios de lo Material) ya está en este mundo y que sus defensores trabajan sin descanso para favorecer ese tipo de “estado” (nosotros, podríamos llamarlo “estado vibratorio”) que favorezca su advenimiento porque ese es el medio donde el Dajal vive y puede manifestar todo su poder.

Tal vez esto aclare a algunos de vosotros por qué el mundo parece llevar una tendencia imparable a la hecatombe, la autodestrucción, el crimen, la corrupción y la mentira. Sencillamente, hay personas que trabajan aquí intensamente para que esto sea así, pues desde su punto de vista, “cuanto peor, mejor”. Obviamente, desde mi punto de vista, más allá de las personas existe otro “mundo” desde el cual se manejan los hilos de esta realidad. Pero esa es otra historia…

http://www.trinityatierra.com/2011/09/06/%C2%BFpor-que-ahora-israel-simulara-esta-semana-un-ataque-a-un-reactor-nuclear/

El Observatorio Espacial Herschel estudia el "polvo de estrellas" generado por la supernova 1987A

Decía Carl Sagan que «somos polvo de estrellas» porque todos los elementos químicos más pesados que el helio, como el carbono o el oxígeno de nuestro cuerpo, se formaron en el interior de estrellas que estallaron como supernovas y que los repartieron dentro de nuestra galaxia como polvo interestelar. El Observatorio Espacial Herschel, de la Agencia Europea del Espacio (ESA), ha estudiado el polvo interestelar producido por la supernova 1987A (que explotó en la Gran Nube de Magallanes (LMC), una galaxia satélite de nuestra Vía Láctea). Esta estrella emitió una inmensa cantidad de polvo interestelar, entre 0,4 y 0,7 masas solares, y sigue inyectando en la LMC unos 0,001 masas solares al año. Extrapolando este resultado a otras supernovas de tipo II, en LMC ocurre una cada 300 años, se observa que gran parte del polvo que contiene esta galaxia satélite de la Vía Láctea pudo tener su origen en explosiones de supernovas. En nuestra galaxia, donde se producen unas  dos supernovas por siglo, se estima que las supernovas de tipo II producen una inyección de polvo interestelar de 0,01 masas solares al año, demasiado poco para explicar todo el polvo observado en nuestra galaxia, aunque suficiente para explicar una parte substancial del mismo. Nos lo ha contado Christopher F. McKee, «Astronomy: Let There Be Dust,» Perspective, Science 333: 1227-1228, 2 September 2011, que se hace eco del artículo técnico de M. Matsuura et al., «Herschel Detects a Massive Dust Reservoir in Supernova 1987A,» Science 333: 1258-1261, 2 September 2011.

La explosión de la supernova 1987A el 23 de febrero de 1987 fue todo un hito histórico. Era la supernova más cercana observada en la Vía Láctea y la primera oportunidad para que los astrónomos modernos pudieran ver de cerca una supernova de tipo II. El 23 de agosto de 2011 se ha observado una joven estrella a punto de explotar como supernova de tipo Ia, PTF 11kly, en la galaxia espiral Messier 101 (M101, NGC 5457 o galaxia del Molinete), a solo 25 millones de años luz (8 megaparsecs) en la constelación de la Osa Mayor; esta nueva supernova será la más cercana a nosotros desde que se observó a 1987A, que se encuentra a 168.000 años luz (51,4 kiloparsecs). La nueva supernova, por primera vez, está siendo observada justo antes del momento álgido de la explosión, que será el próximo 7 de septiembre. De hecho, el 27 de agosto el Telescopio Espacial Hubble observó a PTF 11kly y obtuvo su espectro ultravioleta. Sin lugar a dudas, esta supernova será la noticia estrella de la semana que viene.

Volviendo a la noticia objeto de esta entrada, la estrella progenitora de la supernova 1987A, la supergigante azul Sanduleak -69° 202, se estima que tenía una masa de entre 18 y 22 masas solares. Gran parte de esta masa fue eyectada por la estrella antes de explotar como supernova (la eyección se inició unos 20 000 años antes de la explosión). En la actualidad se observa un precioso anillo en expansión debido a la onda de choque producida por la explosión cuya masa se estima en solo unos 0,06 masas solares. Este anillo presenta puntos brillantes, cual perlas en un collar, cuya explicación todavía no se conoce.

Herschel observó a SN 1987A el 30 de abril y el 5 de agosto de 2010 utilizando dos de sus instrumentos (PACS y SPIRE) en cinco bandas espectrales. SN 1987 A se encuentra en una región en la que hay poco polvo interestelar. Se estima que su estrella progenitoria eyectó unas 8 masas solares durante su fase de supergigante azul anterior a la explosión como supernova. La composición de dicho polvo interestelar no corresponde al observado por Herschel, por lo que se cree que ha observado en su lugar solo el polvo emitido tras la explosión. Las estimaciones dependen del modelo teórico utilizado pero indican que la supernova eyectó entre 0,4 y 0,7 masas solares de polvo en la explosión. Esta cantidad es suficiente para explicar la cantidad de polvo observado en LMC (donde ocurre una supernova de tipo II cada 300 años). Aplicando esta estimación al polvo observado en las galaxias con alto corrimiento al rojo, se observa que la cantidad observada es suficiente para explicar gran parte del mismo. Por ello, se confirma que las supernovas parecen ser la contribución más importante al «polvo de estrellas» observado en las galaxias. El «polvo de estrellas» del que tú y yo estamos hechos.

El Observatorio Espacial Herschel estudia el «polvo de estrellas» generado por la supernova 1987A

Generadores de secuencias aleatorias podrian predecir grandes catástrofes.II

En el post anterior me referia a un artículo que es un buen resumen de lo que es hoy The Global Consciousness Project .
A dia de hoy esta experiencia científica un tanto singular, esta a pleno rendimiento. La mejor forma de ver como funciona es su Web, ubicada en la Universidad de Princeton. Está en inglés así que haré un acceso a los puntos mas interesantes, están en el menú de la izquierda de la pagina principal l:

http://noosphere.princeton.edu/  Inicio con una breve descripción, pero lo mas interesante un mapa del mundo, donde estan ubicadas todas las estaciones y reflejan su actividad en tiempo real con un codigo de color. A la izda del gráfico hay unas barras pequeñas que indican la desviación del conjunto.

The network http://noosphere.princeton.edu/egghosts/  Es un mapa interactivo mucho mas detallado de las estaciones y muchos detalles sobre ellas


node status http://noosphere.princeton.edu/status/basketstatus.html es un informe de cada estación.

daily tables http://noosphere.princeton.edu/data/eggsummary/ contiene una base de datos dia a dia desde 1988 donde podemos ver toda la actividad de cada estación y relacionarla con acontecimientos que ocurrieron en esa fecha. Un sencillo calendario nos ayuda a conseguirlo.


utilities http://noosphere.princeton.edu/utilities.html Contiene interesantes utilidades con las que jugar en tiempo real con los datos que llegan continuamente de las estaciones. Son gráficas y muy sencillas de usar sin instalar nada, desde la propia Web.
realtime display


Bien, ¿ Por qué este post ahora ?

Después del primer artículo sobre los generadores de secuencias aleatorias

Lipe2.000 nos alerta

Algo está pasando, los índices están muy altos, esto sucede cuando algo va a pasar muy próximamente.

Estaremos atentos


Por que me ha dado la impresión de que en los últimos días el GCP ha tenido una actividad  bastante superior a lo habitual. Solo es una impresión, una hipótesis de trabajo que me gustaría  me ayudarais a resolver.
Si esto fuera cierto el sistema podría estar prediciendo un acontecimiento impactante, quizas catastrófico en algún punto del planeta, en las próximas horas o días.
Me gustaría que echarais un vistazo a los datos, para saber la impresión que os da a fin de corroborar la validez de este curioso experimento.

La esencia del neoliberalismo

Pierre Bourdieu
Profesor del Collège de France

Le Monde, diciembre de 1998
Traducido del inglés por Roberto Hernández Montoya
In English: The Essence of Neoliberalism

Como lo pretende el discurso dominante, el mundo económico es un orden puro y perfecto, que implacablemente desarrolla la lógica de sus consecuencias predecibles y atento a reprimir todas las violaciones mediante las sanciones que inflige, sea automáticamente o —más desusadamente— a través de sus extensiones armadas, el Fondo Monetario Internacional (FMI) y la Organización para la Cooperación y el Desarrollo Económico (OCDE) y las políticas que imponen: reducción de los costos laborales, reducción del gasto público y hacer más flexible el trabajo. ¿Tiene razón el discurso dominante? ¿Y qué pasaría si, en realidad, este orden económico no fuera más que la instrumentación de una utopía —la utopía del neoliberalismo— convertida así en un problema político? ¿Un problema que, con la ayuda de la teoría económica que proclama, lograra concebirse como una descripción científica de la realidad?

Esta teoría tutelar es pura ficción matemática. Se fundó desde el comienzo sobre una abstracción formidable. Pues, en nombre de la concepción estrecha y estricta de la racionalidad como racionalidad individual, enmarca las condiciones económicas y sociales de las orientaciones racionales y las estructuras económicas y sociales que condicionan su aplicación.

Para dar la medida de esta omisión, basta pensar precisamente en el sistema educativo. La educación no es tomada nunca en cuenta como tal en una época en que juega un papel determinante en la producción de bienes y servicios tanto como en la producción de los productores mismos. De esta suerte de pecado original, inscrito en el mito walrasiano (1) de la «teoría pura», proceden todas las deficiencias y fallas de la disciplina económica y la obstinación fatal con que se afilia a la oposición arbitraria que induce, mediante su mera existencia, entre una lógica propiamente económica, basada en la competencia y la eficiencia, y la lógica social, que está sujeta al dominio de la justicia.

Dicho esto, esta «teoría» desocializada y deshistorizada en sus raíces tiene, hoy más que nunca, los medios de comprobarse a sí misma y de hacerse a sí misma empíricamente verificable. En efecto, el discurso neoliberal no es simplemente un discurso más. Es más bien un «discurso fuerte» —tal como el discurso siquiátrico lo es en un manicomio, en el análisis de Erving Goffman (2). Es tan fuerte y difícil de combatir solo porque tiene a su lado todas las fuerzas de las relaciones de fuerzas, un mundo que contribuye a ser como es. Esto lo hace muy notoriamente al orientar las decisiones económicas de los que dominan las relaciones económicas. Así, añade su propia fuerza simbólica a estas relaciones de fuerzas. En nombre de este programa científico, convertido en un plan de acción política, está en desarrollo un inmenso proyecto político, aunque su condición de tal es negada porque luce como puramente negativa. Este proyecto se propone crear las condiciones bajo las cuales la «teoría» puede realizarse y funcionar: un programa de destrucción metódica de los colectivos.

El movimiento hacia la utopía neoliberal de un mercado puro y perfecto es posible mediante la política de derregulación financiera. Y se logra mediante la acción transformadora y, debo decirlo, destructiva de todas las medidas políticas (de las cuales la más reciente es el Acuerdo Multilateral de Inversiones, diseñado para proteger las corporaciones extranjeras y sus inversiones en los estados nacionales) que apuntan a cuestionar cualquiera y todas las estructuras que podrían servir de obstáculo a la lógica del mercado puro: la nación, cuyo espacio de maniobra decrece continuamente; las asociaciones laborales, por ejemplo, a través de la individualización de los salarios y de las carreras como una función de las competencias individuales, con la consiguiente atomización de los trabajadores; los colectivos para la defensa de los derechos de los trabajadores, sindicatos, asociaciones, cooperativas; incluso la familia, que pierde parte de su control del consumo a través de la constitución de mercados por grupos de edad.

El programa neoliberal deriva su poder social del poder político y económico de aquellos cuyos intereses expresa: accionistas, operadores financieros, industriales, políticos conservadores y socialdemócratas que han sido convertidos en los subproductos tranquilizantes del laissez faire, altos funcionarios financieros decididos a imponer políticas que buscan su propia extinción, pues, a diferencia de los gerentes de empresas, no corren ningún riesgo de tener que eventualmente pagar las consecuencias. El neoliberalismo tiende como un todo a favorecer la separación de la economía de las realidades sociales y por tanto a la construcción, en la realidad, de un sistema económico que se conforma a su descripción en teoría pura, que es una suerte de máquina lógica que se presenta como una cadena de restricciones que regulan a los agentes económicos.

La globalización de los mercados financieros, cuando se unen con el progreso de la tecnología de la información, asegura una movilidad sin precedentes del capital. Da a los inversores preocupados por la rentabilidad a corto plazo de sus inversiones la posibilidad de comparar permanentemente la rentabilidad de las más grandes corporaciones y, en consecuencia, penalizar las relativas derrotas de estas firmas. Sujetas a este desafío permanente, las corporaciones mismas tienen que ajustarse cada vez más rápidamente a las exigencias de los mercados, so pena de «perder la confianza del mercado», como dicen, así como respaldar a sus accionistas. Estos últimos, ansiosos de obtener ganancias a corto plazo, son cada vez más capaces de imponer su voluntad a los gerentes, usando comités financieros para establecer las reglas bajo las cuales los gerentes operan y para conformar sus políticas de reclutamiento, empleo y salarios.

Así se establece el reino absoluto de la flexibilidad, con empleados por contratos a plazo fijo o temporales y repetidas reestructuraciones corporativas y estableciendo, dentro de la misma firma, la competencia entre divisiones autónomas así como entre equipos forzados a ejecutar múltiples funciones. Finalmente, esta competencia se extiende a los individuos mismos, a través de la individualización de la relación de salario: establecimiento de objetivos de rendimiento individual, evaluación del rendimiento individual, evaluación permanente, incrementos salariales individuales o la concesión de bonos en función de la competencia y del mérito individual; carreras individualizadas; estrategias de «delegación de responsabilidad» tendientes a asegurar la autoexplotación del personal, como asalariados en relaciones de fuerte dependencia jerárquica, que son al mismo tiempo responsabilizados de sus ventas, sus productos, su sucursal, su tienda, etc., como si fueran contratistas independientes. Esta presión hacia el «autocontrol» extiende el «compromiso» de los trabajadores de acuerdo con técnicas de «gerencia participativa» considerablemente más allá del nivel gerencial. Todas estas son técnicas de dominación racional que imponen el sobrecompromiso en el trabajo (y no solo entre gerentes) y en el trabajo en emergencia y bajo condiciones de alto estrés. Y convergen en el debilitamiento o abolición de los estándares y solidaridades colectivos (3).

De esta forma emerge un mundo darwiniano —es la lucha de todos contra todos en todos los niveles de la jerarquía, que encuentra apoyo a través de todo el que se aferra a su puesto y organización bajo condiciones de inseguridad, sufrimiento y estrés. Sin duda, el establecimiento práctico de este mundo de lucha no triunfaría tan completamente sin la complicidad de arreglos precarios que producen inseguridad y de la existencia de un ejército de reserva de empleados domesticados por estos procesos sociales que hacen precaria su situación, así como por la amenaza permanente de desempleo. Este ejército de reserva existe en todos los niveles de la jerarquía, incluso en los niveles más altos, especialmente entre los gerentes. La fundación definitiva de todo este orden económico colocado bajo el signo de la libertad es en efecto la violencia estructural del desempleo, de la inseguridad de la estabilidad laboral y la amenaza de despido que ella implica. La condición de funcionamiento «armónico» del modelo microeconómico individualista es un fenómeno masivo, la existencia de un ejército de reserva de desempleados.

La violencia estructural pesa también en lo que se ha llamado el contrato laboral (sabiamente racionalizado y convertido en irreal por «la teoría de los contratos»). El discurso organizacional nunca habló tanto de confianza, cooperación, lealtad y cultura organizacional en una era en que la adhesión a la organización se obtiene en cada momento por la eliminación de todas las garantías temporales (tres cuartas partes de los empleos tienen duración fija, la proporción de los empleados temporales continúa aumentando, el empleo «a voluntad» y el derecho de despedir un individuo tienden a liberarse de toda restricción).

Así, vemos cómo la utopía neoliberal tiende a encarnarse en la realidad en una suerte de máquina infernal, cuya necesidad se impone incluso sobre los gobernantes. Como el marxismo en un tiempo anterior, con el que en este aspecto tiene mucho en común, esta utopía evoca la creencia poderosa —la fe del libre comercio— no solo entre quienes viven de ella, como los financistas, los dueños y gerentes de grandes corporaciones, etc., sino también entre aquellos que, como altos funcionarios gubernamentales y políticos, derivan su justificación viviendo de ella. Ellos santifican el poder de los mercados en nombre de la eficiencia económica, que requiere de la eliminación de barreras administrativas y políticas capaces de obstaculizar a los dueños del capital en su procura de la maximización del lucro individual, que se ha vuelto un modelo de racionalidad. Quieren bancos centrales independientes. Y predican la subordinación de los estados nacionales a los requerimientos de la libertad económica para los mercados, la prohibición de los déficits y la inflación, la privatización general de los servicios públicos y la reducción de los gastos públicos y sociales.

Los economistas pueden no necesariamente compartir los intereses económicos y sociales de los devotos verdaderos y pueden tener diversos estados síquicos individuales en relación con los efectos económicos y sociales de la utopía, que disimulan so capa de razón matemática. Sin embargo, tienen intereses específicos suficientes en el campo de la ciencia económica como para contribuir decisivamente a la producción y reproducción de la devoción por la utopía neoliberal. Separados de las realidades del mundo económico y social por su existencia y sobre todo por su formación intelectual, las más de las veces abstracta, libresca y teórica, están particularmente inclinados a confundir las cosas de la lógica con la lógica de las cosas.

Estos economistas confían en modelos que casi nunca tienen oportunidad de someter a la verificación experimental y son conducidos a despreciar los resultados de otras ciencias históricas, en las que no reconocen la pureza y transparencia cristalina de sus juegos matemáticos y cuya necesidad real y profunda complejidad con frecuencia no son capaces de comprender. Aun si algunas de sus consecuencias los horrorizan (pueden afiliarse a un partido socialista y dar consejos instruidos a sus representantes en la estructura de poder), esta utopía no puede molestarlos porque, a riesgo de unas pocas fallas, imputadas a lo que a veces llaman «burbujas especulativas», tiende a dar realidad a la utopía ultralógica (ultralógica como ciertas formas de locura) a la que consagran sus vidas.

Y sin embargo el mundo está ahí, con los efectos inmediatamente visibles de la implementación de la gran utopía neoliberal: no solo la pobreza de un segmento cada vez más grande de las sociedades económicamente más avanzadas, el crecimiento extraordinario de las diferencias de ingresos, la desaparición progresiva de universos autónomos de producción cultural, tales como el cine, la producción editorial, etc., a través de la intrusión de valores comerciales, pero también y sobre todo a través de dos grandes tendencias. Primero la destrucción de todas las instituciones colectivas capaces de contrarrestar los efectos de la máquina infernal, primariamente las del Estado, repositorio de todos los valores universales asociados con la idea del reino de lo público. Segundo la imposición en todas partes, en las altas esferas de la economía y del Estado tanto como en el corazón de las corporaciones, de esa suerte de darwinismo moral que, con el culto del triunfador, educado en las altas matemáticas y en el salto de altura (bungee jumping), instituye la lucha de todos contra todos y el cinismo como la norma de todas las acciones y conductas.

¿Puede esperarse que la extraordinaria masa de sufrimiento producida por esta suerte de régimen político-económico pueda servir algún día como punto de partida de un movimiento capaz de detener la carrera hacia el abismo? Ciertamente, estamos frente a una paradoja extraordinaria. Los obstáculos encontrados en el camino hacia la realización del nuevo orden de individuo solitario pero libre pueden imputarse hoy a rigideces y vestigios. Toda intervención directa y consciente de cualquier tipo, al menos en lo que concierne al Estado, es desacreditada anticipadamente y por tanto condenada a borrarse en beneficio de un mecanismo puro y anónimo: el mercado, cuya naturaleza como sitio donde se ejercen los intereses es olvidada. Pero en realidad lo que evita que el orden social se disuelva en el caos, a pesar del creciente volumen de poblaciones en peligro, es la continuidad o supervivencia de las propias instituciones y representantes del viejo orden que está en proceso de desmantelamiento, y el trabajo de todas las categorías de trabajadores sociales, así como todas las formas de solidaridad social y familiar. O si no…

La transición hacia el «liberalismo» tiene lugar de una manera imperceptible, como la deriva continental, escondiendo de la vista sus efectos. Sus consecuencias más terribles son a largo plazo. Estos efectos se esconden, paradójicamente, por la resistencia que a esta transición están dando actualmente los que defienden el viejo orden, alimentándose de los recursos que contenían, en las viejas solidaridades, en las reservas del capital social que protegen una porción entera del presente orden social de caer en la anomia. Este capital social está condenado a marchitarse —aunque no a corto plazo— si no es renovado y reproducido.

Pero estas fuerzas de «conservación», que es demasiado fácil de tratar como conservadoras, son también, desde otro punto de vista, fuerzas de resistencia al establecimiento del nuevo orden y pueden convertirse en fuerzas subversivas. Si todavía hay motivo de abrigar alguna esperanza, es que todas las fuerzas que actualmente existen, tanto en las instituciones del Estado como en las orientaciones de los actores sociales (notablemente los individuos y grupos más ligados a esas instituciones, los que poseen una tradición de servicio público y civil) que, bajo la apariencia de defender simplemente un orden que ha desaparecido con sus correspondientes «privilegios» (que es de lo que se les acusa de inmediato), serán capaces de resistir el desafío solo trabajando para inventar y construir un nuevo orden social. Uno que no tenga como única ley la búsqueda de intereses egoístas y la pasión individual por la ganancia y que cree espacios para los colectivos orientados hacia la búsqueda racional de fines colectivamente logrados y colectivamente ratificados.

¿Cómo podríamos no reservar un espacio especial en esos colectivos, asociaciones, uniones y partidos al Estado: el Estado nación, o, todavía, mejor, al Estado supranacional —un Estado europeo, camino a un Estado mundial— capaz de controlar efectivamente y gravar con impuestos las ganancias obtenidas en los mercados financieros y, sobre todo, contrarrestar el impacto destructivo que estos tienen sobre el mercado laboral. Esto puede lograrse con la ayuda de las confederaciones sindicales organizando la elaboración y defensa del interés público. Querámoslo o no, el interés público no emergerá nunca, aun a costa de unos cuantos errores matemáticos, de la visión de los contabilistas (en un período anterior podríamos haber dicho de los «tenderos») que el nuevo sistema de creencias presenta como la suprema forma de realización humana.

Notas

1. Auguste Walras (1800-66), economista francés, autor de De la nature de la richesse et de l’origine de la valeur [sobre la naturaleza de la riqueza y el origen del valor) (1848). Fue uno de los primeros que intentaron aplicar las matemáticas a la investigación económica.

2. Erving Goffman. 1961. Asylums: Essays On The Social Situation Of Mental Patients And Other Inmates [Manicomios: ensayos sobre la situación de los pacientes mentales y otros reclusos]. Nueva York: Aldine de Gruyter.

3. Ver los dos números dedicados a « Nouvelles formes de domination dans le travail » [nuevas formas de dominación en el trabajo], Actes de la recherche en sciences sociales, Nº 114, setiembre de 1996, y 115, diciembre de 1996, especialmente la introducción por Gabrielle Balazs y Michel Pialoux, « Crise du travail et crise du politique » [crisis del trabajo y crisis política], Nº 114: p. 3-4.

Artículo recogido del sitio:

http://www.analitica.com/bitblio/bourdieu/neoliberalismo.asp

http://noticiasdeabajo.wordpress.com/2011/09/01/la-esencia-del-neoliberalismo/

Nuevo derrumbe de las Bolsas por los renovados temores a una recesión

Tras un respiro en las últimas semanas, vuelven los bruscos recortes en las Bolsas europeas ante los renovados temores a una doble recesión. Todos los principales índices del Viejo Continente han registrado fuertes caídas, en la que es la tercera peor jornada del año.

A excepción de Londres, el resto de las principales plazas se han desplomado más de un 4% en el cierre de los mercados, aunque el mayor batacazo lo ha sufrido Fráncfort, con un retroceso del 5,3%. Milán ha recortado su descenso y ha terminado con una contracción del 4,8%. Madrid y París han acabo igual y han cedido un 4,7%.

Las «desafortunadas» palabras de la directora general del Fondo Monetario Internacional (FMI), alertando de riesgo de recesión «global inminente», han sido determinantes para los inversores. De nada han servido las declaraciones del presidente de la Comisión Europea, contradiciendo a Christine Lagarde.

«Hay una extremada sensibilidad de los mercados a las malas noticias», afirma Alberto Roldán, director del departamento de renta variable de Inverseguros. En su opinión, «no era ni de lejos el momento» para alertar al mundo con una previsión que, pese a estar incorporada en las expectativas, «se interpreta como un mensaje oficial».

Pero los datos están sobre la mesa. Esta misma mañana se ha conocido una nueva caída del sector servicios de la zona euro, que registró su menor crecimiento en dos años.

El viernes, en EEUU se anunció un estancamiento del empleo en agosto. En España se supo que el paro subió de nuevo, tras cuatro meses de caídas y en Grecia, que su Producto Interior Bruto (PIB) se desplomará nada menos que un 5% este año.

Y para más inri, la troika formada por el FMI, la UE y el BCE no termina de cerrar el segundo rescate del país heleno.

Lo cierto es que la semana «promete ser muy volátil», apunta Natalia Aguirre, directora de análisis de Renta 4. Y es que, no faltan las referencias macroeconómicas, con la reunión de tipos del BCE y la publicación del Libro Beige de la Reserva Federal de EEUU sobre la economía del país. Además, en Alemania se vota su participación en el rescate griego.

Habrá que esperar a mañana martes para comprobar la reacción de Wall Street a los renovados temores de recesión, donde este lunes la Bolsa no abre por ser el Día del Trabajo. Esta inactividad provoca, también, «movimientos más intensos de lo habitual» por el bajo volumen de negociación, apunta Soledad Pellón, analista de IG Markets.

La prima de riesgo acusa los miedos

La prima de riesgo también rebota con fuerza, pero en sentido inverso. Los inversores de deuda soberana buscan refugio en el bono alemán, dejando su rentabilidad en mínimos del 1,87%, mientras que el diferencial con el bono español se amplía hasta los 340 puntos.

El diferencial del otro país periférico en la diana, Italia, tampoco le va a la zaga y escala hasta los 370 puntos. Las dudas sobre el país vecino se recrudecen después de que se advierta sobre su posible incumplimiento del objetivo de crecimiento para este año. Fuentes del Gobierno afirman que la tasa quedará por debajo del 1%, según Reuters.

A mediados de agosto, el Banco Central Europeo salió al ‘rescate’ de ambos países con la compra de deuda soberana, lo que permitió relajar sus primas desde la cota peligrosa de los 400 puntos hasta situarla por debajo de los 300 puntos. Sin embargo, ese umbral de estabilidad apenas ha durado un par de semanas.

https://selenitaconsciente.com

No habrá prospecciones petrolíferas en las montañas Virunga

Hace unos meses se desataron todas las alarmas cuando se supo que las compañías petrolíferas Soco y Dominion planeaban realizar prospecciones en el Parque Nacional Virunga, en la República Democrática del Congo. El nombre del sitio le sonará a más de uno porque las montañas Virunga, compartidas con Uganda y Ruanda, han sido declaradas Patrimonio de la Humanidad y son el último reducto de los gorilas de montaña.

ecologia

La presión internacional de diversos organismos ecologistas consiguió convencer al gobierno congoleño, que finalmente denegó el permiso a las petroleras. Así que, por el momento, los gorilas pueden respirar tranquilos. Y con ellos los miles de personas de África central que dependen de los recursos generados por su hábitat, tanto naturales como turísticos.

Vía: WWF

El día en que se votará la extensión del copyright

El próximo miércoles 7 de Septiembre es cuando empieza la sesión del Parlamento Europeo en que se decidirá si se extiende la protección de los derechos de autor para obras musicales hasta 70 años, veinte más que el término actual.

En Abril se consiguió registrar una petición para revisar la reforma de la directiva y evitar dicha ampliación, pero como era de esperar, la propuesta se ha desestimado mediante la treta del “Defecto de Forma”.

El pasado viernes 2 de Septiembre, el eurodiputado del Partido Pirata Sueco e impulsor de la revisión, Christian Ensgröm, recibió una notificación por vía postal tradicional, es decir, una carta en papel en el buzón, en que tras disculparse por el retraso, le informaban que la petición que presentó iba contra las reglas de procedimiento y por tanto no se aceptaba, a menos de una semana del inicio de la votación.

Con Dinamarca cambiando de bando y apoyando la reforma y extensión del copyright, debería pasar algo muy parecido a un milagro para que el Parlamento no acabe aprobando la nueva directiva.

Eso si, la petición puede no ajustarse a las normas de procedimiento del Parlamento, pero la directiva se pasa por el forro la opinión de gran parte de los ciudadanos de la Unión Europea que, mira tu por donde, les pagan el sueldo a los eurodiputados.

Aunque claro, una cosa es el sueldo base, y otra cosa diferente son los ‘incentivos’.

Como dicen en los USA, donde por cierto, algunos ‘ilustres carrozas’ ya pueden empezar a reclamar sus derechos de autoría a las discográficas, there is no business like show business. ¡Pasen y vean!

Vía | Blog de C. Engström

Generadores de secuencias aleatorias podrian predecir grandes catástrofes. I

¿Puede medirse el estado de estrés de la raza humana?

¿Ese estado puede predecir acontecimientos?

La ciencia ha descubierto otra prueba más. Somos más que carne y huesos. Tenemos una conciencia  como raza y esta se puede medir.

La ciencia  y la consciencia.

Un reportaje de nuestro colaborador lipe2.000

Un experimento iniciado en 1970 y presente en 65 países desvela una sorprendente relación entre los acontecimientos importantes para la sociedad humana y las reacciones físicas aleatorias. No sólo se desvían de sus valores habituales cuando ocurre algo significativo en la sociedad, sino que la alteración puede producirse incluso antes de que el acontecimiento relevante tenga lugar. Ocurrió horas antes del 11 de septiembre y en vísperas del tsunami asiático. La investigación, aunque ya tiene 35 años, está todavía en sus primeros pasos y no puede considerarse concluyente, si bien sugiere que una relación todavía desconocida para la ciencia existe entre el mundo físico y el mundo de la conciencia.

Una red mundial de generadores de números aleatorios muestra anomalías de funcionamiento cuando se producen acontecimientos que afectan a millones de personas, según un experimento iniciado en 1998 y que hoy tiene presencia en países de todos los continentes.

La red se llama The Global Consciousness Project (GCP) y representa el primer esfuerzo internacional para explorar si la atención social que comparten millones de personas cuando ocurren determinados acontecimientos relevantes, puede ser medida y validada científicamente.

La red GCP lleva operando desde hace 35 años y tiene presencia en 65 países, desde Alaska a las islas Fidji. Funciona en todos los continentes del globo y en todas las franjas horarias. En ella trabajan 75 investigadores, analistas e ingenieros.

Aunque está alojada oficialmente en la Universidad de Princeton y muchos de los investigadores participantes forman parte del estrato académico, la red GCP no está financiada por subvenciones universitarias, sino por una serie de patrocinadores. Entre ellos destacan The Princeton Engineering Anomalies Research y The Linux Documentation Project.

The Princeton Engineering Anomalies Research (PEAR) fue creado en 1979 por el decano de la Escuela de Ingeniería y Ciencia Aplicada de la Universidad de Princeton, Robert G. Jahn, con la finalidad de estudiar científicamente la interacción entre la conciencia humana y los instrumentos mecánicos y físicos. Entre los artículos explicativos de esta experiencia destaca el publicado por la revista Foundations of Physics Letters. El texto íntegro ha sido difundido por GCP.

Conciencia y realidad

Robert G. Jahn ha dedicado un equipo de ingenieros, físicos, sicólogos y humanistas a desarrollar una serie de experimentos y elaborar modelos teóricos que contribuyan a explicar el papel que juega la conciencia en el establecimiento de la realidad física.

La búsqueda de una posible relación entre la conciencia y la realidad material es una vieja tarea de la física teórica que fue perfectamente explicada en 1984 por John Wheeler y Wojcieck Zurek, cuando escribieron en su obra Quantum Theory and Measurement que son necesarios los observadores para dar existencia al mundo. Al buscar la posible relación entre la conciencia humana y determinados acontecimientos, el GCP forma parte de esa línea de investigaciones.

GCP funciona mediante una red de generadores numéricos aleatorios (GNA, REN en inglés). Una vez por segundo, cada GNA experimenta con 200 bits, es decir, con 200 ceros y unos, para determinar cuál de los dos dígitos prevalece. Es como tirar 200 veces una moneda al aire para determinar cuántas veces cae cara y cuántas cruz.

GNA utiliza la tecnología informática para generar dos números –el 1 y el 0- continuamente, en una secuencia totalmente aleatoria, emulando así el ejemplo de la moneda arrojada al aire, con dos posibles resultados: cara o cruz. Las secuencias resultantes se reflejan en gráficos. Las desviaciones en estas emisiones o en sus resultados provocan la aparición de curvas en los gráficos.

Leyes clásicas de cambio y de los Grandes Números

Estas secuencias se rigen por las leyes clásicas del cambio, así como por la ley de los grandes números. Las leyes clásicas de cambio, como las leyes de Newton sobre la conservación de los momentos lineales, dictan que los generadores emiten igual cantidad de unos y de ceros en cada experimento.

La Ley de los Grandes Números, considerada el primer teorema fundamental de la teoría de la probabilidad, establece a su vez que la frecuencia relativa de los resultados de un cierto experimento aleatorio, tienden a estabilizarse en cierto número, que es precisamente la probabilidad, cuando el experimento se realiza muchas veces.

Según ambas leyes, por tanto, cada segundo del experimento GCP se emite la misma cantidad de unos y ceros en 65 países diferentes del mundo, al mismo tiempo que las probabilidades de que predominen unos o ceros tiende a estabilizarse en el tiempo en todos los experimentos, representando así la probabilidad.

Un programa presente en cada ordenador de la red registra las secuencias aleatorias resultantes de cada generación de unos y ceros. Memoriza esas resultantes y envía los datos, cada cinco minutos, al servidor central de Princeton, donde son comparados informáticamente con los datos obtenidos por el mismo procedimiento por el resto de la red.

Impacto social y aleatoriedad

Lo que ha sorprendido a los científicos es que cada vez que ocurre algo que tiene un gran impacto social, las secuencias de estos generadores numéricos aleatorios se alejan de los valores habituales, mostrando desviaciones extraordinarias. Han constatado que un fenómeno social impactante influye en el comportamiento del generador, tal como sugiere la metáfora del gato de Schrödinger.

Por ejemplo, si después de varios años de arrojar monedas al aire se establece que en un 35% cae cara y un 65% cae cruz, esos valores cambian radicalmente cuando ocurre algo importante que capta la atención de mucha gente en el mundo, desviándose de los valores ordinarios.

Estos cambios en los comportamientos aleatorios se han detectado en una serie de episodios, como el bombardeo de una embajada, el ataque terrorista del 11 de septiembre, una catástrofe aérea o una toma de rehenes. Incluso en el reciente tsunami asiático.

Los generadores funcionan constantemente, generando millones de números y gráficos segundo a segundo, día a día, extraidos del ruido cuántico. La mayoría del tiempo, el gráfico que refleja los resultados de este juego aleatorio se mantiene más o menos en una línea plana, que refleja la probabilidad.

Predicciones de catástrofes

Sin embargo, lo más sorprendente estaba aún por llegar. El 11 de septiembre de 2001, cuatro horas antes de que las torres gemelas sufrieran el ataque terrorista de dos aviones suicidas, los gráficos comenzaron a trastocarse, como si la conciencia humana previera que algo terrible, impactante e importante para la comunidad global fuera a suceder.

Las desviaciones registradas el 11S en las pulsiones aleatorias no pueden atribuirse a alteraciones electromagnéticas o excesivo uso de los móviles, tal como explican los protagonistas de esta experiencia en el Journal of Scientific Exploration.

Para los científicos, aquellas cuatro horas fueron extrañas: no sabían lo que estaba pasando para que los números variaran, y se quedaron atónitos cuando descubrieron que quizá lo que había afectado a los gráficos era un hecho que, para cuando éstos habían comenzado a cambiar, aún no había ocurrido.

En aquel momento, las transformaciones en el orden numérico parecieron un fruto del mero azar. Sin embargo, en diciembre de 2004, las máquinas parecieron volverse locas de nuevo. Veinticuatro horas antes de que sucediera el inmenso terremoto del Océano Índico que tanto afectara al Asia suroriental, devastando las costa y matando a 250.000 personas, los gráficos se trastocaron de nuevo.

Relación desconocida

El doctor Nelson, miembro del equipo de Princeton, en declaraciones a RedNova, señala sin embargo que la importancia de los resultados registrados en los gráficos radicaría en que, a pesar de que todos funcionemos como individuos, parece ser que hay algo mayor, un elemento común en nuestras conciencias, un elemento global, si bien cuando se habla de conciencia global se trata únicamente de una metáfora.

La investigación, aunque ya tiene 35 años, está todavía en sus primeros pasos y no puede considerarse concluyente, si bien sugiere que una relación todavía desconocida para la ciencia existe entre el mundo físico y el mundo de la conciencia.

 Publicado en tendencias21.net

Líder parlamentaria sueca en la UE asegura que USA utilizó el HAARP para generar el huracán Irene


Maj Britt Theorin fue integrante del parlamento europeo entre 1999 y 2004 y es una reconocida política sueca. Theorin se encargó de elaborar un informe para la UE acerca del uso del HAARP y la modificación climática. La ex parlamentaria aseguró que el gobierno de Obama provocó el huracán Irene para tapar lo que sucede en Libia. La ciencia oficial y reconocida está a punto de lograr provocar lluvia a través del uso de lásers, por lo que la idea de que armas secretas produzcan tormentas no debería extrañarle a nadie.

La sueca Maj Britt Theorin denunció ayer que probablemente USA indujo la creación del huracán Irene para desviar la atención sobre la invasión y bombardeo a Libia, según reporta la revista Sweden Tech.

Theorin, anciana política sueca e integrante del parlamento europeo entre 1999 y 2004 fue quien armó una comisión parlamentaria para estudiar los efectos del HAARP por parte del gobierno de los Estados Unidos. Ahora expresó que recibió información confiable señalando la coincidencia del huracán Irene y la invasión a Libia como “una creación del gobierno de Obama mediante HAARP”. «Sin dudas hay interés en que la opinión pública estadounidense se ocupe del huracán en New York, antes que el bombardeo y genocidio de la OTAN en Libia«, dijo la ex parlamentaria.

Maj Britt Theorin lideró en la UE un sector que consiguió que en 1998 la Comunidad estudiase el programa. El resultado se publicó al año siguiente y afirmaba que “pese a los convenios existentes, la investigación militar sigue basándose en la manipulación medioambiental como arma“. La ‘Moción para Resolución’ impulsada por Theorin y sometida por el Comité al Parlamento Europeo indicaba:

“Considera al HAARP… en virtud de su profundo impacto sobre el medio ambiente como una inquietud global y apela a que un cuerpo internacional independiente examine sus implicaciones legales, ecológicas y éticas… El Comité lamenta la repetida negativa de la Administración de los Estados Unidos… a prestar evidencia a la audiencia pública sobre los riesgos medioambientales y públicos del programa HAARP.”
De la misma manera que se hizo en la UE, un grupo de físicos rusos elaboró un detallado informe a petición de Putin, que estaba en ese momento sensibilizado por el escudo antimisiles norteamericano.

El huracan Irene ha causado 8 muertos a los que se suman, en Virginia, la muerte de una persona al caer un árbol sobre el vehículo en el que se desplazaba y un niño de once años perdió la vida a consecuencia de la caída de un árbol de gran tamaño sobre su residencia. Además, un surfista en el estado de Florida murió al ser arrastrado por las corrientes; una persona murió en un accidente de tráfico en el condado de Pitt y otra que falleció como consecuencia de un ataque cardiaco cuando clavaba tablones para proteger su vivienda de la tormenta, según indicó la cadena de televisión NBC.

Horas antes, un hombre murió en la localidad de Nashville, cuando le cayó una rama de árbol de gran tamaño mientras caminaba en el exterior de su vivienda. En días anteriores ya había causado seis muertos en el Caribe. El Centro Nacional de Huracanes (CNH) de USA anunció que se espera que el huracán Irene mantenga su fuerza hasta la noche del domingo cuando alcance las costas de Nueva Inglaterra.

Si se tiene en cuenta que el evento puede servir de argumento al gobierno de Obama para subir el presupuesto de FEMA (organismo que podría tomar el control de USA en caso de catástrofe), la noticia no resulta tan descabellada.
La idea del HAARP y la posibilidad de modificar el clima a voluntad ha sido denostada desde diferentes sectores en numerosas ocasiones. Sin embargo, la geoingeniería y la manipulación del clima son algo realmente tangible y actualmente aplicable.

Según informa The Guardian basado en un reporte de la revista Nature Comunications, un grupo de científicos de la Universidad de Ginebra logeraron desarrollar un laser ultra potente que puede desencadenar lluvias en lugares húmedos. Un dispositivo del tamaño de un garage fue trasladado a orillas del río Rodano, cerca del lago Ginebra en Suiza, donde fue disparado durante 133 horas.

Los registros revelaron que los pulsos intensos de luz láser crean partículas de ácido nítrico en el aire que se comportaron como pegamento en la atmósfera: las moléculas de agua comenzaron a unirse en gotas y dejaron de evaporarse.

 En cuestión de segundos, esto se volvió estable formando gotas de milésimas de milímetro de diámetro que, aunque demasiado pequeñas para caer como lluvia, son lo suficientemente grandes como para alentar a los científicos a seguir adelante con el trabajo.

«Todavía no hemos generado las gotas de lluvia -. Que son demasiado pequeños y demasiado clara para caer como lluvia Para que llueva, vamos a necesitar partículas un centenar de veces más grande, lo suficientemente pesadas para caer», dijo Jérôme Kasparian, un físico de la Universidad de Ginebra.

Con mejoras al sistema, este rayo podría generar lluvia sólo con la humedad de las nubes

Fuente: http://www.urgente24.com/noticias/val/13472-126/lider-parlamentaria-sueca-en-la-ue-asegura-que-usa-utilizo-el-haarp-para-generar-el-huracan-irene.html

Metabolismo animal

Sangre caliente es una expresión coloquial usada para describir a un animal que mantiene su temperatura corporal a un nivel aproximadamente constante, independientemente de la temperatura del ambiente; es decir, un animal que mantiene homeostasis térmica.

Esto puede implicar no sólo la capacidad de generar calor, sino también la capacidad de enfriarse. Los animales de sangre caliente controlan su temperatura corporal regulando su tasa metabólica, por ejemplo incrementando la tasa metabólica a medida que la temperatura del entorno empieza a disminuir.

Además, controlan la pérdida de calor, por evaporación del sudor, por mayor o menor esponjosidad de la pelambre, etc.

Algunos científicos pensaron que los dinosaurios podían tener mayor temperatura, ya que por su enorme masa corporal, la proporción entre superficie y volumen estaba a favor de conservar mucho del calor metabólico, sin llegar a ser animales de “sangre caliente”.

Esta controversia empieza a solucionarse por un método sumamente ingenioso encontrado por investigadores, a favor al menos, que ciertos grandes dinosaurios herbívoros tenían temperaturas altas.

Usando un modelo biomecánico que predice el coste energético de caminar y correr en función del tamaño de los huesos de las patas de un animal, los investigadores de la Universidad de Washington han demostrado que los mayores dinosaurios no habrían conseguido tener esos huesos sin un metabolismo de sangre caliente.

Un paso más adelante lo dio el equipo formado por el biólogo evolutivo Robert Eagle y otros del Instituto de Tecnología de California en colaboración con científicos de la Universidad de Bonn, en Alemania analizaron los minerales presentes en los restos de varios ejemplares de saurópodos para determinar a qué temperaturas se formaban esos isotopos y por ende el medio corporal en el que surgieron.
Los científicos hallaron que la temperatura de estos cuellos largos osciló entre los 36 y 38° C, similar a la de los mamíferos y pájaros actuales y sensiblemente mayor a la de los reptiles .

Los investigadores analizaron 13 piezas dentales pertenecientes a ejemplares de saurópodos de las especies Brachiosaurus brancai y Camarasaurus desenterrados en yacimientos de Tanzania y en Wyoming y Oklahoma en Estados Unidos que vivieron a finales del Jurásico (hace aproximadamente 150 millones de años) .
La técnica mide las concentraciones de dos isotopos (carbono-13 y oxígeno-18) en el mineral bioapatita. La frecuencia con la que estos isotopos se agrupan depende de la temperatura. A menor temperatura, más tienden a unirse estos dos isotopos. De esta forma, observar la reacción de estos isotopos es una vía directa para determinar la temperatura del entorno en el que se formó el mineral (en este caso, el interior del dinosaurio).

Ya se empieza a ver más claro y para terminar con las dudas, se realizarán estas mediciones en pequeños dinosaurios de esta época y así se tendrá más porcentaje de posibilidades que ya todos estos animales poseían las características de temperatura similares a nosotros.

http://asusta2.com.ar/2011/09/03/metabolismo-animal/?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+com%2FzGDM+%28Asustados%29&utm_content=Google+Reader

¿Qué es la hipótesis de Gaia?

el-planeta-azul-una-sola-casa-una-sola-trama-de-la-vida-una-sola-especie-un-solo-destino.jpg

La Hipótesis de Gaia ―Teoría o Principio de Gaia, como también se le conoce― plantea que todos los organismos que pueblan la Tierra, así como sus entornos inorgánicos, conforman una unidad integrada de gran complejidad que se auto-regula y permite que las condiciones de vida en el planeta se mantengan.

La idea surgió en los años 70, de la observación de cómo la biosfera y la evolución de los procesos vitales contribuyen significativamente a la temperatura global del mundo, la salinidad oceánica y el resto de los factores de habitabilidad. En los primeros momentos fue recibida con rechazo por los expertos, pero más recientemente fue aceptada por algunas corrientes, especialmente las relacionadas con la ecología de los sistemas.

El elemento más importante de esta hipótesis es que defiende la existencia de un equilibrio planetario determinado por las distintas formas orgánicas, el cual persigue activamente mantener las condiciones óptimas para la vida, aun cuando lo amenacen elementos terrestres o de la realidad espacial.

Según la Teoría de Gaia, a diferencia de otros planetas donde las condiciones atmosféricas se regulan por los procesos químicos que se están produciendo, en la Tierra la estabilidad de la atmósfera se regula por los procesos vitales. Salvo los gases nobles, el resto de los gases atmosféricos que hay en el planeta son provocados por los organismos vivos.

Al parecer, mientras más especies haya en el sistema más fuertes y balanceados son sus mecanismos. La Hipótesis de Gaia le da alto valor a la biodiversidad para mantener condiciones habitables. Precisamente por esta razón los que defienden los principios de esta teoría plantean que con el aumento de la población humana y, consecuentemente, de su impacto en el medio ambiente, dicho equilibrio se está viendo amenazado.

La noción de una Tierra viviente ha sido muy controvertida dentro de la ciencia, basado sobre todo en lo metafórico que suenan muchas de las aseveraciones que sus teóricos han presentado. Las críticas aparecen también cuando no se explican matemáticamente sus principios fundamentales, cosa que ocurre en otras descripciones científicas.

En cualquier caso, la Teoría da cuenta de una serie de relaciones complejas que se producen entre los distintos niveles de los ecosistemas terrestres y, aun con sus limitaciones, representa un punto de partida para el estudio de los procesos de cambio climático que actualmente están poniendo en riesgo la supervivencia del planeta.

http://www.ojocientifico.com/2011/08/25/que-es-la-hipotesis-de-gaia