Según valdeandemagico, la pirámide de Keops medía la estabilidad magnética del planeta tierra (además de temperatura, vientos, movimientos sismicos...)y mandaba dichos datos al espacio. La camara del Rey, era el amplificador fractal, cuya señal portadora (1.42 Ghz) salía por los conductos de ventilación. Todas las medidas de canalizaciones, cámaras y demás están relacionadas con las ondas electromagnéticas que por ahí viajaban.

domingo, diciembre 04, 2011

El equilibro en la tierra se logra con la sinapsis entre la noosfera y el FTE que hay cada 8 minutos

Según la teoría del todo de Valdeandemagico cada 8 minutos se produce una sinapsis entre la noosfera  y el FTE, con dicha sinapsis lo que se hace es regular el equilibrio de la tierra.

Lo que va haciendo poco a poco Valdeandemagico es ir explicando poco a poco cada piececita de ese Universo Inteligente que es capaz de diseñar vida. Y hoy toca hablar de la noosfera, del FTE y de esa unión que se crea cada 8 minutos entre sol y tierra, la cual para Valdeandemagico es exacta a la sinapsis que hay entre nuestras neuronas.


Cuando analizamos el funcionamiento de nuestro cerebro, vemos que a través de la sinapsis se transmite una candidad, por ejemplo de dopamina, a otra neurona, y así es como se hace para equilibrar y regular nuestro cuerpo. Pues exactamente lo mismo es lo que pasa en nuestro ser superior, entendiendo que la tierra es como una neurona, y el sol es otra neurona, y cada 8 minutos se establece un tunel entre ambos, por el que se mandan la información necesaria para que todo el Universo Inteligente esté en equilibrio.

Aunque la Noosfera fue un concepto que siguió el pensador Teilhard de Chardin., principalmente, la gran diferencia con la teoría del todo de Valdeandemagico, es que nosotros no hablamos de filosofía, sino que intentamos utilizar siempre la pura ciencia y principalmente la tecnología de la información, es decir cuando hablamos de hombres, para nosotros son máquinas moleculares, por lo que no vale filosofar, sino encontrar el diseño, el programa de trabajo y el sistema operativo. Cuando hablamos de la noosfera como algo teórico de una mente global a toda la tierra, para Valdeandemagico simplemente es una nube de información, exacta a la nube de internet que constamos creando, recordemos que para nosotros la información siempre se almacena en la nube, eso sí, cada ser tiene su nube, la cual se comunica con el resto de nubes, vamos lo que la iglesia nos repetía constantemente como alma.



sol1_0.jpg
La Tierra y el Sol mantienen una estrecha relación. Gracias a este último es que puede existir la vida. Existen muchos sucesos en nuestro planeta que aun resultan un misterio. Uno de ellos es el portal magnético que se forma entre la Tierra y el Sol cada ocho minutos aproximadamente.
Existe un portal que comunica a la tierra con el Sol llamado “Evento de Flujo de Transferencia” o FTE por sus siglas en ingles (Flux Trasferent Event). Hace algunos años se pensaba que no existía, sin embargo, las pruebas muestran todo lo contrario. Este portal conecta a la Tierra con el Sol situada a unos 150 millones de kilómetros, formando un tubo del tamaño de la Tierra del lado donde es de día.
Toneladas de partículas de alta energía podrían fluir a través de este portal antes de que se cierre nuevamente. Desde hace tiempo se sospechaba que la Tierra y el Sol deberían de estar conectados de alguna manera. La magnetosfera de la Tierra, (la esfera magnética que rodea a nuestro planeta) está llena de partículas del Sol que llegan a través del viento solar y penetran en las defensas magnéticas de la Tierra.
Antes se solía pensar que esta conexión era permanente y que el viento solar podría estar “goteando” a nuestro planeta en forma constante. Sin embargo no es así. Las conexiones no son constantes y normalmente son breves pero con una conectividad muy dinámica.
El campo magnético de la Tierra se une con el campo magnético del Sol cada 8 minutos aproximadamente, formando un portal con forma de cilindro tan grande como la Tierra, por el cual pueden fluir las partículas. Las cuatro sondas Clúster de la ESA y cinco sondas Themis de la NASA han volado alrededor de estos cilindros, detectando y midiendo las partículas.
El físico espacial David Sibeck piensa que existen dos tipos de FTE’s, activos y pasivos. Los FTE’s activos permiten un flujo dinámico y fácil de las partículas a través de él, y los FTE’s pasivos ofrecen una mayor resistencia ya que su estructura interna no permite el paso fácil de las partículas y los campos. Sin embargo queda una pregunta sin responder. ¿Por qué se forman estos portales cada 8 minutos? Esto es todavía un misterio.

Magnetic Portals Connect Earth to the Sun

Oct. 30, 2008: During the time it takes you to read this article, something will happen high overhead that until recently many scientists didn't believe in. A magnetic portal will open, linking Earth to the sun 93 million miles away. Tons of high-energy particles may flow through the opening before it closes again, around the time you reach the end of the page.
"It's called a flux transfer event or 'FTE,'" says space physicist David Sibeck of the Goddard Space Flight Center. "Ten years ago I was pretty sure they didn't exist, but now the evidence is incontrovertible."
Indeed, today Sibeck is telling an international assembly of space physicists at the 2008 Plasma Workshop in Huntsville, Alabama, that FTEs are not just common, but possibly twice as common as anyone had ever imagined.
Right: An artist's concept of Earth's magnetic field connecting to the sun's--a.k.a. a "flux transfer event"--with a spacecraft on hand to measure particles and fields. [Larger image]
Researchers have long known that the Earth and sun must be connected. Earth's magnetosphere (the magnetic bubble that surrounds our planet) is filled with particles from the sun that arrive via the solar wind and penetrate the planet's magnetic defenses. They enter by following magnetic field lines that can be traced from terra firma all the way back to the sun's atmosphere.
"We used to think the connection was permanent and that solar wind could trickle into the near-Earth environment anytime the wind was active," says Sibeck. "We were wrong. The connections are not steady at all. They are often brief, bursty and very dynamic." Several speakers at the Workshop have outlined how FTEs form: On the dayside of Earth (the side closest to the sun), Earth's magnetic field presses against the sun's magnetic field. Approximately every eight minutes, the two fields briefly merge or "reconnect," forming a portal through which particles can flow. The portal takes the form of a magnetic cylinder about as wide as Earth. The European Space Agency's fleet of four Cluster spacecraft and NASA's five THEMIS probes have flown through and surrounded these cylinders, measuring their dimensions and sensing the particles that shoot through. "They're real," says Sibeck.
Now that Cluster and THEMIS have directly sampled FTEs, theorists can use those measurements to simulate FTEs in their computers and predict how they might behave. Space physicist Jimmy Raeder of the University of New Hampshire presented one such simulation at the Workshop. He told his colleagues that the cylindrical portals tend to form above Earth's equator and then roll over Earth's winter pole. In December, FTEs roll over the north pole; in July they roll over the south pole.
Right: A "magnetic portal" or FTE mapped in cross-section by NASA's fleet of THEMIS spacecraft. [Larger image]
Sibeck believes this is happening twice as often as previously thought. "I think there are two varieties of FTEs: active and passive." Active FTEs are magnetic cylinders that allow particles to flow through rather easily; they are important conduits of energy for Earth's magnetosphere. Passive FTEs are magnetic cylinders that offer more resistance; their internal structure does not admit such an easy flow of particles and fields. (For experts: Active FTEs form at equatorial latitudes when the IMF tips south; passive FTEs form at higher latitudes when the IMF tips north.) Sibeck has calculated the properties of passive FTEs and he is encouraging his colleagues to hunt for signs of them in data from THEMIS and Cluster. "Passive FTEs may not be very important, but until we know more about them we can't be sure."
There are many unanswered questions: Why do the portals form every 8 minutes? How do magnetic fields inside the cylinder twist and coil? "We're doing some heavy thinking about this at the Workshop," says Sibeck.
Meanwhile, high above your head, a new portal is opening, connecting your planet to the sun.
Author: Dr. Tony Phillips | Credit: Science@NASA
more information
2008 Huntsville Plasma Workshop -- home page
Below: In a presentation at the 2008 Plasma Workshop, Robert Fear of the University of Leicester, UK, presented some alternatives for the magnetic topology of FTEs. Possibilities include ropes (left column), cylinders (middle column), or bubbles (right column): abstract.
NASA's Future:US Space Exploration Policy

Discovery of the 'Travelling Magnetopause Erosion Region'


A 3D cut showing regions of the magnetosphere. FTE formation 
occurs on or near the subsolar magnetopause (yellow circle).
Recent work by Owen et al. has shed new light on the structure of the magnetopause following bursts of reconnection through the discovery of 'Travelling Magnetopause Erosion Regions'.
Magnetic reconnection governs the coupling between the solar wind and the magnetosphere, determining the structure and dynamics of near-Earth space. However, this is not a steady process but occurs in intermittent episodes known as flux transfer events (FTEs). The mode of reconnection which leads to the formation of FTE's remains the subject of some debate, and we are participating as members of a team of international experts under the auspices of the International Space Science Institute, Bern (Team Homepage) to study these phenomena.
In a recent paper, Owen et al. (2008) reported observations of two 'crater'-like FTEs by the Cluster spacecraft. The observations indicated that the spacecraft furthest from the Earth (C3) transmitted out of the magnetosphere following the passage of these two FTEs, whereas the other spacecraft remained inside.
Formation of the Crater FTE and associated 'Travelling 
Magnetopause Erosion Region' (top) together with the Cluster 2 and 3 
PEACE electron data (bottom) on which the interpretation is based. 
Adapted from Owen et al. (2008)
Under the observed conditions, reconnected flux tubes created by a transient and localised patch of reconnection located nearer to the sub-solar point, will move northward and duskward over Cluster, consistent with observations inside the magnetosphere. The FTE signatures arise from this transient inward motion of reconnection-associated boundary layers over the spacecraft. Owen et al. postulated that the transient relocation of C3 into the magnetosheath is due to a region of eroded magnetic flux, lying in the wake of the recoiling FTE, which itself is driven duskward at some fraction of the magnetosheath flow speed. The FTEs pass northward of C3, but the eroded wake, which we term the 'travelling magnetopause erosion region' (TMER), is located equatorward of the FTEs and moves duskward over C3.
For more details, see:
Owen, C.J., A. Marchaudon, M.W. Dunlop, A.N. Fazakerley, J.-M. Bosqued, J.P. Dewhurst, R.C. Fear, S.A. Fuselier, A. Balogh and H. Réme.
Cluster observations of "crater" flux transfer events at the dayside high-latitude magnetopauseJ. Geophys. Res., 113, A07S04, doi:10.1029/2007JA012701, (2008).







2008 THEMIS SCIENCE NUGGETS

TTHEMIS observations of the dayside traveling compression region and flows surrounding flux transfer events

by Jiang Liu
Introduction The string-of-pearls formation of the five THEMIS spacecraft in a near-equatorial orbit provides unprecedented opportunities to study the spatial structure and temporal evolution of reconnection and flux transfer events at the subsolar and flank magnetopause. Probes B, C, D are at separations comparable to the magnetopause layer thickness (100-500 km), while the two outer probes, A and B, are at 1-2 RE scale separations. This multi-spacecraft configuration enables the reconstruction of the Dayside Traveling Compression Region, (DTCR).
Observations
FTE trains are observed in the pre-noon sector, on ~1000 UT, Aug.18, 2007 by the five THEMIS satellites. Several quantities from all five probes are shown in Fig. 1. Please note that the velocity and magnetic field are transferred to local LMN coordinate of magnetopause, with N normal to the magnetopause pointing to the magnetosheath, L along the projection of the Earth dipole axis onto the magnetopause (positive northward), and M directed dawnward. In the interval studied, TH-B, in an outbound transit of the magnetopause, observed several FTEs. The FTEs were encountered in the early part of the interval from the magnetosphere side of the current layer out, and in the late part of the interval from the magnetosheath part of the current layer in. Probes TH-C and TH-D encountered three of the FTEs from the magnetopause out, and saw remote signatures of the remaining FTEs from the magnetosphere proper. TH-E and TH-A saw remote signatures of most of the FTEs: flow variability in VN consistent with the nearby passage of the FTE structure, i.e., towards and away from the magnetopause, and pressure variations consistent with a compression of the nearby plasma due to the passage of the FTEs.
Probe data Figure 1. Panels (c-g) are arranged in five probes per
quantity. Quantities are shown in Red, Green, Ciel,
Blue and Magenta respectively for TH-B, C, D, E, and A.
Panels (i-p) are arranged in two panels per probe.
The probe data are arranged from the furthest out at (i)
to the closest in at the bottom. Higher panel (each
probe): Ion energy flux spectrogram (eV/cm2-s-sr-eV) from
the ESA instrument; lower panel (each probe): Ion flow
velocity in LMN coordinates (L, M, N are shown
in Blue, Green, Red). The vertical lines shows possible
FTEs.
Click here to enlarge the image.
Reconstruction

We can elucidate further the properties of the plasma surrounding the FTEs by examining the pressure perturbations and velocity perturbations around the 1003 UT FTE on all five spacecraft. By timing the observations of the peak pressure we obtain a time delay of tBD=30 s and tDE=10 s between TH-B and -D (separated by 0.5 RE along the magnetopause boundary) and TH-D and �E (separated by 0.1 RE along the same direction). We thus confirm that the DTCR associated with this FTE was moving roughly in the direction of the magnetosheath flow with a speed of ~100 km/s.
By recording the magnetic and flow field variations around the FTE at various spacecraft it is possible to place them in the context of the particle flux and total pressure variations and construct a sketch of these quantities in a cross-section of the FTE. This is done in Fig. 2.

Reconstruction of FTE signatures Figure 2. Reconstruction of FTE signatures observed
around 1003 UT on multiple THEMIS satellites, on the
M-N plane of the LMN coordinate system. Color are lnΔP
with blue the smallest and red the largest, obtained by
linear interpolation of the observation of the five probes.
Both magnetic field and velocity are smoothed every three
points. The magenta line represents the particle flux
boundary of the FTE, obtained by cubic interpolation.
Click here to enlarge the image.
Conclusion Fig. 2 indicates that the FTE perturbs the nearby magnetosphere like an obstacle moving through an otherwise stationary plasma. Near the magnetopause, the plasma ahead and behind the FTE is accelerated in the direction of the FTE motion. Further away from the magnetopause the flow is diverted away from the magnetopause before the FTE arrival and towards the magnetopause after the FTE passage. An ~180° rotation of the magnetic field across the center of the FTE indicates a rope-like structure of it. The magnetospheric field is draped around the FTE during its passage near the FTE. Further away, the field direction is unaffected, but flow variations are still evident. Specifically, the flow is opposite the FTE motion and comparable in speed, as the flow is diverted around the moving obstacle (FTE). This reconstruction result is very similar to the prediction of the FTE vicinity model of Farrugia et al. [1987].
Biographical Note
Jiang Liu is a graduate student in the Department of Earth and Space Sciences at UCLA. His research interests include substorms, TCRs and dayside flux transfer events

La Noosfera.
Breve introducción

Guillermo Agudelo Murguía

El propósito de este trabajo es interesar al lector a profundizar en el estudio de la Noosfera, un concepto establecido entre otros pensadores por Teilhard de Chardin. Este concepto ha sido siempre rechazado y denigrado por las corrientes hegemónicas de la ciencia y la filosofía etiquetándolo como un término poético. Pese a ello, notables científicos lo han trabajado con el mismo y con diferentes nombres. Dado que la Noosfera es un concepto complejo, se presentan aquí diferentes interpretaciones para que el lector pueda darse cuenta que la Noosfera es una realidad que requiere de un análisis más exhaustivo por parte de los estudiosos del pensamiento teilhardiano, teniendo en cuenta que el concepto noosfera no puede ser desligado de la teoría evolucionista de Teilhard de Chardin, ya que ésta se fundamenta en la evolución de lo mental.
Siôn Cowell en su libro The Teilhard Lexicon propone la siguiente definición de Noosfera:
Frecuentemente llamada ‘La esfera mental’. Más correctamente, ‘La esfera de la mente y el espíritu’. La palabra francesa ‘esprit’ viene del griego ‘noos’ y abarca ‘espíritu’ y ‘mente’ en su acepción inglesa. (En el diccionario de la Real Academia de la lengua Española no se hace una referencia expresa a una equivalencia semántica entre mente y espíritu.) Sustrato espiritual o mental del mundo, nuevo reino biológico, totalidad orgánica y específica en proceso de unanimización, distinta de la biosfera, sustrato del mundo no espiritual. Esta expresión fue por primera vez utilizada en 1925 en la obra de Teilhard, ‘Hominización’.
La noosfera a nivel planetario es lo análogo al pensamiento, al producto del córtex cerebral en los humanos. También se ha definido como la red planetaria pensante, un sistema de conocimiento e información, una red global de autoconciencia, instantáneamente retroalimentada y en comunicación planetaria. Es decir, es la mente de la Tierra.
Teilhard se refiere a la noosfera en relación al pensamiento, a la esfera humana, a la esfera de reflexión, de invención consciente, pero se ha ampliando el concepto a todos los niveles de complejidad de la materia, porque preexistente a este campo de pensamiento existen campos que han evolucionado a la par del Universo material.
Finalmente lo que se vislumbra, es la formación de una conciencia planetaria, que deberá estar integrada por los campos de conocimiento de todos estos niveles.
Para la corriente teilhardiana, la noosfera se enmarca dentro de la perspectiva de una evolución social o lamarckiana. Un estudio profundo del proceso evolutivo claramente demuestra que la autonomía individual no se pierde durante la socialización, etapa más reciente de la evolución cósmica. Es decir, la Noosfera se sostiene como un sistema complejo de mentes individuales, aunque los contenidos “comunes” de los cerebros individuales muestren una gran convergencia. Otra interpretación se enmarca en una evolución darwiniana. De acuerdo con James Lovelock y teóricos de Gaia, así como Francis Heylighen y otros, el cerebro global se convertirá en una entidad superior, en una clase de ser inteligente terrestre y que las mentes individuales perderán su visión independiente del todo, tal como ellos creen que sucede en las células, en sustratos evolutivos anteriores, que (según ellos) perdieron su individualidad en los metazoos. Existen otras hipótesis, por ejemplo, la de Eric Chaisson quien en su libro Cosmic Evolution. The Rise of Complexity in Nature, basándose en la termodinámica, discute que a medida que el planeta se vuelve más complejo la evolución darwiniana tiende a devenir en una evolución lamarckiana.
Resumiendo, la evolución teilhardiana se basa en los siguientes principios:
  • Todo se deriva de una energía única de origen noético. (NOTA 1) Lo mental, el conocimiento, la información, sólo evolucionan conjuntamente con su matriz material.
  • De la energía noética surge la radiación y la materia que evoluciona hasta las estructuras complejas que tienen vida, estructuras que se autoorganizan.
  • La energía noética (Información) evoluciona integralmente con las estructuras materiales posee sus propios “campos”, uno de los cuales, el que corresponde al pensamiento, es la Noosfera.
La idea que se sostiene respecto de que la noosfera emerge sólo con la unificación de la humanidad a escala mundial, debe ser revisada, ya que lo que emerge es el darse cuenta, la conciencia, de su existencia. Como se aprecia en el trabajo de Teilhard de Chardin y es confirmado por Vladimir Verdansky y seguidores, así como por Howard Bloom, (NOTA 2) la noosfera ha existido, y en consecuencia evolucionado, desde el Big Bang hasta nuestros días. La noosfera, al ser una entidad no material, no puede emerger de la materia. Así encontramos que Howard Bloom afirma:
Para entender el rompecabezas y los reclamos, movámonos un poco hacia atrás en la historia. Cuando los científicos contemporáneos como el inglés Peter Russell, el francés Joël de Rosnay, el belga Francis Heylighen o el estadounidense Gottfried Mayer-Kress predicen la emergencia de un cerebro global en algún momento en el siglo XXI, sus mentes están a menudo fijas en la comunicación electrónica. Ellos ven transmisiones satelitales, cables de fibras ópticas y la siguiente generación de tecnologías como los axones neurales de un cyber-cortex extendiéndose por continentes y océanos. Pero el intercambio y la tecnología compartida de las herramientas de piedra produjeron versiones tempranas de estos axones hace 2 millones de años...El cerebro global no es sólo humano, producido por nuestra alardeada inteligencia. Está tejido entre todas las especies. Una masa mental anudada, de continentes, de océanos y cielos. Ella (la masa mental) convierte a todas las criaturas grandes y pequeñas en ojos y oídos de los que buscan comprobar, de los innovadores y de los artesanos. Éste es el auténtico cerebro global, la verdadera mente global.
Para quien desee profundizar en este tema, se recomienda ingresar al siguiente sitio electrónico: http://www.heise.de/tp/r4/artikel/6/6556/1.html
Por su parte, el antes citado Joël de Rosnay, (NOTA 3) afirma que científicos filósofos, escritores de ficción e inclusive políticos visionarios han anticipado e inclusive descrito algún tipo de superorganismo planetario que él llama “cerebro planetario”, y argumenta que esta posibilidad surge si uno tiene la perspectiva correcta de la evolución humana (invenciones, descubrimientos, etc.), aunque con las diferencias inherentes a los diferentes grupos humanos. Muchas de estas descripciones frecuentemente son utópicas, ingenuas, inclusive poéticas pero reconocen este fenómeno macroscópico del cual son al mismo tiempo testigos y agentes. Menciona los enfoques de noosfera de Teilhard de Chardin como una esfera global de todas las mentes conectadas a través de redes de comunicación; alude también al concepto de “Meta-hombre” de Gregory Stock; así como al trabajo de Francis Heylighen de la Universidad libre de Bruselas y su “Principia Cibernética Web”, trabajo de colaboración de un grupo internacional sobre una filosofía sistemática evolutiva, al que se puede acceder en http://pespmc1.vub.ac.be/
En forma independiente aunque simultánea con Teilhard de Chardin, Vladimir Ivanovich Vernadsky formuló el concepto de noosfera. Su teoría, “La ciencia de la vida”, fue producto de una mente con formación diametralmente opuesta a la de Darwin. En tanto que éste respondió a una sociedad victoriana de primacía racial e intereses imperialistas, Vernadsky tuvo una formación socialista con bases más científicas.
Su trabajo por mucho tiempo fue desarrollar el concepto de noosfera. El cual definió de la siguiente forma:
Bajo la acción del pensamiento científico y el trabajo humano, la biosfera avanza hacia una nueva etapa, la noosfera…De esta forma, un conjunto siempre creciente de nuevos cuerpos inertes y nuevos grandes fenómenos naturales son creados en la biosfera. Esto no es ocasional sino que es un proceso natural elemental cuyas raíces son profundas.
En cuanto al pensamiento humano, posteriormente él expresó:
Aquí ha surgido un nuevo acertijo. Si el pensamiento no es una forma de energía ¿cómo puede incidir y alterar los procesos materiales? Esta interrogante todavía no ha sido respondida. En cuanto a la noosfera se observa a cada momento los resultados tangibles, empíricos de ese incomprensible proceso.
Lyndon H. LaRouche, seguidor de las ideas de Vernadsky propone:
El potencial productivo del individuo no se encuentra enteramente dentro de sí mismo, sino en la relación de su desarrollo con la “curvatura” característica de la sociedad.
Se recomienda ampliamente leer el artículo “Vernadsky and the Science of Life” en la revista 21st CENTURY, Science & Technology. Summer 2001, en el cual se publicaron las memorias de un panel de discusión en una reciente conferencia del Schiller Institute sobre la necesidad de hacer una revolución en la ciencia, reviviendo el método de Vernadsky.
Muchos autores, como Jean Gebser, Carl Gustav Jung, Antonio Negri y Ken Wilber han llevado a cabo estudios más extensivos y han encontrado que, generalmente hablando, las etapas de desarrollo individual son un reflejo en la evolución noosférica social, que reflejan etapas universales de organización e incremento de conciencia. Inclusive, actualmente, otros autores quieren ver a la Web como la materialización de la noosfera (COBB 1992).(NOTA 4) Para la corriente teilhardiana la Web es una importante y obvia manifestación de la noosfera, pero no es la noosfera. Javier Candeira afirma, que si el mundo está como vislumbra Teilhard de Chardin, recubierto de una noosfera, una capa de materia pensante con una conciencia propia, Internet es el sistema nervioso artificial que nos permite pensar como una comunidad, con facultades que superan a las de cada una de las partes, sea cualitativa o cuantitativamente. Obviamente esto se refiere únicamente a la especie humana.
Otro concepto similar al de Noosfera es el que en la lingüística es de Ferdinand de Saussure, quien a finales de siglo XIX en su obra “Cours de Linguistique Générale” propone la dicotomía de Langue y Parole, en la cual Parole es la manifestación individual del uso del lenguaje, en tanto que la Langue es un campo lingüístico que envuelve al individuo del cual éste toma aquellos elementos del lenguaje de acuerdo con su capacidad.
El biólogo Rupert Shaldrake planteó la teoría llamada de los Campos Mórficos o Morfogenéticos que tiene muy hondas similitudes con la Noosfera. Rupert Shaldrake propone que existen campos de información que influencian todas las estructuras, no solamente de los organismos vivientes, sino también de la materia inanimada. El físico David Peat en su libro Synchronicity se refiere a esta teoría:
Claramente, poderosos principios de organización trabajan cuando las células individuales de una colonia de moho del cieno, repentinamente se congregan entre sí para formar un solo, un unitario organismo llamado babosa. De la misma manera, cuando los electrones de un metal empiezan su danza colectiva para formar un plasma, o se mueven con la corriente integrada de un superconductor, algo más que un solo promedio estadístico de un gran número de individuos mecánicos está trabajando.
En el caso del desarrollo de un embrión humano, algo más sutil tiene lugar para la exacta coordinación de todo el proceso que implica una casi inimaginable complejidad. Células que emigran, se dividen, mueren o se diferencian en un preciso momento; órganos que coordinan su crecimiento y secreciones; varias síntesis y procesos metabólicos que se activan y desactivan en armonía con otros eventos que tienen lugar en áreas remotas del organismo. Por ejemplo, el nervio óptico debe desarrollarse dentro del embrión, de tal manera que los dos extremos de su complejo manojo de nervios hagan la conexión exacta entre los cien millones de receptores que hay en los ojos y en las diversas áreas del córtex visual
.
Al respecto, S. J. Snyder de la Universidad Johns Hopkins declara:
Una de las principales interrogantes en la biología es precisamente cómo discretas porciones del cuerpo llegan a ser lo que son y adoptan su apariencia y función característica… ¿Qué le indica a un grupo de células en un embrión que se desarrollen en un brazo? ¿Por qué cierto grupo de células se desarrollan en un hígado, otro grupo en glándulas y otro en gónadas? El cerebro es un órgano que exhibe de muchas maneras una gran complejidad, mayor que el resto del cuerpo. En su estado embrionario, miles de senderos neuronales serpentean frecuentemente en enrevesados itinerarios antes de alcanzar sus locaciones adultas.
La aceptada hipótesis en la biología, de que el funcionamiento de cualquier ser viviente puede ser explicado en términos del ADN y del metabolismo celular, sólo logra ser un paliativo para una profunda explicación del fenómeno, pues surgen los interrogantes de cómo se establecieron el código genético del ADN y el metabolismo celular. Las respuestas a estas preguntas se aclaran en gran medida al introducir la Información como la fuerza directriz de todos los procesos.
La implicación social más obvia de los Campos-M, es la de que pensamientos y conductas que se tornen habituales, beneficien o no al genero humano, en suficientes cantidades de personas, serán cada vez más fáciles de sincronizar en otros individuos.
Sheldrake propone que los hábitos y conducta que cualquier especie tuvo en el pasado se acumulan hasta alcanzar una masa crítica, y mediante un proceso al que denomina resonancia mórfica, afectan hábitos y conducta de los integrantes actuales de esa especie determinada.
Si un miembro de alguna especie encuentra una nueva manera de interactuar con su medio ambiente, y esta la aprende un número suficiente de individuos de esa especie (masa crítica), esto puede permitir que miembros de la misma especie aunque vivan en distinta zona geográfica, absorban súbitamente esta nueva manera de interactuar, aun cuando no tengan ninguna conexión genética directa con los individuos que dieron origen a la nueva conducta.
Lo más llamativo de la propuesta de Shaldrake, nos dice Peat, es que estos campos al actuar, no sólo en el desarrollo de embriones y otros sistemas biológicos, sino en toda la materia, deben por consiguiente aplicarse a la cristalización de nuevas sustancias sintéticas o a la formación de moléculas fuera de sus átomos componentes.
Los campos mórficos de Sheldrake han sido estudiados con cierta restricción pues lógicamente son rechazados por la ciencia ortodoxa, sin embargo, explican coherentemente incógnitas de varias disciplinas.
Si se acepta la idea de Shaldrake de los Campos -M, al igual que al aceptar la teilhardiana de la Noosfera, se debe extender la naturaleza de la materia introduciendo el concepto de que a cada partícula, átomo, molécula, organismo, especie, etc., le corresponde un campo de información, una conciencia fundamental que complejifica las estructuras a medida que adquiere se conocimiento, y esto sucede conforme se integran físicamente los cuantos de energía mediante procesos cuánticos.
Un breve recorrido por la noosfera.
De acuerdo con Allerd Stikker: (NOTA 5)
El desdoblamiento de la noosfera, abarcando la expansión del pensamiento humano, individual y colectivo, sus inspiraciones y experiencias, condujo inicialmente a las antiguas religiones y a la visión tribal del mundo. Hasta hace aproximadamente dos mil quinientos años el énfasis estaba en el espíritu colectivo, la naturaleza, las deidades mitológicas, los símbolos y los ciclos del retorno sin fin. Entre los años 800 y 200 A.C. la condensación de la noosfera alcanzo un punto de saturación. Desde Grecia, a través de Palestina, Persia, India y China, independiente y simultáneamente, un nuevo patrón de pensamiento emergió: la conciencia de una reflexión crítica individual. Esta transformación liberó al espíritu humano de la naturaleza permitiendo al individuo descubrir la imagen de Dios y tener un punto de vista individual en el juicio del estado y la religión. El individuo pudo buscar la verdad a través del proceso dialéctico.
El progreso de la reflexión crítica dio forma a las grandes filosofías y a las grandes religiones. La mayor parte de este nuevo pensamiento alejó a los humanos de sus raíces, que como hemos visto están profundamente ligadas a la geosfera y a la biosfera, lo que condujo a una distinción radical entre el mundo físico y el divino o realidad última. El pensamiento Judío y el Confucionista abrieron la vía de la secularización, el Budismo y el Hinduismo, de la espiritualización. El Taoismo consideró los valores divinos y terrenos, mutuamente incluidos en la unidad del Universo, la Tierra y los seres humanos, manteniendo la unidad dentro de la diferenciación.
El judaísmo, la transformación de la conciencia Judea, vino a ser la base para la posterior emergencia de la Cristiandad así como del Islam. En añadidura a las dimensiones místicas y divinas de la Trinidad, la cultura Cristiana introdujo la historicidad como un aspecto fundamental de la historia humana y universal. Un tiempo que se desarrolla se superpuso al tiempo cíclico, llegando a ser la piedra angular del pensamiento homocéntrico occidental. La filosofía Griega y la legalidad Romana se inscribieron en los cimientos de la Iglesia, culminando en el siglo XIII con la formulación de los principios Cristianos de Santo Tomas de Aquino.
El pensamiento racional, combinado con la suposición de que los eventos en el mundo estaban gobernados por patrones garantizados por la divinidad, llevó al enfoque científico occidental de medir, analizar y reducir el mundo material y natural. La búsqueda individual y colectiva de la Verdad, condujo a conceptos teóricos para explicar y predecir las relaciones mecánicas. La mente mecanicista se estableció y dominó la noosfera desde el siglo XVI a través de los trabajos de Galileo, Newton, Descartes y otros.
En el siglo XIX, un nuevo mecanismo se descubrió: la selección natural en el desarrollo de las especies. La tesis de Darwin, coincidente con el descubrimiento de Lyell de que la edad de la Tierra se contaba en millones de años, abrió la puerta para las teorías evolucionistas. Esto se opuso al principio de las especies fijas y creadas separadamente, y a la historia bíblica de la creación de la Tierra, que se suponía ocurrida en el año 4004 A.C.
Las civilizaciones del medio y Lejano Oriente mantuvieron sus códigos culturales de espiritualidad y tiempo cíclico. El pensamiento Chino influenciado por el Taoismo, orientado a la naturaleza, y el Confusionismo, orientado a la sociedad, desarrollaron una alquimia y una tecnología basadas en la observación de los procesos naturales y en la experiencia humana. La síntesis y el progreso científico, fundados en conceptos, análisis y reducción, se desenvolvieron principalmente en el Oriente.
En Occidente, las tecnologías basadas en la ciencia, que progresaron en operaciones a gran escala durante el siglo XIX, dieron paso a la revolución industrial. Esta revolución industrial, promotora del tamaño, de la cantidad, de la división del trabajo y de nuevas estructuras de poder, se anexó al Estado y a la Iglesia.
La nueva dimensión organizacional de la sociedad humana, condujo eventualmente a un incremento en la velocidad del proceso evolutivo. En un lapso de 100 años, los sentidos naturales del ser humano se han ampliado exponencialmente en comparación con los miles de millones de años de una evolución planetaria, natural y genética. En otras palabras, el conocimiento acumulado en la noosfera en los últimos cien años, supera con mucho al que se acumuló en los millones de años previos. El microscopio y el telescopio son claros ejemplos de los profundos “saltos” que han expandido el rango de los sentidos, aun cuando el cuerpo físico humano no se haya desarrollado más. La noosfera se está condensando rápidamente con las invenciones humanas y el entendimiento del conocimiento, que está universalmente disponible para el uso colectivo e individual sin tener que repetir el proceso de especialización. La noosfera se esta desarrollando a una fuerte dimensión colectiva.
El proceso de la enajenación humana de la naturaleza que se inició hace 2500 años con el progreso conceptual y mecanicista, ha sido fuertemente incrementado por la dominación humana sobre la naturaleza. La transformación por el género humano, de la vegetación natural, de los minerales y las formas animales, para satisfacer metas humanas, ha tenido lugar a una tasa que se incrementa sin límite. Por añadidura una enajenación de los individuos dentro de la humanidad empieza a emerger.
La identificación del artesano con el producto total empezó a ser reemplazada por el interés del especialista en las partes, proceso que ha llegado a límites inconcebibles. Marx protestó ante esta situación desarrollando nuevos conceptos de estructura social; éstos estaban basados en un punto de vista mecanicista y dialéctico, soportado por el concepto evolucionista darwiniano contemporáneo.
En los albores del siglo XX, la física y la psicología introdujeron una nueva etapa en el pensamiento Occidental, con las nociones de la totalidad, la relatividad y el quanto. La importancia de este salto en la noosfera es comparable a la transformación del pensamiento colectivo al personal y crítico reflexivo ocurrido 2500 años antes. Einstein, Jung y Bohr son exponentes de esta nueva línea de pensamiento cuántico, relativista y holístico. Esta nueva etapa parece haber marcado la emergencia del pensamiento occidental en la dirección de la integración, la interconexión, la totalidad y las relaciones.
Mientras tanto, el ímpetu tecnológico entraba en su apogeo, conduciendo a más invenciones y nuevas aplicaciones. Las consecuencias humanistas y filosóficas del nuevo pensamiento relativista, cuántico y holístico no han llegado a manifestarse plenamente todavía. La revolución industrial condujo a la bomba atómica, al crecimiento incontrolado de la tecnología, a la seguridad social, a un relativo bienestar de una parte de la humanidad a partir de la segunda guerra mundial.
En la ciencia, la tendencia hacia un pensamiento integral se complementó con el pensamiento dinámico, e influenciado por la cultura Cristiana, se orientó hacia la noción de los cambios irreversibles. La proposición holista, que permanecía separada, se integró a la dimensión dinámica del pensamiento evolucionista.
Un aspecto negativo del concepto de cambios irreversibles, incluido el concepto de entropía, llevó a la pesimista creencia de una eventual muerte del Universo en un caos final. Actualmente, de acuerdo con los recientes descubrimientos de los principios de la autoorganización en la naturaleza (orgánica e inorgánica), la tendencia es a corregir esa noción.
En medio de estos profundos cambios en el pensamiento Occidental, Teilhard de Chardin desarrolló su visión integral y dinámica de la evolución del Universo, en la cual, como hemos visto, el cosmos, la Tierra y la humanidad, participan en un proceso dinámico que tiene un patrón y una intención. Durante este proceso, el crecimiento de la complejidad conduce al crecimiento de la conciencia en una relación directamente proporcional. La humanidad está encabezando la evolución, la cual alcanzará su culminación en el punto Omega, cuando una nueva transformación de la conciencia emerja a través de la noosfera.
En el curso del siglo XX, los inventos y los descubrimientos científicos se han incrementado exponencialmente, en parte como resultado del aumento de las interacciones entre los científicos, y en parte porque ahora hay mucho más científicos. La población mundial ha crecido de 1600 millones en 1900 a 6000 millones en 1999, Los nuevos conceptos y las nuevas leyes no han invalidado a los antiguos, pero los han suplantado en un amplio contexto.
A partir de los años sesenta, una dimensión universal se ha sumado a los aspectos dinámicos y holistas de la ciencia y la psicología. El Universo se presenta como una membrana sin costuras. Los patrones y códigos que se manifiestan en la Tierra, son parte de un todo universal que se está revelando. Las fuerzas y los agentes de cambio, que operan dentro de estos códigos y patrones ya existentes, crean además nuevos. Estas fuerzas contravienen consistentemente a la entropía y son de naturaleza autoorganizativa. La ciencia está descubriendo una intencionalidad universal en todo el proceso creativo. Se están reconociendo manifestaciones únicas e impredecibles en contraste con los promedios estadísticos, los cuales son productos de la mente, pero no de la realidad última. En esto convergen los criterios de Bohm, Prigogine y Jung
.
El biólogo Harold Morowitz,(NOTA 6) de manera similar a Stikker, afirma que para entender los últimos 10 mil años se debe seguir las sugerencias de Teilhard de Chardin. Y argumenta que la emergencia de la mente en los homínidos en el transcurso evolutivo fue tan importante como la emergencia de la vida. Él dice que este punto se refuerza epistemológicamente, al razonar que la mente se globalizó de la misma forma que la vida, se extendió y cubrió el planeta. De la misma forma que la vida dio origen a la biosfera y su integración planetaria, la mente dio origen a la “noosfera” o actividad mental colectiva del homo sapiens.
Como para casi todos los científicos, el concepto de Noosfera era para Morowitz sólo un término más bien poético. Actualmente él ve la Web como una materialización o concreción de la noosfera con lo que Teilhard, para Morowitz, se convierte en el pensador más visionario.
Asegura Morowitz:
La idea del buscador solitario de la verdad ignora hasta que punto nosotros somos animales sociales con una larga infancia y maduración, con algún grado de independencia. La tecnología, la filosofía y la religión son actividades sociales. La “verdad” en la ciencia depende de acuerdos entre sus practicantes: todos somos parte de la noosfera que está en desarrollo y se espera que la próxima emergencia más allá de la noosfera, un movimiento de la mente a algo más espiritual.
Según Morowitz,Teilhard habló de dos emergencias, la material y la espiritual, por lo que fue rechazado desde el punto de vista de la termodinámica. Pero en realidad a él le molestaba la idea de dos energías dado que de una forma u otra debe existir una sola energía que opere en el mundo y así lo planteó en su libro El fenómeno humano. De ésta energía única se derivan las energías noética y material.
Respectivamente, las dos energías, mente y materia, se extienden a través de dos capas del mundo (el interior y el exterior) y tienen mucha semejanza en su comportamiento.(NOTA 7) Constantemente se asocian y de alguna forma se traslapan. Aunque parece imposible establecer una correspondencia simple entre sus curvas.
Por un lado, sólo una fracción diminuta de energía “física” se utiliza en el más grande ejercicio de la energía espiritual. Por otro lado, esta fracción diminuta, una vez absorbida, resulta, a escala interna, en los más extraordinarios efectos.
Respectivamente, las dos energías, la física y la psíquica, se extienden a través de las capas externas e internas del mundo y se comportan casi de la misma manera. Ellas se asocian constantemente y de alguna forma fluyen una dentro de la otra. Aunque parece imposible establecer una correspondencia simple entre sus curvas.
Por un lado, sólo una fracción infinitesimal de energía “física” se utiliza en los más profundos desarrollos de la energía espiritual. Y por otro lado, una vez que esta fracción infinitesimal se absorbe, es expresada en la escala interna en las más inesperadas oscilaciones.” (Teilhard de Chardin 1963
).(NOTA 8)
El problema enunciado por Teilhard, según Morowitz, puede ser formalizado de la siguiente manera: si el cambio en la energía libre de Gibbs de un sistema es dividido entre sus partes componentes, puede ser expresado:
∆G = ∆HT∆S
Donde ∆G es la diferencia de la energía libre de Gibbs, ∆H es la diferencia de la entalpía,(NOTA 9) T la temperatura y S la entropía.
Continúa Morwits diciendo: Ahora bien, S es la parte informativa del estado termodinámico del sistema. (NOTA 10) Es como si la parte de la energía libre de Gibbs pudiera ser dividida entre un componente material y uno mental. Teilhard estaba más cerca de la solución de lo que se imaginó.
E. T. Jaynes en 1957 demostró que en la mecánica estadística la entropía de un sistema era la medida de la información que nosotros obtendríamos si supiésemos en que microestado el sistema se encontraba, empezando con el conocimiento del macroestado, esto hizo que la perspectiva de Teilhard se viese favorecida, debido a la la reconciliación que Jaynes hizo entre la teoría de la información y la mecánica estadística.
Existe en la formulación de Jaynes cierta propiedad noética de la entropía que basada en la información racionaliza el concepto de las dos energías de Teilhard. Él también intuyo algo semi-cuantitativo entre las dos energías como se ve en su anterior cita.
Utilizando la formalización (información) de Jaynes y Shannon se puede calcular que una decisión binaria involucra una energía equivalente a
E = kTln2
E = 4.14 x 10-21 joules
Donde T es la temperatura absoluta y k es la constante de Boltzmann. Esta es en realidad una minúscula cantidad de energía.
Morowitz no lo aclara, pero la fórmula general debe ser:
E = kTlnW
Donde lnW es el logaritmo natural de los microestados del sistema, 2 en el caso de una decisión binaria.
Surge una incógnita, si k tiene un valor de 1.38066 x 10-23 j x K-1 y el logaritmo natural de 2 es 0.693. entonces Morowitz consideró una temperatura de 433º K =160º C, pero no dice en que se basó para considerar esta temperatura.
También, de acuerdo con la fórmula que propone resulta que si la temperatura en el tiempo de Planck, o sea en el Big Bang, era de 1032 ºC,
entonces:
E = 1.38066 x 10-23 x 1032 x 0.693
E = 1000 000 000 joules
La masa del electrón es igual a
E = 8.0895 x 10-14 joules
Por lo que en el tiempo de Planck se requería de 1.23 x 1022 veces la energía de un electrón para transmitir un bit de información.
Esto conduce a múltiples conclusiones, quizá una de las más importantes es que Morowitz puede argumentar que si la energía libre operativa en la bioquímica se minimiza es porque la Información requiere cada vez menos de ella, pues lo que se incrementa cada vez más es la transmisión de la Información a través del fenómeno poco conocido llamado sincronía, pero esta discusión queda fuera del alcance de este trabajo
Nosotros creemos que la energía noética no es actualmente susceptible de ser cuantificada. Solo se puede tener un índice relativo de su magnitud a través de un índice relativo de la complejidad, que se obtiene en la termodinámica, si se acepta el principio teilhardiano “La complejidad de una estructura material es directamente proporcional a la Información que contiene.”
La energía noética debe ser una energía “fría” en el sentido que no le son aplicables la leyes de la termodinámica. Éstas surgen con la energía-materia.
Volviendo a Morowitz: En la física, la mente humana ha llegado a ser parte de un formalismo. Una distribución de probabilidad se convierte en un evento al interactuar con un observador humano, y una entropía tiene que ver con la ignorancia del observador humano del microestado del sistema. La energía libre operativa en la bioquímica es la energía libre de Gibbs, la cual se minimiza al maximizarse la entropía del universo. Los cambios en la energía libre de Gibbs involucran cambios en la entalpía o energía normal medida con un calorímetro y cambia a la entropía que tiene que ver con el conocimiento del observador del microestado del sistema. El termino entropía tiene un aspecto mental. En algunas ocasiones Teilhard se refiere a ella como energía espiritual y en otras como mental. En este punto el pudo haberla llamado energía noética mas que energía espiritual. Las dos energías existen tanto para la termodinámica de Gibbs como para la perspectiva teilhardiana.
Teilhard habla del espíritu y va más allá del pensamiento per se y se refiere al espíritu de la Tierra y de lo hiperpersonal. Lo biológico (segunda gran emergencia) es superado cuando uno busca lo espiritual y va más allá de lo mental (tercera gran emergencia), y se adentra en el dominio de algo más psíquico, el surgimiento formidable de un poder no utilizado.
Existe un sentimiento que va de los teístas a los existencialistas que no ha sido suficientemente entendido.
Los darwinistas rigurosos se preguntan quien seguirá al homo sapiens ¿será algún tipo de homínido más adaptable? En tanto que los lamarckianos se preguntarán que se tendrá que cambiar en nuestra sociedad para lograr lo mejor para la mayoría. Si en realidad nosotros somos lo trascendente de un Dios inmanente, éste es nuestro turno.
Actualmente se han desarrollado dos conceptuaciones futurísticas. La primera argumenta que la vida basada en el carbono es precursora de la vida basada en el sílice, dado que predominará una inteligencia potencialmente superior, con los humanos eliminados o en un rol secundario. Esto significa un rompimiento molecular discreto en la vida, aunque no necesariamente un rompimiento en informática y en el manejo de la información. Por supuesto que no se sabe lo que el amor significa para una computadora.
La segunda conceptuación se refiere a un mundo en el cual la ingeniería genética nos ayudará a ser el prototipo deseado de homínidos. Tecnológicamente esto es posible, pero ¿tendremos la sabiduría para evitar consecuencias no previstas? ¿Tendremos claro que tipo de ingeniería humana queremos hacer?
Yo asumo, dice Morowits, que algo nuevo emergerá en la sociedad humana que nos dotará con posibilidades inimaginables en la ciencia y en el arte. Esta emergencia requiere de nuestros esfuerzos y de algo espiritual que vaya más allá de la mente.
Se dará una nueva emergencia y nosotros tendremos que ver en ella. Éste es nuestro destino.
Como se dijo en el inicio, el concepto de noosfera actualmente es objeto de estudio de muchos científicos e intelectuales, como una realidad ineludible que surge sutilmente incluso en teorías de física cuántica, de la cosmología y de las ciencias emergentes.
Para terminar esta breve introducción al concepto de noosfera, se recomienda ver el sitio Web del proyecto de la University of Princeton llamado “The GCP” (The Global Consciousness Project). Este proyecto se basa en la siguiente premisa: “La investigación sobre las anomalías de la conciencia nos muestra que podemos tener vías de comunicación directa unos con otros, y que las intenciones pueden tener efectos en el mundo, a pesar de las distancias y las barreras físicas. La evidencia nos obliga a aceptar correlaciones que aún no podemos explicar.” http://noosphere.princeton.edu/index.html


(NOTA 1) Teilhard de Chardin utiliza el término Energía Radial, que aquí se evita porque se confunde facilmente con la energía que los físicos llaman radiación.
al texto
(NOTA 2) Howard Bloom, profesor de la New York University miembro de la New York Academy of Sciences y de la Nacional Association of Advancement of Science y fundador del International Paleopsychology Project, en su libro “Global Brain. The Evolution of Mass Mind from the Big Bang to the 21st Century, Nueva York, John Wiley & Sons, 2000”
al texto
(NOTA 3) Doctor en química orgánica por el Pasteur Institute de París, del cual llegó a ser Director de Investigaciones, trabajó en el MIT como investigador asociado en biología y gráficas de computación y es Director de Estrategia para Science and Industry Complex en París y autor de varios libros, entre ellos ¿Qué es la vida? y The Symbiotic Man. A new understanding of the organization of life and a vision of the future.
al texto
(NOTA 4) COBB Kreisberg, Jennifer, A Globe, Clothing Itself With a Brain. An obscure Jesuit priest, Pierre Teilhard de Chardin, set down the philosophical framework for planetary, Net-based consciousness 50 years ago. Copyright © 1995 Wired Ventures Ltd.
al texto
(NOTA 5) STIKKER, Allerd, The Transformation Factor (Toward an Ecological Consciousness), Elemental, USA, 1992.
al texto
(NOTA 6) MOROWITZ; Harold J., The Emergence of Everything. How the World Became Complex. Cap. 32, USA, Oxford University Press, 2002.
al texto
(NOTA 7) Ya en el siglo XVII Spinoza consideraba que “El orden y enlace de las ideas es lo mismo que el orden y enlace de las cosas”. De este postulado se puede deducir que el Conocimiento al evolucionar deviene en estructuras informativas más complejas, al igual que las estructuras que lo contienen. Para Teilhard de Chardin, la evolución es la evolución de la energía radial, la Información. Para Piaget, la evolución es la evolución de las estructuras cognitivas y cómo estas interactúan con la Información. Ahora, la evolución es de la Información y su interacción con las estructuras materiales. Y en la evolución de la Información en una emergencia surge la conciencia. La tesis que sostiene que la Información es la base de la evolución del universo no es nueva. En el libro The Mind and the Brain, se afirma que de acuerdo con la visión de la ciencia hegemónica, que estudia de la parte al todo, tanto los legos como los científicos consideran que el mundo está construido por diminutos fragmentos de materia. Para muchos, esta visión es incorrecta. Ya en 1930, el matemático húngaro John von Neumann desarrolló una versión de la teoría cuántica, en la que postula que “el mundo no esta construido por fragmentos de materia sino por fragmentos de conocimiento…” Sin embargo, esta idea se perdió rápidamente cuando el materialismo triunfó, pero éste a pesar de haberse impuesto ha sido incapaz de explicar cómo emerge la Información.
al texto
(NOTA 8) TEILHARD de Chardin, Pierre, El fenómeno humano, Taurus, Madrid, 1963, colección Ensayistas de hoy, No. 32
al texto
(NOTA 9) La entalpía es: H = U + PV
Donde U es la energía interna, P la presión y V el volumen. Un componente interno y otro externo que depende del medio.
al texto
(NOTA 10) A partir del análisis del “demonio” de Maxwell, Leon Brillouin estableció la equivalencia entre información y neguentropía, llamándole “el principio de neguentropía de la información”. El “demonio”, con su selección, se opone al aumento de la entropía del gas, con lo que adquiere conocimiento. Por lo tanto, neguentropía = información.
al texto

Una esfera que se reviste con un cerebro

Hace 70 años, el ahora casi desconocido cura jesuita, Pierre Teilhard de Chardin, estableció los fundamentos filosóficos de la conciencia planetaria basada en la Red.
Por Jennifer Cobb Kreisberg.
Ha inspirado a Al Gore y a Mario Cuomo. El ciberbardo John Perry Barlow lo encuentra intensamente perspicaz. Christian de Duve, recipiente del premio Nobel, afirma que su visión nos ayudará a encontrar significado en el cosmos. Incluso Marshall McLuhan citó su “testimonio lírico” cuando formuló su noción de la emergente aldea global. ¿A quién celebra este grupo ecléctico? A un sacerdote y paleontólogo llamado Pierre Teilhard de Chardin, cuya excéntrica filosofía apunta, extrañamente, justo hacia el ciberespacio.
Teilhard de Chardin encuentra partidarios entre aquellos que buscan semillas de verdad espiritual en el universo laico. Usando las palabras de Mario Cuomo, “Teilhard hizo de la negatividad una forma del pecado. Nos enseñó cómo todo el universo –incluso el dolor y la imperfección- es sagrado”. Marshall NcLuhan se apoyó en Teilhard como fuente de discernimiento divino en La galaxia de Gutenberg, su clásico análisis sobre la caída de la cultura occidental en el mundo profano. Al Gore, en su libro La Tierra en la balanza, aduce que Teilhard nos ayuda a entender la importancia de la fe en el futuro. “Armados con tal fe”, escribe Gore, “quizá descubramos que es posible resantificar la Tierra, identificarla como creación de Dios y aceptar nuestra responsabilidad de protegerla”.
Desde los 20s hasta los 50s, Teilhard de Chardin bosquejó una serie de obras líricas sobre la evolución, que ha resurgido como la piedra angular de nuevas teorías evolutivas. Específicamente, Teilhard y su contraparte rusa, Vladimir Vernadsky, inspiraron la renegada hipótesis de Gaia (más tarde presentada por James Lovelock y Lynn Margulis): el ecosistema global es un superorganismo, mucho más que la simple suma de sus partes.
Esta visión es visiblemente teológica –de golpe todo, desde las piedras hasta la gente, cobra una importancia holista. Como jesuita, Teilhard lo sintió profundamente. Hoy en día un puñado de ciberfilósofos se encuentra explotando esta mina ideológica mientras busca las ramificaciones más lejanas de la Red. Como dice Barlow, “el trabajo de Teilhard trata sobre la creación de una conciencia tan honda que podrá hacerle compañía a Dios mismo”.
Teilhard imaginó un estadio de la evolución caracterizado por una compleja membrana de información que envuelve la esfera terrestre y es impulsada por la conciencia humana. Suena un poco disparatado, hasta que piensas en la Red, ese vasto tejido electrónico que circunda la Tierra, corriendo de punto en punto como una constelación de nervios que son cables. Vivimos en un mundo entrelazado con líneas telefónicas, transmisiones inalámbricas vía satélite y circuitos computarizados que nos permiten viajar electrónicamente de Des Moines a Delhi en un abrir y cerrar de ojos.
Teilhard vio venir a la Red más de 50 años antes de que llegara. Creía que esta enorme membrana pensante se incorporaría al final en “la unidad viviente de un solo tejido” que contendría nuestros pensamientos y experiencias colectivas. En su obra maestra, El fenómeno humano, Teilhard escribió, “¿acaso no es como un gran cuerpo que nace –con sus miembros, su sistema nervioso, sus órganos receptores, su memoria-, el cuerpo, de hecho, de esa gran Cosa viviente que debía llegar para cumplir las ambiciones que provocó la recién obtenida conciencia en el ser pensante?”
“A lo que se refiere Teilhard en ese párrafo puede ser resumido fácilmente en unas cuantas palabras”, dice John Perry Barlow, “el propósito de toda la evolución hasta este momento es la creación de un organismo colectivo, de una Mente”.
La filosofía de la evolución que produjo Teilhard nació de su dualidad como sacerdote jesuita, ordenado en 1911, y como paleontólogo, carrera que comenzó en los primeros años de la década de los 20s. Un día, mientras llevaba a cabo sus investigaciones en el desierto egipcio, escarbando aquí y allá en busca de los restos de criaturas arcaicas, Teilhard volteó una piedra, la despolvó y, de pronto, comprendió que todo a su alrededor estaba exquisitamente conectado en una inmensa y pulsante red de vida. Poco después, ya había desarrollado una filosofía que acoplaba la ciencia del mundo natural con las fuerzas sagradas de la Iglesia Católica. Ni la Iglesia Católica ni la academia científica, sin embargo, estuvieron de acuerdo. La premisa de Teilhard, que las rocas poseen una fuerza divina, fue considerada bastante frágil por los científicos y de plano una herejía por la iglesia. Los textos de Teilhard fueron desdeñados por sus colegas en ambos campos.
A lo largo de los años 40s y 50s, la Iglesia Católica estuvo a punto de excomulgar a Teilhard, pero el filósofo tenía una firme convicción en sus ideas y rehusaba abandonar tanto la iglesia como su obra. Conforme crecieron sus problemas con la iglesia, Teilhard se convirtió en una especie de celebridad dentro de su círculo intelectual en Europa. La iglesia respondió prohibiéndole publicar y trasladándolo a China, donde vivió virtualmente exiliado, recorriendo el desierto de Gobi y desarrollando su filosofía en la soledad. (Sus estudios paleontológicos continuaban circulando y se les tenía en alta estima.) El resto de su obra no fue publicada hasta después de su muerte, acontecida el Domingo de Pascua de 1955, evento que estremeció en cierto grado el mundo teológico. Durante un breve periodo, sus trabajos fueron leídos asiduamente; hoy en día, en el ambiente posmoderno de la teología contemporánea, Teilhard ya no es tan leído y una vez más y teólogos, biólogos evolucionistas y otros científicos ven su obra con desdén.
“Teilhard no recibe el suficiente reconocimiento por sus ideas”, dice Ralph Abraham, uno de los fundadores de la teoría del Caos y coautor de The Web Empowerment Book, una de las mechas iniciadoras del WWW, “los papas lograron quitarle toda su influencia”.
Pero, ¿a qué le tenían tanto miedo los papas? La respuesta es fácil: a la evolución.
El concepto de la evolución era un pilar central, tanto intelectual como espiritual, en la vida de Teilhard. Durante las primeras etapas de su carrera, antes de que la ciencia tuviera evidencias convincentes de la existencia del DNA, la teoría de la evolución no era ampliamente aceptada. Sin embargo, Teilhard se acercó a ella presintiendo que sería el punto donde se reunirían su amor por las piedras y por Dios. Más tarde describiría la evolución como “la condición general a la que todas las otras teorías, todas las hipótesis, todos los sistemas deben someterse y a la que deben de satisfacer si quieren ser   tomadas en cuenta. La evolución es la luz que ilumina todos los hechos, una curva que todas las líneas deben seguir”.
El significado de la evolución era tan profusamente debatido en los días de Teilhard como lo es hoy. Algunos argumentaban, en términos puramente darwinistas, que el mecanismo primario de la evolución es la necesidad: “la supervivencia del más apto”. Otros evolucionistas siguieron los pasos de Jacques Monod, el biólogo francés de vanguardia, quien propuso una combinación del azar y la necesidad. Teilhard llevó esa idea un paso más adelante al decir que la evolución era guiada por el azar y la necesidad. En resumen, esto trajo a Teilhard al centro de su doble herejía: si la evolución está siendo guiada, ¿qué o quién lleva las riendas? ¿A dónde se dirige?
Ya para los años 40, la idea de la evolución de las especies no causaba controversias en los círculos científicos. Aun así fue, y sigue siendo, una idea extrema en el ámbito religioso. A todo niño católico se le enseña en la escuela que Dios es inmutable. Y todo joven estudiante de ciencia sabe lo poco que Dios tuvo que ver con la aparición de la humanidad a partir del caldo primigenio.
¿Quiso decir Teilhard que Dios evoluciona?
No precisamente. La idea de Teilhard era más sutil y bastante útil a la hora de examinar las implicaciones de ese mundo volátil, vertiginoso y descontrolado que llamamos ciberespacio.
Teilhard pensaba que la chispa divina de vida que experimentó en el desierto egipcio era una fuerza presente a través del proceso evolutivo, guiándolo y dándole forma tanto como lo hacen las fuerzas materiales que describe la Física. Posteriormente, Teilhard codificaría estas fuerzas en dos tipos fundamentales de energía, la radial y la tangencial. La energía radial corresponde a la energía de la física newtoniana. Esta energía obedece las leyes de la mecánica, tales como causa y efecto, y podía ser cuantificada. Teilhard llamó “el exterior” a la energía radial. Por otro lado, la energía tangencial es la energía de “el interior”, en otras palabras, la chispa divina.
Teilhard clasificó la energía tangencial en tres categorías. En los objetos inanimados, la llamó “previda”; en seres que no tienen conocimiento de sí mismos, la llamó “vida”; y en los seres humanos, la llamó “conciencia”. Conforme Teilhard observaba el mundo descrito por la ciencia, apreció que en ciertas cosas, como las piedras, predominaba la energía radial, mientras que la energía tangencial era apenas perceptible. Las piedras, por lo tanto, son mejor descritas por las reglas que controlan la energía radial: la física. Pero en animales, donde la energía tangencial, o vida, está presente, las leyes de la física solamente ofrecen una explicación parcial. Teilhard concluyó que cuando predominara la energía radial, el proceso evolutivo estaría caracterizado por las leyes tradicionales de la ciencia, la necesidad y el azar. Pero en aquellos organismos con una significativa presencia de energía tangencial, las leyes de la vida y la conciencia gobernarían a las leyes del azar y la selección natural.
Teilhard llevó su discernimiento más allá. Se percató de que, mientras la cantidad de energía tangencial de un ente cualquiera aumentara, éste se desarrollaría naturalmente en dirección de la conciencia. Un aumento de conciencia iba de la mano del aumento en la complejidad general del organismo. Teilhard llamo a esto la “ley de la complejidad y la conciencia”, que manifiesta que el crecimiento en complejidad es proporcional al aumento de conciencia.
Teilhard escribió: “el mundo vivo está constituido por conciencia que se viste de carne y hueso”. Argumentó que la forma principal de incrementar la complejidad y la conciencia en los organismos vivos es el sistema nervioso. El alambrado informativo de un ser, afirmó -ya sea de neuronas o electrónico-, da a luz a la conciencia. Según se diversifican las conexiones nerviosas, también la evolución tiende más hacia la conciencia.
Como señala Abraham, la ley de la complejidad y la conciencia de Teilhard corresponde a lo que ahora consideramos la red neuronal. “Ahora sabemos, basados en la tecnología de redes neuronales, que entre más conexiones hay entre los puntos de un sistema, y mientras la fuerza de esas conexiones se mantenga, ocurrirán saltos en inteligencia, si definimos a la inteligencia como el índice de probabilidad para llevar a cabo una tarea X”. Si damos por hecho el poder de dichas conexiones, entonces la red neuronal del Internet es suelo fértil para que emerja una inteligencia global.
Teilhard también explicó que el proceso evolutivo ha pasado por tres fases principales. La primera empezó cuando la vida surgió del desarrollo en la biosfera. La segunda cuando, al final del periodo Terciario, aparecieron los primeros seres que disfrutaban de una forma de pensamiento que los hacía conscientes de sí mismos. La tercera fase llegó una vez que los seres humanos pensantes comenzaron a comunicarse alrededor del mundo. Se trataba de la “capa pensante” de Teilhard, llamada noosfera (de la palabra griega noo, mente). Aunque al principio era pequeña e intermitente, la noosfera siguió creciendo con el tiempo, sobre todo durante la época de la electrónica. Teilhard describe la noosfera en la Tierra como una cristalización: “Un brillo ondulatorio que irradia hacia afuera desde la primera chispa de reflejo consciente. El punto de ignición crece. La luminosidad se propaga en círculos concéntricos hasta que, por fin, el planeta entero es cubierto por la incandescencia”.
La imagen que Teilhard se hizo de la noosfera, una membrana pensante que cubría el planeta, era casi biológica: era un globo terráqueo que se reviste, se cubre con un cerebro. Teilhard escribió que la noosfera “resulta de la acción combinada de dos curvaturas: la forma geométrica de la Tierra y la convergencia cósmica de la mente”.
El concepto de noosfera atrajo la atención de Marshall McLuhan. La descripción que Teilhard hizo sobre el fenómeno electromagnético se convirtió en una norma de las teorías de McLuhan sobre la “cultura eléctrica” global. En La galaxia Gutenberg, McLuhan cita a Teilhard: “¿Qué es lo que ocurre, de hecho, en el paroxismo de hoy? Se ha dicho una y otra vez. A través de los descubrimientos de ayer, el ferrocarril, el automóvil y el aeroplano, la influencia física del hombre se extendió de unos cuantos kilómetros a cientos o incluso miles. Todavía más: gracias al prodigioso evento biológico que representa el descubrimiento de las ondas electromagnéticas, a partir de ahora cada individuo está (pasiva o activamente) presente de forma simultánea, sobre mar y tierra, en todos los rincones de la Tierra”. En esta ocasión, sin embargo, la tribu se desenvuelve en un campo de juego global.
Ahora, nos encontramos en el comienzo de lo que Teilhard definió como la tercera fase de la evolución, el momento cuando el mundo está cubierto por el brillo incandescente de la conciencia. Teilhard describió este momento como “la evolución cuando cobra conciencia de sí misma”. La Red, esa gran convocatoria de mentes, es la herramienta fundamental para entrar en la tercera fase. “Mediante el ciberespacio estamos, de hecho, instalando los patrones de la conciencia colectiva.
Al introducir la idea de la energía tangencial –la energía de la conciencia- como un factor primario en la evolución, Teilhard abrió las puertas a un nuevo plano de significado. La historia del mundo, nos dice, “ya no tendría así la apariencia de una sucesión de tipos estructurales que se reemplazan uno al otro, sino la del ascenso de la savia mientras se extiende a través de un bosque de instintos afianzados”. Probablemente esto es justo lo que la Red está haciendo –afianzando nuestros instintos- para que la conciencia prosiga su desarrollo.

Anything other than the words electric + birkeland currents with plasma?


Why do astronomers and scientists do everything they can to describe things without using the words electric or birkeland currents when describing space stuff? It appears you can not have a magnetic field in space without the flow of electrical current. There are incredible "magnetic" events happening all over the universe yet the electricity needed to create magnetic fields is not mentioned.

The earth and the sun connect magnetically every 8 minutes

Sunspots are caused by magnetic events.

white dwarfs pulling matter from companion stars, and double stars with strong magnetic activity

2 answers. Either they, although scientists with degrees etc, dont know that electricity is needed to produce magnetic fields, or, they dont know actually believe that electricity exists in space? Of course you have the conspiracy angle to it in that they are on purpose ignoring it, anything other than the dreaded E word.

Magnetic ropes, stringy things....might they be electrically charged plasma, Birkeland currents as they are known?


Birkeland Currents information - wikipedia and post below about the Birkeland Nebula



Space Tornadoes Cause a Stir


The idea of a giant radiant pillar rising up from the earth to the sky would have sounded too fantastic to be true – until recently.

In April of 2009, NASA’s fleet of THEMIS satellites detected vast electrical tornadoes about 40,000 miles above the night side of the earth, on the boundary between the solar wind and the earth’s magnetosphere.

Since the 1990s, a handful of ‘plasma mythologists’ had assumed the former existence of a stupendous, luminous sky column that was visible from almost every part of the earth. The evidence for this was the prominent place allotted to this axis mundi or ‘world axis’ in detailed cosmological traditions from hundreds of cultures dotted around the globe.

The column was widely portrayed as a prodigious mountain, tree, rope, bridge, ladder or pathway and was universally characterised by notions of centrality, vitality, vorticity, and luminosity: the conspicuous position it occupied in the firmament earned it an association with the ‘navel’, ‘heart’ or ‘centre’ of the world; its agility made it seem as if it was imbued with life, like a giant divine creature breathing life into the surrounding cosmos; its filamentary extremities were subject to warping and twisting, while the column itself was seen to be entwined by spiralling filaments frequently compared to snakes; and the splendour of the light it emitted repeatedly invited comparison to the sun and to lightning.

Scores of mythical traditions from all inhabited continents detail the eventual collapse and disappearance of this mighty lightning-like pillar. The Maya of Valladolid, Yucatán, recalled the existence of “a road suspended in the sky” over the peninsula: “For some reason this rope was cut, the blood flowed out, and the rope vanished forever.”
Space Tornadoes Cause a Stir - thunderbolts .info 


 ¿Y cómo funciona el cerebro?

Señalización sináptica

            La sinapsis es el proceso esencial en la comunicación neuronal y constituye el lenguaje básico del sistema nervioso. Afortunadamente, las semejanzas de los mecanismos sinápticos son mucho más amplias que las diferencias, asociadas éstas a la existencia de distintos neurotransmisores con características particulares.
        Elliot en 1904 fue el primero que sugirió la posibilidad de que la información era transferida de una neurona a otra por la liberación de una sustancia química desde las fibras nerviosas; Loewi es, sin embargo, el primero que mostró la existencia de una sustancia química en el líquido perfundido con la estimulación del nervio vago y fue su colaborador Navratil quien más tarde demostró que esta sustancia era la acetilcolina.
        La sinapsis es un punto de machimbre o de enlace entre dos neuronas, la presináptica y la postsináptica. Las fibras nerviosas actúan como terminales de bujías eléctricas de los motores de explosión. Hay una luz o una brecha sináptica entre los terminales, brecha sináptica donde descargan vesículas sinápticas que difunden, ayudan a que ocurran reacciones físicas y químicas, recapturan los neurotransmisores ya usados y propagan potencial eléctrico desde una pared o membrana de la brecha o hendidura, la de la neurona presináptica, a la pared o membrana de la otra, la postsináptica.
En su extremo, el axon de los nervios se ramifica en muchos terminales pequeños que llegan a estar en contacto estrecho con las dendritas de otras neuronas.      Al contacto entre dos neuronas se le llama sinapsis.  El axon y la dendrita nunca se tocan.  Siempre hay un pequeño vacio llamado hendidura sinaptica.  Cuando la señal electrica llega a un terminal nervioso, hace que el nervio libere neurotransmisores. Los neurotransmisores son agentes quimicos que viajan una corta distancia hasta las dendritas mas próximas.
    A la neurona que libera el neurotransmisor se le llama neurona presinaptica.  A la neurona receptora de la señal se le llama neurona postsinaptica.  Dependiendo del tipo de neurotransmisor liberado, las neuronas postsinapticas son estimuladas (excitadas) o desestimuladas (inhibidas).  Cada neurona se comunica con muchas otras al mismo tiempo.  Puesto que una neurona puede enviar o no un estimulo, su comportamiento siempre se basa en el equilibrio de influencias que la excitan o la inhiben en un momento dado.  Las neuronas son capaces de enviar estimulos varias veces por segundo.La sinapsis es un hecho comunicativo entre dos neuronas, una presináptica y otra postsináptica. Es imprescindible la conducción previa del impulso nervioso en la neurona presináptica y particularmente, en los denominados botones terminales, que son las últimas estructuras de la ramificación y diversificación axónica de la neurona presináptica. Esta circunstancia es el primer punto de acción para los fármacos y drogas que afectan a la sinapsis, pues en concreto, la modificación de la conductibilidad, aun no siendo un fenómeno tan asequible como otras etapas de la sinapsis, es uno de los caminos para la intervención de anestésicos que infiltrados a distintas concentraciones bloquean o modifican la conductibilildad.
    Algunos neurotransmisores como acetilcolina (ACh), glicina, glutamato, aspartato y ácido gamma-amino butírico (GABA), tienen una actividad biológica directa aumentando la conductancia a ciertos iones por adherencia a canales iónicos activados en la membrana postsináptica. Otros neurotransmisores, como la noradrenalina (NA), dopamina (DA) y serotonina (5-HT), no tienen actividad directa pero actúan indirectamente vía sistemas de segundo mensajero para causar la respuesta postsináptica. Estos sistemas implican adenosín-monofosfato-cíclico (AMPc), guanidín-monofosfato-cíclico (GMPc), inositol trifosfato (ITP), diacil glicerol (DAG), prostaglandinas (Pgs), leucotrienos, epóxidos y Ca++.
4.2.3.1. Clases de sinapsis.
    La función de la neurona es la comunicación y la función del SN es generar un comportamiento, ambos en virtud de las conexiones interneuronales. Una neurona ejerce su influencia para excitar a otras neuronas mediante los puntos de unión o sinapsis.  Cada unión sináptica está formada por una parte de una neurona (terminal sináptico) que conduce un impulso a la sinapsis y por otra, de otra neurona (estructura postsináptica) que recibe el impulso en la sinapsis (Barr, 1994).
    El impulso nervioso debe atravesar un espacio muy pequeño (20nm), denominado hendidura sináptica que separa las estructuras pre y postsinápticas  y puede propagarse en cualquier dirección por la superficie de la neurona; sin embargo la dirección que toma en condiciones fisiológicas se determina por una polarización constante que se hace en la sinapsis, donde la transmisión se efectúa del axón de una neurona a la superficie de otra neurona (Darnell, 1993).
    La dinámica estructural y funcional para que se lleve a cabo una sinapsis  entre dos neuronas esta dada por el movimiento, descarga, recaptación y reformación (resíntesis) de un neurotransmisor. Algunos neurotransmisores, como los péptidos, por ejemplo, son producidos en el soma, empaquetados en las vesículas que migran a través del axón  mediante flujo axoplásmico por medio de los microtúbulos hacia el terminal presináptico donde se conocen con el nombre de vesículas sinápticas. La naturaleza del contenido de la vesícula sináptica varía dependiendo de la región cerebral de donde esta proceda. Cuando un impulso llega al terminal sináptico esta acompañado por la entrada de iones calcio en  el citoplasma neuronal. El calcio proviene de los fluidos tisulares que están fuera de la neurona (espacio extracelular), estos iones, que han atravesado la membrana celular se unen a la molécula transportadora. Los iones calcio impulsan la migración de alguna de las vesículas sinápticas hacia la membrana presináptica, la membrana de cada vesícula sufre un proceso de fusión como la membrana presináptica, lo cual esta seguido por una expulsión rápida exocitosis del neurotransmisor libre en la hendidura sináptica (Meyer, 1985).
    El neurotransmisor liberado en la hendidura sináptica interaccciona directamente con las moléculas del receptor en la membrana postsináptica. Mediante este tipo de interacción se abren un gran número de canales iónicos específicos que permiten el flujo de una corriente eléctrica, transportada por iones cargados a través de la membrana postsináptica lo que afecta  al estado electroquímico de la membrana en el área inmediata al canal. De esta forma la excitabilidad eléctrica de esta pequeña porción de membrana puede aumentar o disminuir mediante despolarización o hiperpolarización de la misma. Las alteraciones eléctricas individuales de la membrana postsináptica ejercen un efecto en el potencial de membrana de la neurona, que puede llevar a la generación del impulso nervioso (Barr, 1994).
    En algunos casos cuando se libera el neurotransmisor, este es inactivado generalmente por hidrólisis, los fragmentos que resultan del neurotransmisor se eliminan del sistema o se reciclan por endocitosis, en cuyo caso, los fragmentos se reincorporan a una nueva vesícula formada en la membrana presináptica. Este tipo de vesícula se conoce como vesícula encapsulada y tiene apariencia diferente a la vesícula sináptica. Los fragmentos que entran en la neurona por endocitosis son utilizados para la resíntesis del neurotransmisor (Cooper, 1994).
    Existen algunos principios generales para la identificación de dos tipo de sinapsis: excitadoras e inhibidoras. Datos electrofisiológicos, muestran la distribución de las sinapsis excitadoras a nivel de la porción superior del árbol dendrítico de las neuronas centrales y de las sinapsis inhibidoras  que habitualmente están unidas a los segmentos iniciales de las dendritas o a los cuerpos celulares (Bradford, 1988).
    A partir de la excitabilidad de las neuronas, que es su propiedad específica, se desencadenan distintos tipos de mecanismos que trascienden a la propia neurona y que establecen una clara comunicación entre las mismas. Esto es a lo que denominamos sinapsis, una región celular clara, concreta y muy estructurada definida por el mantenimiento de un espacio interneural, y cuyo significado final es el de la comunicación interneural a la que nos referimos en términos generales como sinapsis eléctrica y sinapsis química. En el primer caso, se habla siempre de una comunicación excitatoria con la continuidad de la conducción de la excitabilidad o el impulso nervioso; en el segundo caso se habla de una comunicación excitatoria o inhibitoria mediada por una sustancia química que no es otra cosa que el neurotransmisor. La sinapsis es, sin lugar a dudas, la estructura más lábil y accesible a las distintas sustancias químicas como fármacos y drogas y, por tanto, el lugar y término de referencia más importante en los mecanismos de acción de los distintos psicofármacos.
    La sumatoria de los impulsos exitatorios e inhibitorios que llegan por todas las sinapsis que se relacionan con a cada neurona( 1000 a 200.000) determina si se produce o no la descarga del potencial de acción por el axón de esa neurona
    Las sinapsis suelen clasificarse en dos tipos según la transmisión del impulso: sinapsis eléctrica y sinapsis química. 4.2.3.2. Sinapsis eléctrica.
En este tipo de sinapsis los procesos pre y postsináptico son continuos (2 nm entre ellos)  debido a la unión citoplasmática por moléculas de proteínas tubulares a través de las cuales transita libremente el agua, pequeños iones y moléculas por esto el estímulo es capaz de pasar directamente de una célula a la siguiente sin necesidad de mediación química (Barr, 1994). Corresponden a uniones de comunicación entre las membranas plasmáticas de los terminales presináptico y postsinápticos, las que al adoptar la configuración abierta permiten el libre flujo de iones desde el citoplasma del terminal presinático hacia el citoplasma del terminal postsináptico.
     La sinapsis eléctrica ofrece una vía de baja resistencia entre neuronas, y hay un retraso mínimo en la transmisión sináptica porque no existe un mediador químico. En este tipo de sinapsis no hay despolarización y la dirección de la transmisión está determinada por la fluctuación de los potenciales de membrana de las células interconectadas (Bradford, 1988).
4.2.3.3. Sinapsis química.
La mayoría de las sinapsis son de tipo químico, en las cuales una sustancia, el neurotransmisor hace de puente entre las dos neuronas, se difunde a través del estrecho espacio y se adhiere a los receptores, que son moléculas especiales de proteínas que se encuentran en la membrana postsináptica (Bradford, 1988).
    La energía  requerida para la liberación de un neurotransmisor se genera en la mitocondria del terminal presináptico.  La unión de neurotransmisores a receptores de la membrana postsinápticas produce cambios en la permeabilidad de la membrana. La naturaleza del neurotransmisor y la molécula del receptor determina si el efecto producido será de excitación o inhibición de la neurona postsináptica (Barr, 1994). Se han descrito varias formas de sinapsis según las estructuras implicadas. (Bradford, 1988).
        Axosomática: Sinapsis entre un axón y un soma.
        Axodendrítica: Sinapsis ocurrida entre un axón y una dendrita.
        Axoespinodendrítica: Sinapsis entre un axón y una espina dendrítica.
        Axoaxónica: Sinapsis entre dos axones.
        Dendrodendrítica: Sinapsis ocurrida entre dos dendritas.
        Somatosomática: Sinapsis entre dos somas.
        Dendrosomática:  Sinapsis entre un soma y una dendrita.
    Existen dos clases de sinapsis química: la sinapsis asimétrica o tipo I se caracteriza por la diferencia en densidad de las membranas presináptica y postsináptica, siendo más gruesa la última. Esta densidad consiste de un material proteico que puede estar asociado al receptor postsináptico; la sinapsis simétrica o tipo II se caracteriza porque las membranas presináptica y postsináptica poseen un grosor semejante (Bradford, 1988).
4.2.3.4. Mecanismos de exitación e inhibición sinaptica.
El líquido extracelular  tiene una gran cantidad de concentración de iones de sodio en cambio de la concentración de iones potasio es baja, por otra parte en el citoplasma  de la neurona hay una alta concentración de iones potasio y una baja concentración de  iones sodio. En estado de reposo los iones sodio pueden salir de la célula por difusión mediante los canales de la membrana. Unicamente pequeñas cantidades de sodio se difunden a través de la  membrana, la cual, en reposo, es poco permeable a estos iones, grandes cantidades de iones sodio penetran en el momento de la conducción de los impulsos la entrada de sodio y la pérdida de potasio intracelular encuentran la oposición de distintas proteínas de la membrana constituyendo la bomba de sodio-potasio. La bomba la produce la molécula rica en energía, el ATP, para transportar iones a través de la membrana contra un gradiente de concentración, así las concentraciones de iones en el citoplasma se mantienen mediante gasto de energía que se producen de manera importante por consecuencia de la actividad de la bomba. La diferencia que resulta de las concentraciones  de iones producen en  la  membrana un potencial de reposo, con el interior de la neurona  que alcanza aproximadamente menos 70 mV con respecto al exterior (Zimmermann, 1993).
    Durante la excitación que se atribuye a una variedad de estímulos ya sean químicos o físicos, se presenta una reducción del potencial de membrana y se dice que dicha membrana se despolariza. La reducción del potencial se extiende en dirección lateral en la membrana disminuyendo su magnitud con la mayor distancia a partir del punto de iniciación. Este cambio en el grado de potencial, es el tipo único de señalización en las dendritas y en el cuerpo de la neurona (Darnell, 1993).
    La producción de estímulos en cantidad  e intensidad suficiente puede reducir el potencial de membrana en el segmento inicial del axón hasta 10 a 15 mV. Este es un valor que desencadena  la abertura de los canales de sodio  regulado por el voltaje de la membrana del axón, los iones aparecen localmente en la superficie exterior procedentes de la superficie interna disminuyendo el gradiente y la concentración y atraídos por el exceso de carga negativa en el axoplasma. El interior del axón es temporalmente de +40 mV respecto al exterior. Este cambio se llama el potencial de acción. Una vez que se generó este potencial se propaga  por la membrana, en circuitos locales de corriente eléctrica, que abren los canales cercanos de sodio. El potencial de acción al desplazarse produce un impulso nervioso (Meyer, 1985).
    Se dice que los estímulos que despolarizan la membrana de la neurona son excitatorios, debido a que cantidad suficiente de ellos iniciarán el potencial de acción. Algunos estímulos originan el efecto opuesto de hiperpolarización, en este caso el potencial de membrana excede la cifra del potencial de reposo -70mV. Los impulsos que causan hiperpolarización inhiben la generación de potenciales de acción, debido a que se oponen a los efectos de los estímulos despolarizantes (Zimmermann, 1993).
Primera etapa: Regulación de la síntesis del neurotransmisor.
    Un botón terminal en equilibrio mantiene una polarización de su membrana y una regulación de su capacidad de síntesis del neurotransmisor o de las proteínas asociadas a la consolidación de las vesículas sinápticas, de acuerdo con las exigencias funcionales de la neurona y de su propio control metabólico sobre la disponibilidad de neurotransmisor.
        El neurotransmisor puede almacenarse en vesículas sinápticas, pequeños reservorios globulares que contienen receptores en su pared exterior y permiten que el neurotransmisor se libere en sitios específicos de la terminal presináptica. Se ha hecho la analogía de la terminal presináptica como un espacio donde las vesículas sinápticas, así como las mitocondrias y otras estructuras subcelulares, están flotando. Sólo en un lugar determinado de este espacio se localizan los sitios por donde el neurotransmisor puede liberarse hacia el exterior. Como si las vesículas fueran huevos que sólo pudieran acomodarse en los huecos de sus cajas, que se encuentran en el piso de este espacio. Y sólo a través de los huecos de estas cajas se puede descargar el contenido hacia el exterior. En este caso, los huecos tienen receptores que reconocen los componentes de la cáscara del huevo.
        La presencia de estas vesículas y de receptores en sus membranas, y de moléculas de el neurotransmisor significa que existe todo lo necesario en el interior de la terminal para sintetizar todos estos componentes, y de mecanismos para la regulación de esta síntesis y de la liberación sináptica. La terminal presináptica tiene autorreceptores que le informan sobre los niveles del neurotransmisor en el exterior de la terminal. Si sus niveles son elevados, la terminal puede fabricar o liberar menos. Si éstos son bajos, puede hacer lo contrario. La activación, pues, de los autorreceptores puede tener efectos de estimulación o, generalmente, de inhibición de la liberación sináptica. La membrana de la terminal presináptica también posee moléculas transportadoras del mismo neurotransmisor que ellas liberan. Es un mecanismo de recaptación que sirve no sólo para ahorrar neurotransmisor al reutilizarlo, sino también contribuye a limitar sus efectos postsinápticos.
    Asumiendo esta condición, la conducción de un impulso nervioso, que rompe el esfuerzo fisiológico para el mantenimiento de la polarización, produce una significativa movilización de las vesículas sinápticas que almacenan neurotransmisores, los cuales llegan a unirse a la propia membrana plasmática; y la entrada de Ca++, como consecuencia de la despolarización, que abre los canales de Ca++, rompe la anastomosis vesícula-membrana y libera al espacio sináptico el neurotransmisor. El aumento de la superficie de membrana que supone la ruptura de las vesículas sinápticas, es posteriormente restaurado por la pinocitosis interna, es decir, el desprendimiento interno de estas membranas que van a ser, desde luego, precursoras para la formación de nuevas vesículas sinápticas. Asimismo, el Ca++ que ha intervenido en el proceso es transportado extracelularmente por las proteínas transportadoras de Ca++ similares a la bomba de sodio-potasio, con lo que se vuelve al equilibrio en la neurona presináptica.
Segunda etapa: Liberación del neurotransmisor.
    Una vez que el neurotransmisor ha sido liberado al espacio sináptico, se difunde por el mismo y puede seguir las siguientes rutas:

  • Fijación en los lugares específicos de membrana tanto presináptica como postsináptica, que son los receptores.
  • Dispersión en el espacio sináptico y actuación fuera de la sinapsis como un neuromodulador.
  • Recaptación presináptica del neurotransmisor.
  • Catabolización enzimática del neurotransmisor y por tanto degradación de la estructura.
Tercera etapa: Activación de receptores.
Receptores postsinápticos
    Las estructuras de unión del neurotransmisor en la membrana postsináptica son proteínas específicas de membrana que constituyen los receptores postsinápticos y que son la clave del reconocimiento de la liberación de neurotransmisores presinápticos. Es decir, los receptores postsinápticos son la estructura básica para interpretar la comunicación interneuronal, constituyen, por tanto, auténticas estructuras de diferenciación neuronal a la vez que son un claro exponente de la diversidad específica.
    La afinidad del neurotransmisor como ligando por el receptor postsináptico es una característica inherente a la diferenciación y especialización de las propias neuronas, hasta tal punto que un neurotransmisor determinado no produce efectos, por muy constante e intensa que sea su liberación, si la membrana postsináptica no contiene en su diferenciación los receptores específicos para ese neurotransmisor concreto.
    Una vez que el receptor potsináptico y neurotransmisor se unen, aparece inmediatamente una consecuencia en la membrana postsináptica. Indudablemente, hay una alteración constitucional que puede ser suficiente para modificar los canales iónicos de polarización de esa membrana, generando rápidamente una despolarización o una hiperpolarización, lo que conllevaría un aumento de la activación o inhibición, respectivamente, de la membrana postsináptica.
    Normalmente, la activación de los receptores postsinápticos por un neurotransmisor ejerce su efecto, es decir, es interpretada postsinápticamente, mediante la utilización de un neuromediador o de un segundo mensajero. En el primer caso, lo que ocurre es que la acción neurotransmisor-receptor es indirecta y necesita de una proteína de membrana mediadora ante la modificación de su permeabilidad iónica, o lo que es lo mismo, hacia la alteración de su polarización. En el segundo caso, bien por la neuromediación, bien por el complejo específico neurotransmisor-receptor, se activa un sistema enzimático de membrana, normalmente la adenilato-ciclasa, cuya actuación inmediata se realiza sobre el adenosín trifosfato (ATP) que se transforma en adenosín monofosfato cíclico (AMPc). El AMPc no sólo activa la apertura de los canales iónicos sino que también conduce la información de la actividad de membrana de la que procede, hacia las estructuras somáticas y nucleares de la neurona, por lo que las consecuencias de una comunicación interneuronal pueden perfectamente trascender a mecanismos bioquímicos que impliquen cambios estructurales y/o funcionales a partir de la utilización del segundo mensajero.
    Al igual que ocurría en la segunda etapa, es decir, la dependencia del Ca++ en la liberación del neurotransmisor, todavía aquí nos encontramos con una incuestionable dependencia del Ca++ que es tanto más acusada cuanto mayor es la repercusión metabólica del AMPc.
    Como resultado final de esta etapa, lo que ocurre localmente es una movilización de los canales iónicos que afectan al Na+, K+, Cl- y Ca++. Como sabemos, la polarización de la membrana establece particularmente unas concentraciones de Na+ extracelular y de K+ intracelular. Si se abre el canal de Na+, aparece una única entrada que genera automáticamente una despolarización, es decir crea un potencial postsináptico excitador. Si lo que se activa es el canal de K+, se establece una acumulación excesiva de K+ intracelular cuya consecuencia es la contraria, es decir, una hiperpolarización de la membrana y por tanto un potencial postsináptico inhibidor. La acción sobre el canal de Cl- tiene efecto cuando la membrana está ligeramente despolarizada, en cuyo caso la apertura de este canal se opone a la aparición de un potencial postsináptico excitador. Cuando la membrana está polarizada, cuyo resultado final es una clara electronegatividad intracelular, la apertura de un canal de Cl- no tiene mayor repercusión al reafirmar la electronegatividad, y además es rápidamente reequilibrada por difusión.
    Por su parte los iones Ca++ situados extracelularmente actúan igual que los iones Na+; es decir, despolarizan la membrana y producen potenciales postsinápticos excitatorios, además de ser un potente activador enzimático. Receptores presinápticos o autorreceptores
    Es también enormemente transcendente la activación de los receptores específicos de membrana, situados en la neurona presináptica, que responden a la liberación del neurotransmisor con la misma eficacia y afinidad que los receptores postsinápticos. Ahora bien, el resultado de este mecanismo es un servomecanismo, es decir, la autorregulación de la liberación del neurotransmisor con el fin de que la comunicación neuronal sea eficaz, ajustada y esté adecuada a los niveles de excitabilidad que han provocado los potenciales de acción en los botones terminales. Estos receptores, a diferencia de los postsinápticos, no controlan canales iónicos. Sin embargo, sí que regulan la movilización de las vesículas, intervienen esencialmente en la disponibilidad del neurotransmisor y, por tanto, en su síntesis y en su liberación. Normalmente, su control es por retroalimentación y su activación favorece los mecanismos de inhibición presináptica que, lógicamente, se asientan en el funcionamiento de los segundos mensajeros.
Cuarta etapa: Inactivación del neurotransmisor
    Una vez cumplido el objetivo sináptico, es decir la comunicación a la neurona postsináptica, se produce la inactivación del neurotransmisor. El mecanismo de inactivación más importante es la recaptación presináptica, que se produce no por la utilización de receptores específicos para su fijación, sino por auténticos transportadores de membrana que vuelven a incorporarlos al espacio presináptico. Estos transportadores de membrana actúan bien sobre el neurotransmisor íntegramente liberado y reconocido por sus receptores o bien sobre metabolitos intermediarios fruto de la acción catabólica de sistemas enzimáticos postsinápticos. Indudablemente, la recaptación o la degradación catabólica del neurotransmisor termina con la activación de los receptores de membrana y desde luego termina con la actividad de los neurotransmisores.
Quinta etapa: Difusión del neurotransmisor.
    La ultima etapa que podemos definir en la sinapsis es la difusión del neurotransmisor. Esto nos permite incluir el concepto de neuromodulador, que produce sus efectos a grandes distancias del lugar de secreción, y que afecta a grupos neuronales y otras áreas de intervención. Este concepto es fundamental en la secreción de neuropéptidos más que de neurotransmisores clásicos, y aunque los propios neuropéptidos de secreción sináptica pueden actuar como auténticos neurotransmisores, la propia estructura de la molécula favorece su difusión y alejamiento de su actuación local, por lo que pueden ser considerados como neuromoduladores.
    La naturaleza de la materia transmisora no es en realidad quien define el efecto postsináptico de la neurotransmisión, sino que es la naturaleza de los canales iónicos controlados por los receptores de membrana postsinápticos la que define el efecto excitatorio o inhibitorio; de ahí que podamos encontrarnos con efectos claramente inhibitorios de un determinado neurotransmisor que en su generalidad es excitatorio.
a
 
 






d
ttp://www.biopsicologia.net/fichas/page_8.html
http://omega.ilce.edu.mx:3000/sites/ciencia/volumen3/ciencia3/130/htm/sec_9.htm

2 comentarios:

Proyeccion Astral dijo...

Realmente interesante, muy detallado y completo tu post. Felicidades!

valdeandemagico dijo...

Proyeccion Astral, muchisimas gracias por haberte acercado hasta este humilde blog, y recordar que nuestro planteamiento único es que todo lo que es vida, en su origen ha sido artificialmente diseñado, es por ello que al ser el hombre una máquina molecular, Valdeandemagico es el primero en intentar estudiar al hombre, simplemente utilizando la tecnología de la información. Es la teoría del todo de Valdeandemaagico es la pionera en pensar que debajo de la química siempre está la física, y que debajo de la física, siempre está la información, así que vamos a lo largo del blog intentando descifrar el diseño de la vida que conocemos, dando por hecho, que la vida en otros sitios puede haber sido diseñada totalmente diferente, por ejemplo nosotros somos máquinas de combustión de oxigeno, pero si en un planeta en vez de oxigeno, hay metano, pues simplemente es cuestión de diseñar máquinas de combustión de metano. Somos conscientes que hoy por hoy, nadie comparte nuestra forma de pensar, sin embargo para nosotros esto es muy simple, solo se necesita una forma radicalmente diferente de ver las cosas, que es lo que nosotros intentamos hacer.
Lo dicho, muchas gracias por visitrar el blog.