miércoles, 18 de junio de 2014

CUANTOS:
teorías atómicas:
En física y química, la teoría atómica es una teoría de la naturaleza de la materia, que afirma que está compuesta por pequeñas partículas llamadas átomos.
El primero en proponer una teoría atómica de la materia fue Demócrito, filósofo presocrático, quien en el siglo V a. C. afirmó que todo estaba compuesto por pequeñas piezas a las que llamó átomos (del griego ἄτομον, indivisible). Su teoría fue prontamente olvidada. Recién en el siglo XIX tal idea logró una extensa aceptación científica gracias a los descubrimientos en el campo de la estequiometría. Los químicos de la época creían que las unidades básicas de los elementos también eran las partículas fundamentales de la naturaleza (de ahí el nombre de átomo, «indivisible»). Sin embargo, a finales de aquel siglo, y mediante diversos experimentos con el electromagnetismo y la radiactividad, los físicos descubrieron que el denominado "átomo indivisible" era realmente un conglomerado de diversas partículas subatómicas (principalmente electrones, protones y neutrones), que pueden existir de forma aislada. De hecho, en ciertos ambientes, como en las estrellas de neutrones, la temperatura extrema y la elevada presión impide a los átomos existir como tales. El campo de la ciencia que estudia las partículas fundamentales de la materia se denomina física de partículas.



Teoría atómica de Dalton

Durante el siglo XVIII y los primeros años del siglo XIX, en su afán por conocer e interpretar la naturaleza, los científicos estudiaron intensamente las reacciones químicas mediante numerosos experimentos. Estos estudios permitieron hallar relaciones muy precisas entre las masas de las sustancias sólidas o entre los volúmenes de los gases que intervienen en las reacciones químicas. Las relaciones encontradas se conocen como leyes de la química. Entre las leyes fundamentales de la Química, hay algunas que establecen las relaciones entre masas, llamadas leyes gravimétricas y otras que relacionan volúmenes, denominadas leyes volumétricas. John Dalton desarrolló su modelo atómico, en la que proponía que cada elemento químico estaba compuesto por átomos iguales y exclusivos, y que aunque eran indivisibles e indestructibles, se podían asociar para formar estructuras más complejas (los compuestos químicos). Esta teoría tuvo diversos precedentes.
El primero fue la ley de conservación de la masa, formulada por Antoine Lavoisier en 1789, que afirma que la masa total en una reacción química permanece constante. Esta ley le sugirió a Dalton la idea de que la materia era indestructible.
El segundo fue la ley de las proporciones definidas. Enunciada por el químico francés Joseph Louis Proust en 1799, afirma que, en un compuesto, los elementos que lo conforman se combinan en proporciones de masa definidas y características del compuesto.
Dalton estudió y amplió el trabajo de Proust para desarrollar la ley de las proporciones múltiples: cuando dos elementos se combinan para originar diferentes compuestos, dada una cantidad fija de uno de ellos, las diferentes cantidades del otro se combinan con dicha cantidad fija para dar como producto los compuestos, están en relación de números enteros sencillos.
En 1803, Dalton publicó su primera lista de pesos atómicos relativos para cierta cantidad de sustancias. Esto, unido a su rudimentario material, hizo que su tabla fuese muy poco precisa. Por ejemplo, creía que los átomos de oxígeno eran 5,5 veces más pesados que los átomos de hidrógeno, porque en el agua midió 5,5 gramos de oxígeno por cada gramo de hidrógeno y creía que la fórmula del agua, en estado gaseoso, era HO (en realidad, un átomo de oxígeno es 16 veces más pesado que un átomo de hidrógeno).
La ley de Avogadro permitió deducir la naturaleza diatómica de numerosos gases, estudiando los volúmenes en los que reaccionaban. Por ejemplo: el hecho de que dos litros de hidrógeno reaccionasen con un litro de oxígeno para producir dos litros de vapor de agua (a presión y temperatura constantes), significaba que una única molécula de oxígeno se divide en dos para formar dos partículas de agua. De esta forma, Avogadro podía calcular estimaciones más exactas de la masa atómica del oxígeno y de otros elementos, y estableció la distinción entre moléculas y átomos.
Ya en 1784, el botánico escocés Robert Brown, había observado que las partículas de polvo que flotaban en el agua se movían al azar sin ninguna razón aparente. En 1905, Albert Einstein tenía la teoría de que este movimiento browniano lo causaban las moléculas de agua que "bombardeaban" constantemente las partículas, y desarrolló un modelo matemático hipotético para describirlo. El físico francés Jean Perrin demostró experimentalmente este modelo en 1911, proporcionando además la validación a la teoría de partículas (y por extensión, a la teoría atómica).

Descubrimiento de las partículas subatómicas


El tubo de rayos catódicos de Thomson, en el que observó la desviación de los rayos catódicos por un campo eléctrico.
Hasta 1897, se creía que los átomos eran la división más pequeña de la materia, cuando J.J Thomson descubrió el electrón mediante su experimento con el tubo de rayos catódicos.1 El tubo de rayos catódicos que usó Thomson era un recipiente cerrado de vidrio, en el cual los dos electrodos estaban separados por un vacío. Cuando se aplica una diferencia de tensión a los electrodos, se generan rayos catódicos, que crean un resplandor fosforescente cuando chocan con el extremo opuesto del tubo de cristal. Mediante la experimentación, Thomson descubrió que los rayos se desviaban al aplicar un campo eléctrico (además de desviarse con los campos magnéticos, cosa que ya se sabía). Afirmó que estos rayos, más que ondas, estaban compuestos por partículas cargadas negativamente a las que llamó "corpúsculos" (más tarde, otros científicos las rebautizarían como electrones).
Thomson creía que los corpúsculos surgían de los átomos del electrodo. De esta forma, estipuló que los átomos eran divisibles, y que los corpúsculos eran sus componentes. Para explicar la carga neutra del átomo, propuso que los corpúsculos se distribuían en estructuras anilladas dentro de una nube positiva uniforme; éste era el modelo atómico de Thomson o "modelo del plum cake".2
Ya que se vio que los átomos eran realmente divisibles, los físicos inventaron más tarde el término "partículas elementales" para designar a las partículas indivisibles.

Descubrimiento del núcleo


Experimento de la lámina de oro
Arriba: Resultados esperados: las partículas alfa pasan sin problemas por el modelo atómico de Thomson.
Abajo: Resultados observados: una pequeña parte de las partículas se desvía, lo que revela la existencia de un lugar en el átomo donde se concentra la carga positiva.
El modelo atómico de Thomson fue refutado en 1909 por uno de sus estudiantes, Ernest Rutherford, quien descubrió que la mayor parte de la masa y de la carga positiva de un átomo estaba concentrada en una fracción muy pequeña de su volumen, que suponía que estaba en el mismo centro.
En su experimento, Hans Geiger y Ernest Marsden bombardearon partículas alfa a través de una fina lámina de oro (que chocarían con una pantalla fluorescente que habían colocado rodeando la lámina).3 Dada la mínima como masa de los electrones, la elevada masa y momento de las partículas alfa y la distribución uniforme de la carga positiva del modelo de Thomson, estos científicos esperaban que todas las partículas alfa atravesasen la lámina de oro sin desviarse, o por el contrario, que fuesen absorbidas. Para su asombro, una pequeña fracción de las partículas alfa sufrió una fuerte desviación. Esto indujo a Rutherford a proponer el modelo planetario del átomo, en el que los electrones orbitaban en el espacio alrededor de un gran núcleo compacto, a semejanza de los planetas y el Sol.4

Descubrimiento de los isótopos

En 1913, Thomson canalizó una corriente de iones de neón a través de campos magnéticos y eléctricos, hasta chocar con una placa fotográfica que había colocado al otro lado. Observó dos zonas incandescentes en la placa, que revelaban dos trayectorias de desviación diferentes. Thomson concluyó que esto era porque algunos de los iones de neón tenían diferentes masas; así fue como descubrió la existencia de los isótopos.5

Descubrimiento del neutrón

En 1918, Rutherford logró partir el núcleo del átomo al bombardear gas nitrógeno con partículas alfa, y observó que el gas emitía núcleos de hidrógeno. Rutherford concluyó que los núcleos de hidrógeno procedían de los núcleos de los mismos átomos de nitrógeno.6 Más tarde descubrió que la carga positiva de cualquier átomo equivalía siempre a un número entero de núcleos de hidrógeno. Esto, junto con el hecho de que el hidrógeno —el elemento más ligero— tenía una masa atómica de 1, le llevó a afirmar que los núcleos de hidrógeno eran partículas singulares, constituyentes básicos de todos los núcleos atómicos: se había descubierto el protón. Un experimento posterior de Rutherford mostró que la masa nuclear de la mayoría de los átomos superaba a la de los protones que tenía. Por tanto, postuló la existencia de partículas sin carga, hasta entonces desconocidas más tarde llamadas neutrones, de donde provendría este exceso de masa.
En 1928, Walther Bothe observó que el berilio emitía una radiación eléctricamente neutra cuando se le bombardeaba con partículas alfa. En 1932, James Chadwick expuso diversos elementos a esta radiación y dedujo que ésta estaba compuesta por partículas eléctricamente neutras con una masa similar la de un protón.7 Chadwick llamó a estas partículas "neutrones".

Modelos cuánticos del átomo

El modelo planetario del átomo tenía sus defectos. En primer lugar, según la fórmula de Larmor del electromagnetismo clásico, una carga eléctrica en aceleración emite ondas electromagnéticas, y una carga en órbita iría perdiendo energía y describiría una espiral hasta acabar cayendo en el núcleo. Otro fenómeno que el modelo no explicaba era por qué los átomos excitados sólo emiten luz con ciertos espectros discretos.
La teoría cuántica revolucionó la física de comienzos del siglo XX, cuando Max Planck y Albert Einstein postularon que se emite o absorbe una leve cantidad de energía en cantidades fijas llamadas cuantos. En 1913, Niels Bohr incorporó esta idea a su modelo atómico, en el que los electrones sólo podrían orbitar alrededor del núcleo en órbitas circulares determinadas, con una energía y un momento angular fijos, y siendo proporcionales las distancias del núcleo a los respectivos niveles de energía.8 Según este modelo, los átomos no podrían describir espirales hacia el núcleo porque no podrían perder energía de manera continua; en cambio, sólo podrían realizar "saltos cuánticos" instantáneos entre los niveles fijos de energía.9 Cuando esto ocurre, el átomo absorbe o emite luz a una frecuencia proporcional a la diferencia de energía (y de ahí la absorción y emisión de luz en los espectros discretos).9 Arnold Sommerfeld amplió el átomo de Bohr en 1916 para incluir órbitas elípticas, utilizando una cuantificación de momento generalizado.
El modelo de Bohr-Sommerfeld ad hoc era muy difícil de utilizar, pero a cambio hacía increíbles predicciones de acuerdo con ciertas propiedades espectrales. Sin embargo, era incapaz de explicar los átomos multielectrónicos, predecir la tasa de transición o describir las estructuras finas e hiperfinas.
En 1924, Louis de Broglie propuso que todos los objetos —particularmente las partículas subatómicas, como los electrones— podían tener propiedades de ondas. Erwin Schrödinger, fascinado por esta idea, investigó si el movimiento de un electrón en un átomo se podría explicar mejor como onda que como partícula. La ecuación de Schrödinger, publicada en 1926,10 describe al electrón como una función de onda en lugar de como una partícula, y predijo muchos de los fenómenos espectrales que el modelo de Bohr no podía explicar. Aunque este concepto era matemáticamente correcto, era difícil de visualizar, y tuvo sus detractores.11 Uno de sus críticos, Max Born, dijo que la función de onda de Schrödinger no describía el electrón, pero sí a muchos de sus posibles estados, y de esta forma se podría usar para calcular la probabilidad de encontrar un electrón en cualquier posición dada alrededor del núcleo.12
En 1927, Werner Heisenberg indicó que, puesto que una función de onda está determinada por el tiempo y la posición, es imposible obtener simultáneamente valores precisos tanto para la posición como para el momento de la partícula para cualquier punto dado en el tiempo.13 Este principio fue conocido como principio de incertidumbre de Heisenberg.

Los cinco orbitales atómicos de un átomo de neón, separados y ordenados en orden creciente de energía. En cada orbital caben como máximo dos electrones, que están la mayor parte del tiempo en las zonas delimitadas por las "burbujas".
Este nuevo enfoque invalidaba por completo el modelo de Bohr, con sus órbitas circulares claramente definidas. El modelo moderno del átomo describe las posiciones de los electrones en un átomo en términos de probabilidades. Un electrón se puede encontrar potencialmente a cualquier distancia del núcleo, pero —dependiendo de su nivel de energía— tiende a estar con más frecuencia en ciertas regiones alrededor del núcleo que en otras; estas zonas son conocidas 
como orbitales atómicos.


RELATIVIDAD:

La teoría de la relatividad incluye tanto a la teoría de la relatividad especial y como a la relatividad general, formuladas por Albert Einstein a principios del siglo XX, que pretendían resolver la incompatibilidad existente entre la mecánica newtoniana y el electromagnetismo.
La teoría de la relatividad especial, publicada en 1905, trata de la física del movimiento de los cuerpos en ausencia de fuerzas gravitatorias, en el que se hacían compatibles las ecuaciones de Maxwell del electromagnetismo con una reformulación de las leyes del movimiento.
La teoría de la relatividad general, publicada en 1915, es una teoría de la gravedad que reemplaza a la gravedad newtoniana, aunque coincide numéricamente con ella para campos gravitatorios débiles y "pequeñas" velocidades. La teoría general se reduce a la teoría especial en ausencia de campos gravitatorios.
No fue hasta el 7 de marzo de 2010 cuando fueron mostrados públicamente los manuscritos originales de Einstein por parte de la Academia Israelí de Ciencias, aunque la teoría se había publicado en 1905. El manuscrito contiene 46 páginas de textos y fórmulas matemáticas redactadas a mano, y fue donado por Einstein a la Universidad Hebrea de Jerusalén en 1925 con motivo de su inauguración.1 2 3



Conceptos principales


Sello de correos soviético cuyo motivo es Albert Einstein con su famosa ecuación E=mc^2.
El presupuesto básico de la teoría de la relatividad es que la localización de los sucesos físicos, tanto en el tiempo como en el espacio, son relativos al estado de movimiento del observador: así, la longitud de un objeto en movimiento o el instante en que algo sucede, a diferencia de lo que sucede en mecánica newtoniana, no son invariantes absolutos, y diferentes observadores en movimiento relativo entre sí diferirán respecto a ellos (las longitudes y los intervalos temporales, en relatividad son relativos y no absolutos).

Relatividad especial

La teoría de la relatividad especial, también llamada teoría de la relatividad restringida, fue publicada por Albert Einstein en 1905 y describe la física del movimiento en el marco de un espacio-tiempo plano. Esta teoría describe correctamente el movimiento de los cuerpos incluso a grandes velocidades y sus interacciones electromagnéticas y se usa básicamente para estudiar sistemas de referencia inerciales (no es aplicable para problemas astrofísicos donde el campo gravitatorio desempeña un papel importante).
Estos conceptos fueron presentados anteriormente por Poincaré y Lorentz, que son considerados como precursores de la teoría. Si bien la teoría resolvía un buen número de problemas del electromagnetismo y daba una explicación del experimento de Michelson-Morley, no proporciona una descripción relativista adecuada del campo gravitatorio.
Tras la publicación del artículo de Einstein, la nueva teoría de la relatividad especial fue aceptada en unos pocos años por la práctica totalidad de los físicos y los matemáticos. De hecho, Poincaré o Lorentz habían estado muy cerca de llegar al mismo resultado que Einstein. La forma geométrica definitiva de la teoría se debe a Hermann Minkowski, antiguo profesor de Einstein en la Politécnica de Zürich; acuñó el término "espacio-tiempo" (Raumzeit) y le dio la forma matemática adecuada.nota 1 El espacio-tiempo de Minkowski es una variedad tetradimensional en la que se entrelazaban de una manera insoluble las tres dimensiones espaciales y el tiempo. En este espacio-tiempo de Minkowski, el movimiento de una partícula se representa mediante su línea de universo (Weltlinie), una curva cuyos puntos vienen determinados por cuatro variables distintas: las tres dimensiones espaciales (x\ ,y\ ,z\ ) y el tiempo (t\ ). El nuevo esquema de Minkowski obligó a reinterpretar los conceptos de la métrica existentes hasta entonces. El concepto tridimensional de punto fue sustituido por el de evento. La magnitud de distancia se reemplaza por la magnitud de intervalo.

Relatividad general


Esquema bidimensional de la curvatura del espacio-tiempo (cuatro dimensiones) generada por una masa esférica.
La relatividad general fue publicada por Einstein en 1915, y fue presentada como conferencia en la Academia de Ciencias Prusiana el 25 de noviembre. La teoría generaliza el principio de relatividad de Einstein para un observador arbitrario. Esto implica que las ecuaciones de la teoría deben tener una forma de covariancia más general que la covariancia de Lorentz usada en la teoría de la relatividad especial. Además de esto, la teoría de la relatividad general propone que la propia geometría del espacio-tiempo se ve afectada por la presencia de materia, de lo cual resulta una teoría relativista del campo gravitatorio. De hecho la teoría de la relatividad general predice que el espacio-tiempo no será plano en presencia de materia y que la curvatura del espacio-tiempo será percibida como un campo gravitatorio.
Debe notarse que el matemático alemán David Hilbert escribió e hizo públicas las ecuaciones de la covarianza antes que Einstein. Ello resultó en no pocas acusaciones de plagio contra Einstein, pero probablemente sea más, porque es una teoría (o perspectiva) geométrica. La misma postula que la presencia de masa o energía «curva» al espacio-tiempo, y esta curvatura afecta la trayectoria de los cuerpos móviles e incluso la trayectoria de la luz.
Einstein expresó el propósito de la teoría de la relatividad general para aplicar plenamente el programa de Ernst Mach de la relativización de todos los efectos de inercia, incluso añadiendo la llamada constante cosmológica a sus ecuaciones de campo4 para este propósito. Este punto de contacto real de la influencia de Ernst Mach fue claramente identificado en 1918, cuando Einstein distingue lo que él bautizó como el principio de Mach (los efectos inerciales se derivan de la interacción de los cuerpos) del principio de la relatividad general, que se interpreta ahora como el principio de covarianza general.5

Formalismo de la teoría de la relatividad


Representación de la línea de universo de una partícula. Como no es posible reproducir un espacio-tiempo de cuatro dimensiones, en la figura se representa sólo la proyección sobre 2 dimensiones espaciales y una temporal.

Partículas

En la teoría de la relatividad una partícula puntual queda representada por un par (\gamma(\tau), m)\;, donde \gamma(\tau)\; es una curva diferenciable, llamada línea de universo de la partícula, y m es un escalar que representa la masa en reposo. El vector tangente a esta curva es un vector temporal llamado cuadrivelocidad, el producto de este vector por la masa en reposo de la partícula es precisamente el cuadrimomento. Este cuadrimomento es un vector de cuatro componentes, tres de estas componentes se denominan espaciales y representan el análogo relativista del momento lineal de la mecánica clásica, la otra componente denominada componente temporal representa la generalización relativista de la energía cinética. Además, dada una curva arbitraria en el espacio-tiempo, puede definirse a lo largo de ella el llamado intervalo relativista, que se obtiene a partir del tensor métrico. El intervalo relativista medido a lo largo de la trayectoria de una partícula es proporcional al intervalo de tiempo propio o intervalo de tiempo percibido por dicha partícula.

Campos

Cuando se consideran campos o distribuciones continuas de masa se necesita algún tipo de generalización para la noción de partícula. Un campo físico posee momentum y energía distribuidos en el espacio-tiempo, el concepto de cuadrimomento se generaliza mediante el llamado tensor de energía-impulso que representa la distribución en el espacio-tiempo tanto de energía como de momento lineal. A su vez un campo dependiendo de su naturaleza puede representarse por un escalar, un vector o un tensor. Por ejemplo el campo electromagnético se representa por un tensor de segundo orden totalmente antisimétrico o 2-forma. Si se conoce la variación de un campo o una distribución de materia, en el espacio y en el tiempo entonces existen procedimientos para construir su tensor de energía-impulso.

Magnitudes físicas

En relatividad, estas magnitudes físicas son representadas por vectores 4-dimensionales o bien por objetos matemáticos llamados tensores, que generalizan los vectores, definidos sobre un espacio de cuatro dimensiones. Matemáticamente estos 4-vectores y 4-tensores son elementos definidos del espacio vectorial tangente al espacio-tiempo (y los tensores se definen y se construyen a partir del fibrado tangente o cotangente de la variedad que representa el espacio-tiempo).
Correspondencia entre E3nota 2 y M4nota 3
Espacio tridimensional euclídeo Espacio-tiempo de Minkowski
Punto Evento
Longitud Intervalo
Velocidad Cuadrivelocidad
Momentum Cuadriamomentum

El intervalo relativista

El intervalo relativista puede definirse en cualquier espacio-tiempo, sea éste plano como en la relatividad especial, o curvo como en relatividad general. Sin embargo, por simplicidad, discutiremos inicialmente el concepto de intervalo para el caso de un espacio-tiempo plano. El tensor métrico del espacio-tiempo plano de Minkowski se designa con la letra \scriptstyle \eta_{ij}, y en coordenadas galileanas o inerciales toma la siguiente forma:nota 4
g_{ij} = \eta_{ij} =\begin{pmatrix}
  c^2 & 0 & 0 & 0\\
  0 & -1 & 0 & 0\\
  0 & 0 & -1 & 0\\
  0 & 0 & 0 & -1\\

\end{pmatrix}
El intervalo, la distancia tetradimensional, se representa mediante la expresión ds^2\ , que se calcula del siguiente modo:
ds^2\ = g_{ij}dx^idx^j
ds^2\ = c^2(dx^0)^2 - (dx^1)^2 - (dx^2)^2 - (dx^3)^2
ds^2\ = c^2dt^2 - dx^2 - dy^2 - dz^2  = c^2dt^2 - (dx^2 + dy^2 + dz^2)
ds^2\ = c^2dt^2 - dl^2

Reproducción de un cono de luz, en el que se representan dos dimensiones espaciales y una temporal (eje de ordenadas). El observador se sitúa en el origen, mientras que el futuro y el pasado absolutos vienen representados por las partes inferior y superior del eje temporal. El plano correspondiente a t = 0 se denomina plano de simultaneidad o hipersuperficie de presente (También llamado "Diagrama de Minkowski"). Los sucesos situados dentro de los conos están vinculados al observador por intervalos temporales. Los que se sitúan fuera, por intervalos espaciales.
Los intervalos pueden ser clasificados en tres categorías: Intervalos espaciales (cuando ds^2 es negativo), temporales (si ds^2 es positivo) y nulos (cuando \scriptstyle ds^2=0). Como el lector habrá podido comprobar, los intervalos nulos son aquellos que corresponden a partículas que se mueven a la velocidad de la luz, como los fotones: La distancia dl^2 recorrida por el fotón es igual a su velocidad (c) multiplicada por el tiempo \scriptstyle dt y por lo tanto el intervalo \scriptstyle ds^2 = c^2dt^2 - dl^2 se hace nulo.
Los intervalos nulos pueden ser representados en forma de cono de luz, popularizados por el celebérrimo libro de Stephen Hawking, Historia del Tiempo. Sea un observador situado en el origen, el futuro absoluto (los sucesos que serán percibidos por el individuo) se despliega en la parte superior del eje de ordenadas, el pasado absoluto (los sucesos que ya han sido percibidos por el individuo) en la parte inferior, y el presente percibido por el observador en el punto 0. Los sucesos que están fuera del cono de luz no nos afectan, y por lo tanto se dice de ellos que están situados en zonas del espacio-tiempo que no tienen relación de causalidad con la nuestra.
Imaginemos, por un momento, que en la galaxia Andrómeda, situada a 2,5 millones de años luz de nosotros, sucedió un cataclismo cósmico hace 100.000 años. Dado que, primero: la luz de Andrómeda tarda 2 millones de años en llegar hasta nosotros y segundo: nada puede viajar a una velocidad superior a la de los fotones, es evidente, que no tenemos manera de enterarnos de lo que sucedió en dicha Galaxia hace tan sólo 100.000 años. Se dice por lo tanto que el intervalo existente entre dicha hipotética catástrofe cósmica y nosotros, observadores del presente, es un intervalo espacial (ds^2<0), y por lo tanto, no puede afectar a los individuos que en el presente viven en la Tierra: Es decir, no existe relación de causalidad entre ese evento y nosotros.

Imagen de la galaxia Andrómeda, tomada por el telescopio Spitzer, tal como era hace 2,5 millones de años (por estar situada a 2,5 millones de años luz). Los sucesos acaecidos 1 000 000 años atrás se observarán desde la Tierra dentro de un millón y medio de años. Se dice por tanto que entre tales eventos y nosotros existe un intervalo espacial.

Análisis
El único problema con esta hipótesis, es que al entrar en un agujero negro, se anula el espacio tiempo, y como ya sabemos, algo que contenga algún volumen o masa, debe tener como mínimo un espacio donde ubicarse, el tiempo en ese caso, no tiene mayor importancia, pero el espacio juega un rol muy importante en la ubicación de volúmenes, por lo que esto resulta muy improbable, pero no imposible para la tecnología.
Podemos escoger otro episodio histórico todavía más ilustrativo: El de la estrella de Belén, tal y como fue interpretada por Johannes Kepler. Este astrónomo alemán consideraba que dicha estrella se identificaba con una supernova que tuvo lugar el año 5 a. C., cuya luz fue observada por los astrónomos chinos contemporáneos, y que vino precedida en los años anteriores por varias conjunciones planetarias en la constelación de Piscis. Esa supernova probablemente estalló hace miles de años atrás, pero su luz no llegó a la tierra hasta el año 5 a. C. De ahí que el intervalo existente entre dicho evento y las observaciones de los astrónomos egipcios y megalíticos (que tuvieron lugar varios siglos antes de Cristo) sea un intervalo espacial, pues la radiación de la supernova nunca pudo llegarles. Por el contrario, la explosión de la supernova por un lado, y las observaciones realizadas por los tres magos en Babilonia y por los astrónomos chinos en el año 5 a. C. por el otro, están unidas entre sí por un intervalo temporal, ya que la luz sí pudo alcanzar a dichos observadores.
El tiempo propio y el intervalo se relacionan mediante la siguiente equivalencia: \scriptstyle \ cd\tau = ds, es decir, el intervalo es igual al tiempo local multiplicado por la velocidad de la luz. Una de las características tanto del tiempo local como del intervalo es su invarianza ante las transformaciones de coordenadas. Sea cual sea nuestro punto de referencia, sea cual sea nuestra velocidad, el intervalo entre un determinado evento y nosotros permanece invariante.
Esta invarianza se expresa a través de la llamada geometría hiperbólica: La ecuación del intervalo \scriptstyle ds tiene la estructura de una hipérbola sobre cuatro dimensiones, cuyo término independiente coincide con el valor del cuadrado del intervalo (\scriptstyle ds^2 = dt^2 - dl^2), que como se acaba de decir en el párrafo anterior, es constante. Las asíntotas de la hipérbola vendrían a coincidir con el cono de luz.

Cuadrivelocidad, aceleración y cuadrimomentum

En el espacio-tiempo de Minkowski, las propiedades cinemáticas de las partículas se representan fundamentalmente por tres magnitudes: La cuadrivelocidad (o tetravelocidad) , la cuadriaceleración y el cuadrimomentum (o tetramomentum).
La cuadrivelocidad es un cuadrivector tangente a la línea de universo de la partícula, relacionada con la velocidad coordenada de un cuerpo medida por un observador en reposo cualquiera, esta velocidad coordenada se define con la expresión newtoniana dx^i/dt, donde (t,x^1,x^2,x^3)\; son el tiempo coordenado y las coordenadas espaciales medidas por el observador, para el cual la velocidad newtoniana ampliada vendría dada por (1,v^1,v^2,v^3)\,. Sin embargo, esta medida newtoniana de la velocidad no resulta útil en teoría de la relatividad, porque las velocidades newtonianas medidas por diferentes observadores no son fácilmente relacionables por no ser magnitudes covariantes. Así en relatividad se introduce una modificación en las expresiones que dan cuenta de la velocidad, introduciendo un invariante relativista. Este invariante es precisamente el tiempo propio de la partícula que es fácilmente relacionable con el tiempo coordenado de diferentes observadores. Usando la relación entre tiempo propio y tiempo coordenado: dt = \gamma d\tau\; se define la cuadrivelocidad [propia] multiplicando por \ \gamma las de la velocidad coordenada: u^\alpha=v^\alpha\gamma=dx^i/d\tau.
La velocidad coordenada de un cuerpo con masa depende caprichosamente del sistema de referencia que escojamos, mientras que la cuadrivelocidad propia es una magnitud que se transforma de acuerdo con el principio de covariancia y tiene un valor siempre constante equivalente al intervalo dividido entre el tiempo propio (ds/d\tau), o lo que es lo mismo, a la velocidad de la luz c. Para partículas sin masa, como los fotones, el procedimiento anterior no se puede aplicar, y la cuadrivelocidad puede definirse simplemente como vector tangente a la trayectoria seguida por los mismos.
La cuadriaceleración puede ser definida como la derivada temporal de la cuadrivelocidad (a^i=du^i/d\tau). Su magnitud es igual a cero en los sistemas inerciales, cuyas líneas del mundo son geodésicas, rectas en el espacio-tiempo llano de Minkowski. Por el contrario, las líneas del mundo curvadas corresponden a partículas con aceleración diferente de cero, a sistemas no inerciales.
Junto con los principios de invarianza del intervalo y la cuadrivelocidad, juega un papel fundamental la ley de conservación del cuadrimomentum. Es aplicable aquí la definición newtoniana del momentum (\vec p = \mu \vec u) como la masa (en este caso conservada, \mu) multiplicada por la velocidad (en este caso, la cuadrivelocidad), y por lo tanto sus componentes son los siguientes: (m, p^1, p^2, p^3)\;, teniendo en cuenta que m = \mu\gamma\;. La cantidad de momentum conservado es definida como la raíz cuadrada de la norma del vector de cuadrimomentum. El momentum conservado, al igual que el intervalo y la cuadrivelocidad propia, permanece invariante ante las transformaciones de coordenadas, aunque también aquí hay que distinguir entre los cuerpos con masa y los fotones. En los primeros, la magnitud del cuadriomentum es igual a la masa multiplicada por la velocidad de la luz (|p| = \mu c). Por el contrario, el cuadrimomentum conservado de los fotones es igual a la magnitud de su momentum tridimensional (|p| = p).
Como tanto la velocidad de la luz como el cuadrimomentum son magnitudes conservadas, también lo es su producto, al que se le da el nombre de energía conservada (E_{con} = |p|c), que en los cuerpos con masa equivale a la masa multiplicada por la velocidad de la luz al cuadrado (E_{con} = \mu c^2, la famosa fórmula de Einstein) y en los fotones al momentum multiplicado por la velocidad de la luz (E_{con} = pc)

Componentes \to  (p^0,p^1,p^2,p^3) \to (\mu\gamma,\mu v^1\gamma,\mu v^2\gamma,\mu v^3\gamma) \to (m,p^1,p^2,p^3)


Magnitud del cuadrimomentum \to |p| = \sqrt{\vec p \cdot \vec p} = \sqrt{m^2c^2 - p^2} = \sqrt{\frac{E^2}{c^2} - p^2}

Magnitud en cuerpos con masa \to |p| = \sqrt{\vec p \cdot \vec p} = m \sqrt{\vec u \cdot \vec u} = \mu c
Magnitud en fotones (masa = 0) \to |p| = \sqrt{\vec p \cdot \vec p} = \sqrt{m^2c^2 - p^2} = \sqrt{p^2} = p


Energía \to E_{con} = c|p| = c\sqrt{\vec p \cdot \vec p} = \sqrt{E^2 - p^2c^2}

Energía en cuerpos con masa (cuerpos en reposo, p=0) \to E_{con} = \sqrt{m^2c^4 - p^2c^2} \to E_{con} = mc^2
Energía en fotones (masa en reposo = 0) \to E_{con} = \sqrt{m^2c^4 - p^2c^2} = \sqrt{p^2c^2} = pc

La aparición de la Relatividad Especial puso fin a la secular disputa que mantenían en el seno de la mecánica clásica las escuelas de los mecanicistas y los energetistas. Los primeros sostenían, siguiendo a Descartes y Huygens, que la magnitud conservada en todo movimiento venía constituida por el momentum total del sistema, mientras que los energetistas -que tomaban por base los estudios de Leibniz- consideraban que la magnitud conservada venía conformada por la suma de dos cantidades: La fuerza viva, equivalente a la mitad de la masa multiplicada por la velocidad al cuadrado (mv^2/2) a la que hoy denominaríamos "energía cinética", y la fuerza muerta, equivalente a la altura por la constante g (hg), que correspondería a la "energía potencial". Fue el físico alemán Hermann von Helmholtz el que primero dio a la fuerzas leibnizianas la denominación genérica de energía y el que formuló la Ley de conservación de la energía, que no se restringe a la mecánica, que se extiende también a otras disciplinas físicas como la termodinámica.
La mecánica newtoniana dio la razón a ambos postulados, afirmando que tanto el momentum como la energía son magnitudes conservadas en todo movimiento sometido a fuerzas conservativas. Sin embargo, la Relatividad Especial dio un paso más allá, por cuanto a partir de los trabajos de Einstein y Minkowski el momentum y la energía dejaron de ser considerados como entidades independientes y se les pasó a considerar como dos aspectos, dos facetas de una única magnitud conservada: el cuadrimomentum.
Componentes y magnitud de los diferentes conceptos cinemáticos
Concepto Componentes Expresión algebraica Partículas con masa Fotones
Intervalo \ dx^a = \begin{bmatrix}
dt\\ dx^1 \\ dx^2 \\ dx^3 \\
\end{bmatrix} ds^2 = \vec dx \cdot \vec dx \ ds^2 \not= 0 \ ds^2 = 0
Cuadrivelocidad u^\alpha = \frac {dx^\alpha}{d\tau} = \begin{bmatrix}
\gamma\\ v^1\gamma \\ v^2\gamma \\ v^3\gamma \\
\end{bmatrix}  |u| = \sqrt{\vec u \cdot \vec u} = \sqrt{\frac{ds^2}{d\tau^2}} \ |u| = c Cuadrivelocidad
no definida
Aceleracióna^\alpha = \frac {d^2 x^\alpha}{d\tau^2}
\ a^\alpha = 0
(sistemas inerciales) \ a^\alpha \not= 0
(sistemas no inerciales)
Aceleración
no definida
Cuadrimomentum \ p^\alpha = \mu u^\alpha = \begin{bmatrix}
m\\ -p^1 \\ -p^2 \\ -p^3 \\
\end{bmatrix} |p| = \sqrt{\vec p \cdot \vec p} = \sqrt{\frac{E^2}{c^2} - p^2} \ |p| = \mu c \ |p|=p

El tensor de energía-impulso (Tab)


Tensor de tensión-energía
Tres son las ecuaciones fundamentales que en física newtoniana describen el fenómeno de la gravitación universal: la primera, afirma que la fuerza gravitatoria entre dos cuerpos es proporcional al producto de sus masas e inversamente proporcional al cuadrado de su distancia (1); la segunda, que el potencial gravitatorio (\ \Phi) en un determinado punto es igual a la masa multiplicada por la constante G y dividida por la distancia r (2); y la tercera, finalmente, es la llamada ecuación de Poisson (3), que indica que el laplacianonota 5 del potencial gravitatorio es igual a \ 4\Pi G\rho, donde \ \rho es la densidad de masa en una determinada región esférica.
F=\frac{GMm}{r^2}(1)\to \Phi = \frac{GM}{r} (2)\to \Delta\Phi=4\pi G\rho (3)
Sin embargo, estas ecuaciones no son compatibles con la Relatividad Especial por dos razones:
  • En primer lugar la masa no es una magnitud absoluta, sino que su medición deriva en resultados diferentes dependiendo de la velocidad relativa del observador. De ahí que la densidad de masa \ \rho no puede servir de parámetro de interacción gravitatoria entre dos cuerpos.
  • En segundo lugar, si el concepto de espacio es relativo, también lo es la noción de densidad. Es evidente que la contracción del espacio producida por el incremento de la velocidad de un observador, impide la existencia de densidades que permanezcan invariables ante las transformaciones de Lorentz.
Por todo ello, resulta necesario prescindir del término \ \rho, situado en el lado derecho de la fórmula de Poisson y sustituirlo por un objeto geométrico-matemático que permanezca invariante ante las transformaciones de Lorentz: Dicho objeto fue definido por Einstein en sus ecuaciones de universo y recibe el nombre de tensor de energía-momentum (\ T^{\alpha\beta}). Sus coeficientes describen la cantidad de tetramomentum \ p^\alpha que atraviesa una hipersuperficie \ \Pi_\beta, normal al vector unitario \vec u^\beta.
De este modo, el tensor de energía momentum puede expresarse mediante la siguiente ecuación:
\ p^\alpha = \int_\Pi T^{\alpha\beta} d\Pi_\beta
O lo que es lo mismo: El componente \ p^\alpha del tetramomentum es igual a la integral de hipersuperficie \ d\Pi_\beta del tensor de tensión-energía.

En un fluido ideal, del que están ausentes tanto la viscosidad como la conducción de calor, los componentes del tetramomentum se calculan de la siguiente forma:


T^{\alpha \beta} \, = (\rho + {P\over c^2})u^{\alpha}u^{\beta} - Pg^{\alpha \beta},
donde \ \rho es la densidad de masa-energía (masa por unidad de volumen tridimensional), \ P es la presión hidrostática, \ u^{\alpha} es la cuadrivelocidad del fluido, y \ g^{\alpha \beta} es la matriz inversa del tensor métrico de la variedad.
Además, si los componentes del tensor se miden por un observador en reposo relativo respecto al fluido, entonces, el tensor métrico viene constituido simplemente por la métrica de Minkowski:

g_{\alpha \beta} \, = \eta_{\alpha \beta} = \mathrm{diag}(c^2,-1,-1,-1)
g^{\alpha \beta} \, = \eta^{\alpha \beta} = \mathrm{diag}(\frac{1}{c^2},-1,-1,-1)
Puesto que además la tetravelocidad del fluido respecto al observador en reposo es:

\ u^\alpha = (1,0,0,0).
como consecuencia de ello, los coeficientes del tensor de tensión-energía son los siguientes:
T^{\alpha\beta} =\begin{pmatrix}
  \rho & 0 & 0 & 0\\
  0 & -P_1 & 0 & 0\\
  0 & 0 & -P_2 & 0\\
  0 & 0 & 0 & -P_3\\
\end{pmatrix}

Parte de la materia que cae en el disco de acreción de un agujero negro es expulsada a gran velocidad en forma de chorros. En supuestos como éste, los efectos gravitomagnéticos pueden llegar a alcanzar cierta importancia.
Donde \ \rho es la densidad de masa, y \ P_i son los componentes tridimensionales de la presión hidrostática. Como vemos, el campo gravitatorio tiene dos fuentes diferentes: La masa y el momentum del fluido en cuestión. Los efectos gravitatorios originados por la masa se denominan efectos gravitoeléctricos, mientras que aquellos que se deben al momentum reciben el nombre de efectos gravitomagnéticos. Los primeros tienen una intensidad c^2 superior a los segundos, que sólo se manifiestan en aquellos casos en los que las partículas del fluido se mueven con una velocidad cercana a la de la luz (se habla entonces de fluidos relativistas): Es el caso de los chorros (jets) que emanan del centro de la galaxia y que se propulsan en las dos direcciones marcadas por el eje de rotación de este cuerpo cósmico; de la materia que se precipita hacia un agujero negro; y del fluido estelar que se dirige hacia el centro de la estrella cuando se ésta entra en colapso. En este último caso, durante las fases finales del proceso de contracción de la estrella, la presión hidrostática puede llegar a ser tan fuerte como para llegar a acelerar el colapso, en lugar de ralentizarlo.
Podemos, a partir del tensor de tensión-energía, calcular cuánta masa contiene un determinado volumen del fluido: Retomando la definición de este tensor expuesta unas líneas más arriba, se puede definir al coeficiente \ T^{00} como la cantidad de momentum \ p^{0} (esto es, la masa) que atraviesa la hipersuperficie \ d\Pi_0. En el espacio-tiempo de Minkowski, la hipersuperficie \ d\Pi_0 es aquella región que se define por las tres bases vectoriales normales al vector \ dx^{0}: \ \Pi_0 es, por tanto, un volumen tridimensional, definido por los vectores base \vec e_{1} (eje x), \vec e_{2} (eje y), y \vec e_3 (eje z). Podemos por tanto escribir:

\ p^0 = \int T^{00} d\Pi_0
\ m = \int \rho dV
Del mismo modo, es posible deducir matemáticamente a partir del tensor de tensión-energía la definición newtoniana de presión, introduciendo en la mentada ecuación cualquier par de índices que sean diferentes de cero:

\ p^1 = \int_\Pi T^{11} d\Pi_1
La hipersuperficie \ d\Pi_1 es aquella región del espacio-tiempo definida por los tres vectores unitarios normales a \ dx_1 (se trata de los dos vectores espaciales, \vec e_{2} y \vec e_{3}, correspondientes a los ejes y y z; y del vector temporal \vec e_{0} —o \ dt, como se prefiera—). Esta definición nos permite descomponer la integral de hipersuperficie en una integral temporal (cuyo integrando viene definido por \ dt) y otra de superficie (esta vez bidimensional, \ dS):

\ p^1 = \int \int_S -P_1 dS_1 dt
Finalmente, derivamos parcialmente ambos miembros de la ecuación respecto al tiempo, y teniendo en cuenta que la fuerza no es más que la tasa de incremento temporal del momentum obtenemos el resultado siguiente:

\ F^1 = \int_S -P_1 dS_1
Que contiene la definición newtoniana de la presión como fuerza ejercida por unidad de superficie.

El tensor electromagnético (Fab)

Las ecuaciones deducidas por el físico escocés James Clerk Maxwell demostraron que electricidad y magnetismo no son más que dos manifestaciones de un mismo fenómeno físico: el campo electromagnético. Ahora bien, para describir las propiedades de este campo los físicos de finales del siglo XIX debían utilizar dos vectores diferentes, los correspondientes los campos eléctrico y magnético.
Fue la llegada de la Relatividad Especial la que permitió describir las propiedades del electromagnetismo con un sólo objeto geométrico, el vector cuadripotencial, cuyo componente temporal se correspondía con el potencial eléctrico, mientras que sus componentes espaciales eran los mismos que los del potencial magnético.

\ A^{\alpha} = (V,A_x,A_y,A_y)
De este modo, el campo eléctrico puede ser entendido como la suma del gradiente del potencial eléctrico más la derivada temporal del potencial magnético:

E = -\nabla V - \frac{\partial A}{\partial t}
y el campo magnético, como el rotacional del potencial magnético:

B = \nabla \times A
Las propiedades del campo electromagnético pueden también expresarse utilizando un tensor de segundo orden denominado tensor de Faraday y que se obtiene diferenciando exteriormente al vector cuadripotencial \ A^{\alpha}

F_{\alpha \beta} = \partial_\alpha A_\beta - \partial_\beta A_\alpha
F^{\alpha\beta} =\begin{pmatrix}
0 & E_x/c & E_y/c & E_z/c \\
-E_x/c & 0 & B_z & -B_y \\
-E_y/c & -B_z & 0 & B_x \\
-E_z/c & B_y & -B_x & 0
\end{pmatrix} ; F^{\alpha}_{\beta} =\begin{pmatrix}
0 & E_x & E_y & E_z \\
-E_x & 0 & B_z & -B_y \\
-E_y & -B_z & 0 & B_x \\
-E_z & B_y & -B_x & 0
\end{pmatrix}
La fuerza de Lorentz puede deducirse a partir de la siguiente expresión:

f^{\alpha} = qF^{\alpha}_{\beta}u^{\beta}
F = q(E + u \times v)
Donde q es la carga y u^{\alpha} la cuadrivelocidad de la partícula.


PREDESIBILIDAD: 


Predicción tiene por etimología el latín pre+dicere, esto es, “decir antes”. Una vez sabido el significado general, conviene irlo afinando para ajustarlo a los usos que la práctica demanda. Por ello, no se trata sólo de “decir antes”, sino de “decirlo bien”, o sea, acertar; también, hacerlo con un plazo suficiente para poder tomar las medidas que se crean oportunas, y además tener una idea de hasta cuándo es posible predecir el futuro con cierto éxito.

Cuando se efectúa una predicción, se está estimando un valor futuro de alguna variable que se considere representativa de una cierta situación. Por ejemplo, en cuestiones climáticas podría tratarse de temperaturas medias de la atmósfera en determinados niveles, concentraciones de gases, precipitación, etc. También se pueden hacer predicciones espaciales, como la ubicación, movilidad e intensidad local de fenómenos extremos, caso por ejemplo de los huracanes y tormentas tropicales. Normalmente ambos tipos de predicción están ligados y se realizan a la vez, como lo prueban los productos que ofrecen las grandes agencias e institutos de Meteorología y Climatología.
Las estimaciones realizadas para predecir se denominan predictores. Pueden construirse de modos muy diversos, de algunos de los cuales nos ocuparemos en este trabajo, y su bondad se mide -como es natural- por el porcentaje de aciertos en situaciones del pasado predichas con igual técnica. Las bases de registros disponibles hoy día permiten realizar experimentos de predecibilidad con datos pasados y simular situaciones ya conocidas mediante diversas técnicas, estudiando y comparando los resultados. Es claro que para estos experimentos la tercera propiedad de la predicción no tiene demasiado interés, pues la predicción -o mejor, simulación- del pasado no incita a la prisa.
Sin embargo, en las predicciones día a día para fenómenos meteorológicos, o anualmente para situaciones climáticas, es conveniente que la predicción pueda llevarse a cabo con antelación suficiente. Por supuesto, hay predictores que se pueden formular de inmediato: por ejemplo tomemos la permanencia y el paseo aleatorio. El primero consiste en suponer que la situación actual se prolongará hasta el momento para el que se quiere predecir; el segundo supone que la predicción es una mera cuestión de suerte. Ambos son predictores válidos y utilizados con frecuencia como “enemigos a batir” por cualquier otro diseño de predicción. Pero no todos los métodos son tan rápidos, y lleva siempre cierto tiempo efectuar la predicción.
CAOS:







La teoría de las estructuras disipativas, conocida también como teoría del caos, tiene como principal representante al químico belga Ilya Prigogine, y plantea que el mundo no sigue estrictamente el modelo del reloj, previsible y determinado, sino que tiene aspectos caóticos. El observador no es quien crea la inestabilidad o la imprevisibilidad con su ignorancia: ellas existen de por sí, y un ejemplo típico el clima. 
Efecto mariposa y caos matemático.- Empezaremos con la parte anecdótica de la teoría del caos, el famoso "efecto mariposa" Es decir, comenzaremos a investigar el iceberg a partir de su punta visible que, como sabemos, es apenas una mínima fracción del total.
En principio, las relaciones entre causas y efectos pueden examinarse desde dos puntos de vista: cualitativo y cuantitativo. 
La teoría del caos, en la medida en que considera que existen procesos aleatorios, adopta la postura (b), pero en la medida en que dice que ciertos otros procesos no son caóticos sino ordenados, sostiene que sí, que existen vínculos causales. Los vínculos causales que más desarrollará son los circuitos de retroalimentación positiva, es decir, aquellos donde se verifica una amplificación de las desviaciones: por ejemplo, una pequeña causa inicial, mediante un proceso amplificador, podrá generar un efecto considerablemente grande.
RADIOACTIVIDAD: 


La radiactividad o radioactividad1 es un fenómeno físico por el cual los núcleos de algunos elementos químicos, llamados radiactivos, emiten radiaciones que tienen la propiedad de impresionar placas radiográficas, ionizar gases, producir fluorescencia, atravesar cuerpos opacos a la luz ordinaria, entre otros. Debido a esa capacidad, se les suele denominar radiaciones ionizantes (en contraste con las no ionizantes). Las radiaciones emitidas pueden ser electromagnéticas, en forma de rayos X o rayos gamma, o bien corpusculares, como pueden ser núcleos de helio, electrones o positrones, protones u otras. En resumen, es un fenómeno que ocurre en los núcleos de ciertos elementos, inestables, que son capaces de transformarse, o decaer, espontáneamente, en núcleos atómicos de otros elementos más estables.

La radiactividad ioniza el medio que atraviesa. Una excepción lo constituye el neutrón, que posee carga neutra (igual carga positiva como negativa), pero ioniza la materia en forma indirecta. En las desintegraciones radiactivas se tienen varios tipos de radiación: alfa, beta, gamma y neutrones.
La radiactividad es una propiedad de los isótopos que son "inestables", es decir, que se mantienen en un estado excitado en sus capas electrónicas o nucleares, con lo que, para alcanzar su estado fundamental, deben perder energía. Lo hacen en emisiones electromagnéticas o en emisiones de partículas con una determinada energía cinética. Esto se produce variando la energía de sus electrones (emitiendo rayos X) o de sus nucleones (rayo gamma) o variando el isótopo (al emitir desde el núcleo electrones, positrones, neutrones, protones o partículas más pesadas), y en varios pasos sucesivos, con lo que un isótopo pesado puede terminar convirtiéndose en uno mucho más ligero, como el uranio que, con el transcurrir de los siglos, acaba convirtiéndose en plomo.
La radiactividad se aprovecha para la obtención de energía nuclear, se usa en medicina (radioterapia y radiodiagnóstico) y en aplicaciones industriales (medidas de espesores y densidades, entre otras).
La radiactividad puede ser:
  • Natural: manifestada por los isótopos que se encuentran en la naturaleza.
  • Artificial o inducida: manifestada por los radioisótopos producidos en transformaciones artificiales.

Radiactividad natural

En 1896 Henri Becquerel descubrió que ciertas sales de uranio emiten radiaciones espontáneamente, al observar que velaban las placas fotográficas envueltas en papel negro. Hizo ensayos con el mineral en caliente, en frío, pulverizado, disuelto en ácidos y la intensidad de la misteriosa radiación era siempre la misma. Por tanto, esta nueva propiedad de la materia, que recibió el nombre de radiactividad, no dependía de la forma física o química en la que se encontraban los átomos del cuerpo radiactivo, sino que era una propiedad que radicaba en el interior mismo del átomo.
El estudio del nuevo fenómeno y su desarrollo posterior se debe casi exclusivamente al matrimonio de Marie y Pierre Curie, quienes encontraron otras sustancias radiactivas: el torio, el polonio y el radio. La intensidad de la radiación emitida era proporcional a la cantidad de uranio presente, por lo que Marie Curie dedujo que la radiactividad es una propiedad atómica. El fenómeno de la radiactividad se origina exclusivamente en el núcleo de los átomos radiactivos. Se cree que se origina debido a la interacción neutrón-protón. Al estudiar la radiación emitida por el radio, se comprobó que era compleja, pues al aplicarle un campo magnético parte de ella se desviaba de su trayectoria y otra parte no.
Pronto se vio que todas estas reacciones provienen del núcleo atómico que describió Ernest Rutherford en 1911, quien también demostró que las radiaciones emitidas por las sales de uranio pueden ionizar el aire y producir la descarga de cuerpos cargados eléctricamente.
Con el uso del neutrón, partícula teorizada en 1920 por Ernest Rutherford, se consiguió describir la radiación beta.
En 1932, James Chadwick descubrió la existencia del neutrón que Rutherford había predicho en 1920, e inmediatamente después Enrico Fermi descubrió que ciertas radiaciones emitidas en fenómenos no muy comunes de desintegración son en realidad neutrones.

Radiactividad artificial


Símbolo utilizado tradicionalmente para indicar la presencia de radiactividad.

Nuevo símbolo de advertencia de radiactividad adoptado por la ISO en 2007 para fuentes que puedan resultar peligrosas. Estándar ISO #21482.
La radiactividad artificial, también llamada radiactividad inducida, se produce cuando se bombardean ciertos núcleos estables con partículas apropiadas. Si la energía de estas partículas tiene un valor adecuado, penetran el núcleo bombardeado y forman un nuevo núcleo que, en caso de ser inestable, se desintegra después radiactivamente. Fue descubierta por la pareja Jean Frédéric Joliot-Curie e Irène Joliot-Curie, bombardeando núcleos de boro y de aluminio con partículas alfa. Observaron que las sustancias bombardeadas emitían radiaciones (neutrones libres) después de retirar el cuerpo radiactivo emisor de las partículas de bombardeo. El plomo es la sustancia que mayor fuerza de impenetracion posee por parte de los rayos x y gamma.
En 1934 Fermi se encontraba en un experimento bombardeando núcleos de uranio con los neutrones recién descubiertos. En 1938, en Alemania, Lise Meitner, Otto Hahn y Fritz Strassmann verificaron los experimentos de Fermi. En 1939 demostraron que una parte de los productos que aparecían al llevar a cabo estos experimentos era bario. Muy pronto confirmaron que era resultado de la división de los núcleos de uranio: la primera observación experimental de la fisión. En Francia, Jean Frédéric Joliot-Curie descubrió que, además del bario, se emiten neutrones secundarios en esa reacción, lo que hace factible la reacción en cadena.
También en 1932, Mark Oliphant teorizó sobre la fusión de núcleos ligeros (de hidrógeno), y poco después Hans Bethe describió el funcionamiento de las estrellas con base en este mecanismo.
El estudio de la radiactividad permitió un mayor conocimiento de la estructura del núcleo atómico y de las partículas subatómicas. Se abrió la posibilidad de convertir unos elementos en otros. Incluso se hizo realidad el ancestral sueño de los alquimistas de crear oro a partir de otros elementos, como por ejemplo átomos de mercurio, aunque en términos prácticos el proceso de convertir mercurio en oro no resulta rentable debido a que el proceso requiere demasiada energía.
El 15 de marzo de 1994, la Agencia Internacional de la Energía Atómica (AIEA) dio a conocer un nuevo símbolo de advertencia de radiactividad con validez internacional. La imagen fue probada en 11 países.

Clases y componentes de la radiación


Clases de radiación ionizante y cómo detenerla.
Las partículas alfa (núcleos de helio) se detienen al interponer una hoja de papel. Las partículas beta (electrones y positrones) no pueden atravesar una capa de aluminio. Sin embargo, los rayos gamma (fotones de alta energía) necesitan una barrera mucho más gruesa, y los más energéticos pueden atravesar el plomo.
Se comprobó que la radiación puede ser de tres clases diferentes, conocidas como partículas, desintegraciones y radiación:
  1. Partícula alfa: Son flujos de partículas cargadas positivamente compuestas por dos neutrones y dos protones (núcleos de helio). Son desviadas por campos eléctricos y magnéticos. Son poco penetrantes, aunque muy ionizantes. Son muy energéticas. Fueron descubiertas por Rutherford, quien hizo pasar partículas alfa a través de un fino cristal y las atrapó en un tubo de descarga. Este tipo de radiación la emiten núcleos de elementos pesados situados al final de la tabla periódica (A >100). Estos núcleos tienen muchos protones y la repulsión eléctrica es muy fuerte, por lo que tienden a obtener N aproximadamente igual a Z, y para ello se emite una partícula alfa. En el proceso se desprende mucha energía, que se convierte en la energía cinética de la partícula alfa, por lo que estas partículas salen con velocidades muy altas.
  2. Desintegración beta: Son flujos de electrones (beta negativas) o positrones (beta positivas) resultantes de la desintegración de los neutrones o protones del núcleo cuando éste se encuentra en un estado excitado. Es desviada por campos magnéticos. Es más penetrante, aunque su poder de ionización no es tan elevado como el de las partículas alfa. Por lo tanto, cuando un átomo expulsa una partícula beta, su número atómico aumenta o disminuye una unidad (debido al protón ganado o perdido). Existen tres tipos de radiación beta: la radiación beta-, que consiste en la emisión espontánea de electrones por parte de los núcleos; la radiación beta+, en la que un protón del núcleo se desintegra y da lugar a un neutrón, a un positrón o partícula Beta+ y un neutrino, y por último la captura electrónica que se da en núcleos con exceso de protones, en la cual el núcleo captura un electrón de la corteza electrónica, que se unirá a un protón del núcleo para dar un neutrón.
  3. Radiación gamma: Se trata de ondas electromagnéticas. Es el tipo más penetrante de radiación. Al ser ondas electromagnéticas de longitud de onda corta, tienen mayor penetración y se necesitan capas muy gruesas de plomo u hormigón para detenerlas. En este tipo de radiación el núcleo no pierde su identidad, sino que se desprende de la energía que le sobra para pasar a otro estado de energía más baja emitiendo los rayos gamma, o sea fotones muy energéticos. Este tipo de emisión acompaña a las radiaciones alfa y beta. Por ser tan penetrante y tan energética, éste es el tipo más peligroso de radiación.
Las leyes de desintegración radiactiva, descritas por Frederick Soddy y Kasimir Fajans, son:
  • Cuando un átomo radiactivo emite una partícula alfa, la masa del átomo (A) resultante disminuye en 4 unidades y el número atómico (Z) en 2.
  • Cuando un átomo radiactivo emite una partícula beta, el número atómico (Z) aumenta o disminuye en una unidad y la masa atómica (A) se mantiene constante.
  • Cuando un núcleo excitado emite radiación gamma, no varía ni su masa ni su número atómico: sólo pierde una cantidad de energía hν (donde "h" es la constante de Planck y "ν" es la frecuencia de la radiación emitida).
Las dos primeras leyes indican que, cuando un átomo emite una radiación alfa o beta, se transforma en otro átomo de un elemento diferente. Este nuevo elemento puede ser radiactivo y transformarse en otro, y así sucesivamente, con lo que se generan las llamadas series radiactivas.

Causa de la radiactividad

En general son radiactivas las sustancias que no presentan un balance correcto entre protones o neutrones, tal como muestra el gráfico que encabeza este artículo. Cuando el número de neutrones es excesivo o demasiado pequeño respecto al número de protones, se hace más difícil que la fuerza nuclear fuerte debida al efecto del intercambio de piones pueda mantenerlos unidos. Eventualmente, el desequilibrio se corrige mediante la liberación del exceso de neutrones o protones, en forma de partículas α que son realmente núcleos de helio, y partículas β, que pueden ser electrones o positrones. Estas emisiones llevan a dos tipos de radiactividad, ya mencionados:
  • Radiación α, que aligera los núcleos atómicos en 4 unidades másicas, y cambia el número atómico en dos unidades.
  • Radiación β, que no cambia la masa del núcleo, ya que implica la conversión de un protón en un neutrón o viceversa, y cambia el número atómico en una sola unidad (positiva o negativa, según si la partícula emitida es un electrón o un positrón).
La radiación γ, por su parte, se debe a que el núcleo pasa de un estado excitado de mayor energía a otro de menor energía, que puede seguir siendo inestable y dar lugar a la emisión de más radiación de tipo α, β o γ. La radiación γ es, por tanto, un tipo de radiación electromagnética muy penetrante, ya que tiene una alta energía por fotón emitido.

Período de semidesintegración radiactiva

La desintegración radiactiva se comporta en función de la ley de decaimiento exponencial:
N(t)=N_0e^{-\lambda t}\,
donde:

N(t) es el número de radionúclidos existentes en un instante de tiempo t.
N_0 es el número de radionúclidos existentes en el instante inicial t=0.
\lambda, llamada constante de desintegración radiactiva, es la probabilidad de desintegración por unidad de tiempo. A partir de la definición de actividad (ver Velocidad de desintegración), es evidente que la constante de desintegración es el cociente entre el número de desintegraciones por segundo y el número de átomos radiactivos (\lambda = A/N \,\!).
Se llama tiempo de vida o tiempo de vida media de un radioisótopo el tiempo promedio de vida de un átomo radiactivo antes de desintegrarse. Es igual a la inversa de la constante de desintegración radiactiva (\tau = 1/\lambda \,\!).
Al tiempo que transcurre hasta que la cantidad de núcleos radiactivos de un isótopo radiactivo se reduzca a la mitad de la cantidad inicial se le conoce como periodo de semidesintegración, período, semiperiodo, semivida o vida media (no confundir con el ya mencionado tiempo de vida) (T_{1/2} = ln(2)/\lambda \,\!). Al final de cada período, la radiactividad se reduce a la mitad de la radiactividad inicial. Cada radioisótopo tiene un semiperiodo característico, en general diferente del de otros isótopos.
Ejemplos:
Isótopo Periodo Emisión
Uranio-238 4510 millones de años Alfa
Carbono-14 5730 años Beta
Cobalto-60 5,271 años Gamma
Radón-222 3,82 días Alfa

Velocidad de desintegración

La velocidad de desintegración o actividad radiactiva se mide en Bq, en el SI. Un becquerel vale 1 desintegración por segundo. También existen otras unidades: el rutherford, que equivale a 106 desintegraciones por segundo, o el curio, Ci, que equivale idénticamente a 3,7·1010 desintegraciones por segundo (unidad basada en la actividad de 1 g de 226Ra que es cercana a esa cantidad). Empíricamente se ha determinado que la velocidad de desintegración es la tasa de variación del número de núcleos radiactivos por unidad de tiempo:
A(t) = -\frac{dN(t)}{dt}
Dada la ley de desintegración radiactiva que sigue N(t) (ver Periodo de semidesintegración), es evidente que:
A(t) = - \left(-\lambda N_0\right) e^{-\lambda t} = A_0 e^{-\lambda t},
donde:

A(t) \,\! es la actividad radiactiva en el instante t \,\!.
A_0 \,\! es la actividad radiactiva inicial (cuando t=0 \,\!).
e\,\! es la base de los logaritmos neperianos.
t\,\! es el tiempo transcurrido.
\lambda \,\! es la constante de desintegración radiactiva propia de cada radioisótopo.
La actividad también puede expresarse en términos del número de núcleos a partir de su propia definición. En efecto:
A(t) = - \left(-\lambda N_0\right) e^{-\lambda t} = \lambda N(t)


NUCLEO:


El núcleo atómico es la parte central de un átomo, tiene carga positiva, y concentra más del 99,9% de la masa total del átomo.
Está formado por protones y neutrones (denominados nucleones) que se mantienen unidos por medio de la interacción nuclear fuerte, la cual permite que el núcleo sea estable, a pesar de que los protones se repelen entre sí (como los polos iguales de dos imanes). La cantidad de protones en el núcleo (número atómico), determina el elemento químico al que pertenece. Los núcleos atómicos no necesariamente tienen el mismo número de neutrones, ya que átomos de un mismo elemento pueden tener masas diferentes, es decir son isótopos del elemento.
La existencia del núcleo atómico fue deducida del experimento de Rutherford, donde se bombardeó una lámina fina de oro con partículas alfa, que son núcleos atómicos de helio emitidos por rocas radiactivas. La mayoría de esas partículas traspasaban la lámina, pero algunas rebotaban, lo cual demostró la existencia de un minúsculo núcleo atómico.



Historia

El descubrimiento de los electrones fue la primera indicación de la estructura interna de los átomos. A comienzos del siglo XX el modelo aceptado del átomo era el de JJ Thomson "pudín de pasas" modelo en el cual el átomo era una gran bola de carga positiva con los pequeños electrones cargados negativamente incrustado dentro de la misma. Por aquel entonces, los físicos habían descubierto también tres tipos de radiaciones procedentes de los átomos : alfa, beta y radiación gamma. Los experimentos de 1911 realizados por Lise Meitner y Otto Hahn, y por James Chadwick en 1914 mostraron que el espectro de decaimiento beta es continuo y no discreto. Es decir, los electrones son expulsados del átomo con una gama de energías, en vez de las cantidades discretas de energía que se observa en rayos gamma y decaimiento alfa. Esto parecía indicar que la energía no se conservaba en estos decaimiento. Posteriormente se descubrió que la energía sí se conserva, con el descubrimiento de los neutrinos.
En 1906 Ernest Rutherford publicó "El retraso de la partícula alfa del radio cuando atraviesa la materia", en Philosophical Magazine (12, p. 134-46). Hans Geiger amplió este trabajo en una comunicación a la Royal Society (Proc. Roy. Soc. 17 de julio de 1908) con experimentos y Rutherford se había hecho pasar aire a través de las partículas α, papel de aluminio y papel de aluminio dorado. Geiger y Marsden publicaron trabajos adicionales en 1909 (Proc. Roy. Soc. A82 p. 495-500) y ampliaron aún más el trabajo en la publicación de 1910 por Geiger (Proc. Roy. Soc. Febrero 1, 1910). En 1911-2 Rutherford explicó ante la Royal Society los experimentos y propuso la nueva teoría del núcleo atómico.
Por esas mismas fechas (1909) Ernest Rutherford realizó un experimento en el que Hans Geiger y Ernest Marsden, bajo su supervisión dispararon partículas alfa (núcleos de helio) en una delgada lámina de oro. El modelo atómico de Thomson predecía que la de las partículas alfa debían salir de la lámina con pequeñas desviaciones de sus trayectorias. Sin embargo, descubrió que algunas partículas se dispersan a grandes ángulos, e incluso completamente hacia atrás en algunos casos. Este descubrimiento en 1911, llevó al modelo atómico de Rutherford, en que el átomo está constituido por protones y electrones. Así, el átomo del nitrógeno-14 estaría constituido por 14 protones y 7 electrones.
El modelo de Rutherford funcionó bastante bien hasta que los estudios llevados a cabo por Franco Rasetti, en el Institute of Technology de California en 1929. En 1925 se sabía que los protones y electrones tiene un espín de 1 / 2, y en el modelo de Rutherford nitrógeno - 14 los 14 protones y seis de los electrones deberían cancelar sus contribuciones al espín total, estimándose un espín total de 1 / 2. Rasetti descubierto, sin embargo, que el nitrógeno - 14 tiene un espín total unidad.
En 1930 Wolfgang Pauli no pudo asistir a una reunión en Tubinga, y en su lugar envió una carta famoso con la clásica introducción "Queridos Señoras y señores radiactivos ". En su carta Pauli sugirió que tal vez existía una tercera partícula en el núcleo, que la bautizó con el nombre de "neutrones". Sugirió que era más ligero que un electrón y sin carga eléctrica, y que no interactuaba fácilmente con la materia (y por eso todavía no se le había detectado). Esta hipótesis permitía resolver tanto el problema de la conservación de la energía en la desintegración beta y el espín de nitrógeno - 14, la primera porque los neutrones llevaban la energía no detectada y el segundo porque un electrón extra se acoplaba con el electrón sobrante en el núcleo de nitrógeno - 14 para proporcionar un espín de 1. Enrico Fermi redenominó en 1931 los neutrones de Pauli como neutrinos (en italiano pequeño neutral) y unos treinta años después se demostró finalmente que un neutrinos realmente se emiten en el decaimiento beta.
En 1932 James Chadwick se dio cuenta de que la radiación que de que había sido observado por Walther Bothe, Herbert L. Becker, Irène y Jean Frédéric Joliot-Curie era en realidad debido a una partículas que él llamó el neutrón. En el mismo año Dimitri Ivanenko sugirió que los neutrones eran, de hecho partículas de espín 1 / 2, que existían en el núcleo y que no existen electrones en el mismo, y Francis Perrin sugirió que los neutrinos son partículas nucleares, que se crean durante el decaimiento beta. Fermi publicó 1934 una teoría de los neutrinos con una sólida base teórica. En el mismo año Hideki Yukawa propuso la primera teoría importante de la fuerza para explicar la forma en que el núcleo mantiene junto.

Descripción del núcleo

Forma y tamaño del núcleo

Los núcleos atómicos son mucho más pequeños que el tamaño típico de un átomo (entre 10 mil y 100 mil veces más pequeños). Además contienen más del 99% de la masa con lo cual la densidad másica del núcleo es muy elevada. Los núcleos atómicos tienen algún tipo de estructura interna, por ejemplo los neutrones y protones parecen estar orbitando unos alrededor de los otros, hecho que se manifiesta en la existencia del momento magnético nuclear. Sin embargo, los experimentos revelan que el núcleo se parece mucho a una esfera o elipsoide compacto de 10-15 m (= 1 fm), en el que la densidad parece prácticamente constante. Naturalmente el radio varía según el número de protones y neutrones, siendo los núcleos más pesados y con más partículas algo más grandes. La siguiente fórmula da el radio del núcleo en función del número de nucleones A:
R_n = r_0 A^\frac{1}{3}
Donde r_0 \approx 10^{-15}\mbox{ m}

Densidad de carga eléctrica en el núcleo atómico.
La densidad de carga eléctrica del núcleo es aproximadamente constante hasta la distancia \scriptstyle R_n y luego decae rápidamente hasta prácticamente 0 en una distancia \scriptstyle a de acuerdo con la fórmula:
\rho(r) = \frac{\rho_0}{1+\exp \left( \frac{r-R_n}{0,228 a} \right) }
Donde r es la distancia radial al centro del núcleo atómico.
Las aproximaciones anteriores son mejores para núcleos esféricos, aunque la mayoría de núcleos no parecen ser esféricos como revela que posean momento cuadrupular diferente de cero. Este momento cuadrupolar se manifiesta en la estructura hiperfina de los espectros atómicos y hace que el campo eléctrico del núcleo no sea un campo coulombiano con simetría esférica.

Estabilidad del núcleo


Diagrama de Segrè, en rojo los núcleos estables, en otros colores los núcleos inestables coloreados según el período de desintegración. Obsérvese que un ligero exceso de neutrones favorece la estabilidad en átomos pesados.
Los núcleos atómicos se comportan como partículas compuestas a energías suficientemente bajas. Además, la mayoría de núcleos atómicos por debajo de un cierto peso atómico y que además presentan un equilibrio entre el número de neutrones y el número de protones (número atómico) son estables. Sin embargo, sabemos que los neutrones aislados y los núcleos con demasiados neutrones (o demasiados protones) son inestables o radioactivos.
La explicación de esta estabilidad de los núcleos reside en la existencia de los piones. Aisladamente los neutrones pueden sufrir vía interacción débil la siguiente desintegración:
(1)n^0 \to p^+ + e^- + \bar{\nu}_e
Sin embargo, dentro del núcleo atómico la cercanía entre neutrones y protones hace que sean mucho más rápidas, vía interacción fuerte las reacciones:
(2)\begin{cases}
n^0 \rightleftarrows p^+ + \pi^- \\
p^+ \rightleftarrows n^0 + \pi^+
\end{cases}
Esto hace que continuamente los neutrones del núcleo se transformen en protones, y algunos protones en neutrones, esto hace que la reacción (1) apenas tenga tiempo de acontecer, lo que explica que los neutrones de los núcleos atómicos sean mucho más estable que los neutrones aislados. Si el número de protones y neutrones se desequilibra, se abre la posibilidad de que en cada momento haya más neutrones y sea más fácil la ocurrencia de la reacción (1).

Modelos de estructura del núcleo atómico


Estructura interna del átomo.
En 1808 el químico inglés John Dalton propone una nueva teoría sobre la constitución de la materia. Según Dalton toda la materia está formada por átomos indivisibles e invisibles, estos a su vez se unen para formar compuestos en proporciones enteras fijas y constantes. De hecho Dalton propuso la existencia de los átomos como una hipótesis para explicar porqué los átomos sólo se combinaban en ciertas combinaciones concretas. El estudio de esas combinaciones le llevó a poder calcular los pesos atómicos. Para Dalton la existencia del núcleo atómico era desconocida y se consideraba que no existían partes más pequeñas.
En 1897 Joseph John Thomson fue el primero en proponer un modelo estructural interno del átomo. Thomson fue el primero en identificar el electrón como partícula subatómica de carga negativa y concluyó que «si los átomos contienen partículas negativas y la materia se presenta con neutralidad de carga, entonces deben existir partículas positivas». Es así como Thomson postuló que el átomo debe ser una esfera compacta positiva en la cual se encontrarían incrustados los electrones en distintos lugares, de manera que la cantidad de carga negativa sea igual a la carga positiva.
Así ni el modelo atómico de Dalton ni el de Thomson incluían ninguna descripción del núcleo atómico. La noción de núcleo atómico surgió en 1911 cuando Ernest Rutherford y sus colaboradores Hans Geiger y Ernest Marsden, utilizando un haz de radiación alfa, bombardearon hojas laminadas metálicas muy delgadas, colocando una pantalla de sulfuro de zinc a su alrededor, sustancia que tenía la cualidad de producir destellos con el choque de las partículas alfa incidentes. La hoja metálica fue atravesada por la mayoría de las partículas alfa incidentes; algunas de ellas siguieron en línea recta, otras fueron desviadas de su camino, y lo más sorprendente, muy pocas rebotaron contra la lámina.
A la luz de la fórmula dispersión usada por Rutherford:
(1)\chi = 2\pi - 2\cos^{-1} \left( \frac{2K/(E_0b)}{\sqrt{1+(2K/(E_0b))^2}} \right)
Donde:

K = (q_N/4\pi\varepsilon_0)\,, siendo \varepsilon_0 la constante dieléctrica del vacío y q_N\,, es la carga eléctrica del centro dispersor.
E_0\,, es la energía cinética inicial de la partícula alfa incidente.
b\, es el parámetro de impacto.
Los resultados del experimento requerían parámetros de impacto muy pequeños, y por tanto que el núcleo estuviera concentrado en la parte central, el núcleo de carga positiva, donde estaría concentrada la masa del átomo. con ello explicaba la desviación de las partículas alfa (partículas de carga positiva). Los electrones se encontrarían en una estructura externa girando en órbitas circulares muy alejadas del núcleo, lo que explicaría el paso mayoritario de las partículas alfa a través de la lámina de oro.
En 1913 Niels Bohr postula que los electrones giran a grandes velocidades alrededor del núcleo atómico. Los electrones se disponen en diversas órbitas circulares, las cuales determinan diferentes niveles de energía. El electrón puede acceder a un nivel de energía superior, para lo cual necesita "absorber" energía. Para volver a su nivel de energía original es necesario que el electrón emita la energía absorbida (por ejemplo en forma de radiación).
Comúnmente existen dos modelos diferentes describir el núcleo atómico:
  • El modelo de la gota de agua
  • El modelo de capas
Aunque dichos modelos son mútuamente excluyentes en sus hipótesis básicas tal como fueron formulados originalmente, A. Bohr y Mottelson construyeron un modelo mixto que combinaba fenomenológicamente características de ambos modelos.

Modelo de la gota líquida


Energía de enlace por nucleón (=B/A) para los isótopos conocidos.
Este modelo no pretende describir la compleja estructura interna del núcleo sino sólo las energías de enlace entre neutrones y protones así como algunos aspectos de los estados excitados de un núcleo atómico que se reflejan en los espectros nucleares. Fue inicialmente propuesto por Bohr (1935) y el núcleo en analogía con una masa de fluido clásico compuesto por neutrones y protones y una fuerza central columbiana repulsiva proporcional al número de protones Z y con origen en el centro de la gota.
Desde el punto de vista cuantitativo se observa que la masa de un núcleo atómico es inferior a la masa de los componentes indiviudales (protones y neutrones) que lo forman. Esta no conservación de la masa está conectada con la ecuación E = mc^2 de Einstein, por la cual parte de la masa está en forma de energía de ligazón entre dichos componentes. Cuantiativamente se tiene la siguiente ecuación:1
m_N = Zm_p + (A-Z) m_n -\frac{B}{c^2}
Donde:

m_N, m_p, m_n\, son respectivamente la masa del núcleo, la masa de un protón y la masa de un neutrón.
Z, A, A-Z\, son respectivamente el número atómico (que coincide con el número de protones), el número másico (que coincide con el número de nucleones) y A-Z por tanto coincide con el número de neturones.
B\, es la energía de enlace entre todos los nucleones.
El modelo de la gota de agua pretende describir la energía de enlace B a partir de consideraciones geométricas e interpreta la energía de los estados excitados de los núcleos como rotaciones o vibraciones semiclásicas de la "gota de agua" que representa el núcleo. En concreto en este modelo la energía de enlace se representa como B:2
B = B_v + B_s + B_c + B_a + B_p\,
Donde:

B_v = a_vA\, este término representa el efecto favorable del volumen.
B_s = -a_sA^{2/3}\, este término representa el efecto desfavorable de la superficie.
B_c = -a_cZ^2A^{-1/3}\, representa el efecto de la repulsión coulombiana entre protones.
B_a = -a_a(A_2Z)^2/A\, representa el hecho de que los núcleos "equilibrados" con un número similar de protones y neutrones son más estables.
B_p\, representa el hecho de que los núcleos con un número par de protones y neutrones, son más estables que los que tienen un número impar de ambas especies. Matemáticamente el término viene dado por:









B_p = \begin{cases} +a_pA^{-1/2} & \mbox{(par-par)} \\ 0 & \mbox{(impar-par)} \\
-a_pA^{-1/2} & \mbox{(impar-impar)} \end{cases}


 FUCIÓN:

En física nuclear, fusión nuclear es el proceso por el cual varios núcleos atómicos de carga similar se unen y forman un núcleo más pesado. Simultáneamente se libera o absorbe una cantidad enorme de energía, que permite a la materia entrar en un estado plasmático.
La fusión de dos núcleos de menor masa que el hierro (en este elemento y en el níquel ocurre la mayor energía de enlace nuclear por nucleón) libera energía en general. Por el contrario, la fusión de núcleos más pesados que el hierro absorbe energía. En el proceso inverso, la fisión nuclear, estos fenómenos suceden en sentidos opuestos.
En el caso más simple de fusión, en el hidrógeno, dos protones deben acercarse lo suficiente para que la interacción nuclear fuerte pueda superar su repulsión eléctrica mutua y obtener la posterior liberación de energía.
En la naturaleza ocurre fusión nuclear en las estrellas, incluido el Sol. En su interior las temperaturas son cercanas a 15 millones de grados Celsius.1 Por ello a las reacciones de fusión se les denomina termonucleares. En varias empresas se ha logrado también la fusión (artificial), aunque todavía no ha sido totalmente controlada.
Sobre la base de los experimentos de transmutación nuclear de Ernest Rutherford, conducidos pocos años antes, Mark Oliphant, en 1932, observó por primera vez la fusión de núcleos ligeros (isótopos de hidrógeno).
Posteriormente, durante el resto de ese decenio, Hans Bethe estudió las etapas del ciclo principal de la fusión nuclear en las estrellas.
La investigación acerca de la fusión para fines militares se inició en la década de 1940 como parte del Proyecto Manhattan, pero no tuvo éxito hasta 1952. La indagación relativa a fusión controlada con fines civiles se inició en la década de 1950, y continúa hasta el presente.



Requisitos

Para que pueda ocurrir la fusión debe superarse una importante barrera de energía producida por la fuerza electrostática. A grandes distancias, dos núcleos se repelen debido a la fuerza de repulsión electrostática entre sus protones, cargados positivamente.
Sin embargo, si se pueden acercar dos núcleos lo suficiente, debido a la interacción nuclear fuerte, que en distancias cortas es mayor, se puede superar la repulsión electrostática.
Cuando un nucleón (protón o neutrón) se añade a un núcleo, la fuerza nuclear atrae a otros nucleones, pero -debido al corto alcance de esta fuerza- principalmente a sus vecinos inmediatos. Los nucleones del interior de un núcleo tienen más vecinos nucleones que los existentes en la superficie.
Ya que la relación entre área de superficie y volumen de los núcleos menores es mayor, por lo general la energía de enlace por nucleón debido a la fuerza nuclear aumenta según el tamaño del núcleo, pero se aproxima a un valor límite correspondiente al de un núcleo cuyo diámetro equivalga al de casi cuatro nucleones.
Por otra parte, la fuerza electrostática es inversa al cuadrado de la distancia. Así, a un protón añadido a un núcleo le afectará una repulsión electrostática de todos los otros protones.
Por tanto, debido a la fuerza electrostática, cuando los núcleos se hacen más grandes, la energía electrostática por nucleón aumenta sin límite.

En distancias cortas la interacción nuclear fuerte (atracción) es mayor que la fuerza electrostática (repulsión). Así, la mayor dificultad técnica para la fusión es conseguir que los núcleos se acerquen lo suficiente para que ocurra este fenómeno. Las distancias no están a escala.
El resultado neto de estas fuerzas opuestas es que generalmente la energía de enlace por nucleón aumenta según el tamaño del núcleo, hasta llegar a los elementos hierro y níquel, y un posterior descenso en los núcleos más pesados.
Finalmente la energía de enlace nuclear se convierte en negativa, y los núcleos más pesados (con más de 208 nucleones, correspondientes a un diámetro de alrededor de seis nucleones) no son estables.
Cuatro núcleos muy estrechamente unidos, en orden decreciente de energía de enlace nuclear, son 62Ni, 58Fe, 56Fe, y 60Ni.2 A pesar de que el isótopo de níquel 62Ni es más estable, el isótopo de hierro 56Fe es una orden de magnitud más común. Esto se debe a mayor tasa de desintegración de 62Ni en el interior de las estrellas, impulsada por absorción de fotones.
Una notable excepción a esta tendencia general es el núcleo helio 4He, cuya energía de enlace es mayor que la del litio, el siguiente elemento por incremento de peso.
En el principio de exclusión de Pauli se proporciona una explicación a esta excepción: debido a que los protones y los neutrones son fermiones, no pueden existir en el mismo estado.
A causa de que el núcleo del 4He está integrado por dos protones y dos neutrones, de modo que sus cuatro nucleones pueden estar en el estado fundamental, su energía de enlace es anormalmente grande. Cualquier nucleón adicional tendría que ubicarse en estados de energía superiores.
Tres ventajas de la fusión nuclear son:
a) en gran parte sus desechos no revisten la problemática de los provenientes de fisión;
b) abundancia -y buen precio- de materias primas, principalmente del isótopo de hidrógeno deuterio (D);
c) si una instalación dejara de funcionar se apagaría inmediatamente, sin peligro de fusión no nuclear.

En un diseño prometedor, para iniciar la reacción, varios rayos láser de alta potencia transfieren energía a una pastilla de combustible pequeña, que se calienta y se genera una implosión: desde todos los puntos se colapsa y se comprime hasta un volumen mínimo, lo cual provoca la fusión nuclear.3

Confinamiento electrostático estable para fusión nuclear

Como se puede apreciar en el dibujo de arriba, se basa en circunscripción total de iones de hidrógeno, confinados electrostáticamente.
Los beneficios de este confinamiento son múltiples:
  • El grosor de la esfera de cobre anula la inestabilidad causada por errores de simetría.
  • La ionización del hidrógeno se genera fácilmente por el campo eléctrico que absorbe los electrones sin disminuir la intensidad de ese campo.
  • Se puede obtener un campo eléctrico intenso, lo cual evitaría fuga de los iones de hidrógeno.



  • La energía necesaria es menor que la consumida por un reactor de fusión que genere un campo electromagnético para confinar los iones.
La fusión nuclear se logra por medio de compresión-descompresión, aumentando o disminuyendo la intensidad del campo eléctrico. Para ello se aumenta o se disminuye la velocidad del generador de electricidad.
Como moderador de neutrones se puede utilizar plomo, aunque habría que probar su eficacia. Véase dibujo en este enlace [1] y aquí [2]


FICIÓN: 



En física nuclear, la fisión es una reacción nuclear, lo que significa que tiene lugar en el núcleo atómico. La fisión ocurre cuando un núcleo pesado se divide en dos o más núcleos pequeños, además de algunos subproductos como neutrones libres, fotones (generalmente rayos gamma) y otros fragmentos del núcleo como partículas alfa (núcleos de helio) y beta (electrones y positrones de alta energía).



Mecanismo

La fisión de núcleos pesados es un proceso exotérmico, lo que supone que se liberan cantidades sustanciales de energía. El proceso genera mucha más energía que la liberada en las reacciones químicas convencionales, en las que están implicadas las cortezas electrónicas; la energía se emite, tanto en forma de radiación gamma como de energía cinética de los fragmentos de la fisión, que calentarán la materia que se encuentre alrededor del espacio donde se produzca la fisión.
La fisión se puede inducir por varios métodos, incluyendo el bombardeo del núcleo de un átomo fisionable con una partícula de la energía correcta; la partícula es generalmente un neutrón libre. Este neutrón libre es absorbido por el núcleo, haciéndolo inestable (a modo de ejemplo, se podría pensar en la inestabilidad de una pirámide de naranjas en el supermercado, al lanzarse una naranja contra ella a la velocidad correcta). El núcleo inestable entonces se partirá en dos o más pedazos: los productos de la fisión que incluyen dos núcleos más pequeños, hasta siete neutrones libres (con una media de dos y medio por reacción), y algunos fotones.
Los núcleos atómicos lanzados como productos de la fisión pueden ser varios elementos químicos. Los elementos que se producen son resultado del azar, pero estadísticamente el resultado más probable es encontrar núcleos con la mitad de protones y neutrones del átomo fisionado original.
Los productos de la fisión son generalmente altamente radiactivos, no son isótopos estables; estos isótopos entonces decaen, mediante cadenas de desintegración.

Fisión fría y rotura de pares de nucleones

La mayor parte de las investigaciones sobre fisión nuclear se basan en la distribución de masa y energía cinética de los fragmentos de fisión. Sin embargo, esta distribución es perturbada por la emisión de neutrones por parte de los fragmentos antes de llegar a los detectores.
Aunque con muy baja probabilidad, en los experimentos se han detectado eventos de fisión fría, es decir fragmentos con tan baja energía de excitación que no emiten neutrones. Sin embargo, aún en esos casos, se observa la rotura de pares de nucleones, la que se manifiesta como igual probabilidad de obtener fragmentos con número par o impar de nucleones. Los resultados de estos experimentos permiten comprender mejor la dinámica de la fisión nuclear hasta el punto de escisión, es decir, antes de que se desvanezca la fuerza nuclear entre los fragmentos.

Inducción de la fisión

La fisión nuclear de los átomos fue descubierta en 1938 por los investigadores Otto Hahn y Fritz Strassmann a partir del trabajo desarrollado por el propio Hahn junto a Lise Meitner durante años anteriores. Por este descubrimiento recibió en 1944 el Premio Nobel de química. El estudio de la fisión nuclear se considera parte de los campos de la química nuclear y la física.
  • Aunque la fisión es prácticamente la desintegración de materia radiactiva, comenzada a menudo de la manera más fácil posible (inducido), que es la absorción de un neutrón libre, puede también ser inducida lanzando otras cosas en un núcleo fisionable. Estas otras cosas pueden incluir protones, otros núcleos, o aún los fotones de gran energía en cantidades muy altas (porciones de rayos gamma).
  • Muy rara vez, un núcleo fisionable experimentará la fisión nuclear espontánea sin un neutrón entrante.
  • Cuanto más pesado es un elemento más fácil es inducir su fisión. La fisión en cualquier elemento más pesado que el hierro produce energía, y la fisión en cualquier elemento más liviano que el hierro requiere energía. Lo contrario también es verdad en las reacciones de fusión nuclear (la fusión de los elementos más livianos que el hierro produce energía y la fusión de los elementos más pesados que el hierro requiere energía).
  • Los elementos más frecuentemente usados para producir la fisión nuclear son el uranio y el plutonio. El uranio es el elemento natural más pesado; el plutonio experimenta desintegraciones espontáneas y tiene un período de vida limitado. Así pues, aunque otros elementos pueden ser utilizados, estos tienen la mejor combinación de abundancia y facilidad de fisión.

Reacción en cadena

Una reacción en cadena ocurre como sigue: un acontecimiento de fisión empieza lanzando 2 ó 3 neutrones en promedio como subproductos. Estos neutrones se escapan en direcciones al azar y golpean otros núcleos, incitando a estos núcleos a experimentar fisión. Puesto que cada acontecimiento de fisión lanza 2 o más neutrones, y estos neutrones inducen otras fisiones, el proceso se acelera rápidamente y causa la reacción en cadena. El número de neutrones que escapan de una cantidad de uranio depende de su área superficial. Solamente los materiales fisibles son capaces de sostener una reacción en cadena sin una fuente de neutrones externa. Para que la reacción en cadena de fisión se lleve a cabo es necesario adecuar la velocidad de los neutrones libres, ya que si impactan con gran velocidad sobre el núcleo del elemento fisible, puede que simplemente lo atraviese o lo impacte, y que este no lo absorba.

Masa crítica

La masa crítica es la mínima cantidad de material requerida para que el material experimente una reacción nuclear en cadena. La masa crítica de un elemento fisionable depende de su densidad y de su forma física (barra larga, cubo, esfera, etc.). Puesto que los neutrones de la fisión se emiten en direcciones al azar, para maximizar las ocasiones de una reacción en cadena, los neutrones deberán viajar tan lejos como sea posible y de esa forma maximizar las posibilidades de que cada neutrón choque con otro núcleo. Así, una esfera es la mejor forma y la peor es probablemente una hoja aplanada, puesto que la mayoría de los neutrones volarían de la superficie de la hoja y no chocarían con otros núcleos.
También es importante la densidad del material. Si el material es gaseoso, es poco probable que los neutrones choquen con otro núcleo porque hay demasiado espacio vacío entre los átomos y un neutrón volaría probablemente entre ellos sin golpear nada. Si el material se pone bajo alta presión, los átomos estarán mucho más cercanos y la probabilidad de una reacción en cadena es mucho más alta. La alta compresión puede ser alcanzada poniendo el material en el centro de una implosión, o lanzando un pedazo de ella contra otro pedazo de ella muy fuertemente (con una carga explosiva, por ejemplo). Una masa crítica del material que ha comenzado una reacción en cadena se dice que se convierte en supercrítica.

Moderadores

Únicamente con juntar mucho uranio en un solo lugar no es suficiente como para comenzar una reacción en cadena. Los neutrones son emitidos por un núcleo en fisión a una velocidad muy elevada. Esto significa que los neutrones escaparán del núcleo antes de que tengan oportunidad de golpear cualquier otro núcleo (debido a un efecto relativista).
Un neutrón de movimiento lento se llama neutrón térmico y solamente esta velocidad del neutrón puede inducir una reacción de fisión. Así pues, tenemos cuatro velocidades de neutrones:
  • Un neutrón (no-térmico) rápidamente se escapará del material sin interacción;
  • Un neutrón de velocidad mediana será capturado por el núcleo y transformará el material en un isótopo (pero no induciría la fisión).
  • Un neutrón de movimiento lento (térmico) inducirá a un núcleo a que experimente la fisión.
  • Un neutrón móvil realmente lento será capturado o escapará, pero no causará fisión.
Algunos años antes del descubrimiento de la fisión, la manera acostumbrada de retrasar los neutrones era hacerlos pasar a través de un material de peso atómico bajo, tal como un material hidrogenoso. El proceso de retraso o de moderación es simplemente una secuencia de colisiones elásticas entre las partículas de alta velocidad y las partículas prácticamente en reposo. Cuanto más parecidas sean las masas del neutrón y de la partícula golpeada, mayor es la pérdida de energía cinética por el neutrón. Por lo tanto los elementos ligeros son los más eficaces como moderadores de neutrones.
A unos cuantos físicos en los años 30 se les ocurrió la posibilidad de mezclar el uranio con un moderador: si fuesen mezclados correctamente, los neutrones de alta velocidad de la fisión podrían ser retrasados al rebotar en un moderador, con la velocidad correcta, para inducir la fisión en otros átomos de uranio. Las características de un buen moderador son: peso atómico bajo y baja o nula tendencia a absorber los neutrones. Los moderadores posibles son entonces el hidrógeno, helio, litio, berilio, boro y carbono. El litio y el boro absorben los neutrones fácilmente, así que se excluyen. El helio es difícil de utilizar porque es un gas y no forma ningún compuesto. La opción de moderadores estaría entonces entre el hidrógeno, deuterio, el berilio y el carbono. Fueron Enrico Fermi y Leó Szilárd quienes propusieron primero el uso de grafito (una forma de carbono) como moderador para una reacción en cadena. El deuterio es el mejor tecnológicamente (introducido en el agua pesada), sin embargo el grafito es mucho más económico.

Efectos de los isótopos

El uranio natural se compone de tres isótopos: 234U (0,006%), 235U (0,7%), y 238U (99,3%). La velocidad requerida para que se produzca un acontecimiento de fisión y no un acontecimiento de captura es diferente para cada isótopo.
El uranio-238 tiende a capturar neutrones de velocidad intermedia, creando 239U, que decae sin fisión a plutonio-239, que sí es fisible. Debido a su capacidad de producir material fisible, a este tipo de materiales se les suele llamar fértiles.
Los neutrones de alta velocidad (52.000 km/s), como los producidos en una reacción de fusión tritio-deuterio, pueden fisionar el uranio-238. Sin embargo los producidos por la fisión del uranio-235, de hasta 28.000 km/s, tienden a rebotar inelásticamente con él, lo cual los desacelera. En un reactor nuclear, el 238U tiende, pues, tanto a desacelerar los neutrones de alta velocidad provenientes de la fisión del uranio-235 como a capturarlos (con la consiguiente transmutación a plutonio-239) cuando su velocidad se modera.
El uranio-235 fisiona con una gama mucho más amplia de velocidades de neutrones que el 238U. Puesto que el uranio-238 afecta a muchos neutrones sin inducir la fisión, tenerlo en la mezcla es contraproducente para promover la fisión. De hecho, la probabilidad de la fisión del 235U con neutrones de velocidad alta puede ser lo suficientemente elevada como para hacer que el uso de un moderador sea innecesario una vez que se haya suprimido el 238U.
Sin embargo, el 235U está presente en el uranio natural en cantidades muy reducidas (una parte por cada 140). La diferencia relativamente pequeña en masa entre los dos isótopos hace, además, que su separación sea difícil. La posibilidad de separar 235U fue descubierta con bastante rapidez en el proyecto Manhattan, lo que tuvo gran importancia para su éxito.