Cuantos, Relatividad, Predecibilidad, Caos, Núcleo, Radiactividad, Fusión, Fisión
Cuanto
En física, el término cuanto o quantum (del latín Quantum, plural Quanta, que representa una cantidad de algo) denotaba en la física cuántica primitiva tanto el valor mínimo que puede tomar una determinada magnitud en un sistema físico, como la mínima variación posible de este parámetro al pasar de un estado discreto a otro. Se hablaba de que una determinada magnitud estaba cuantizada según el valor de cuanto. O sea que cuanto es una proporción hecha por la magnitud dada.
Un ejemplo del modo en que algunas cantidades relevantes de un sistema físico están cuantizadas lo encontramos en el caso de la carga eléctrica de un cuerpo, que sólo puede tomar un valor que sea un múltiplo entero de la carga del electrón. En la moderna teoría cuántica aunque se sigue hablando de cuantización el término cuanto ha caído en desuso. El hecho de que las magnitudes estén cuantizadas se considera ahora un hecho secundario y menos definitorio de las caracterísitcas esenciales de la teoría.
En informática, un cuanto de tiempo es un pequeño intervalo de tiempo que se asigna a un proceso para que ejecute sus instrucciones. El cuanto es determinado por el planificador de procesos utilizando algún algoritmo de planificación.
Historia [editar]El ejemplo clásico de un cuanto procede de la descripción de la naturaleza de la luz, como la energía de la luz está cuantizada, la mínima cantidad posible de energía que puede transportar la luz sería la que proporciona un fotón (nunca se podrá transportar medio fotón). Esta fue una conclusión fundamental obtenida por Max Planck y Albert Einstein en sus descripciones de la ley de emisión de un cuerpo negro y del efecto fotoeléctrico. Otra magnitud cuantizada en física es la carga eléctrica, cuya unidad mínima es la carga del electrón, aunque por ser tan pequeña normalmente se use como una magnitud continua. La teoría de la física que describe los sistemas cuantizados se denomina mecánica cuántica. Otras magnitudes menos intuitivas también aparecen cuantizadas como el momento angular de un electrón o el spín de una partícula subatómica.
RELATIVIDAD
>> RELATIVIDAD GENERAL
La relatividad general fue publicada por Einstein en 1915, y fue presentada como conferencia en la Academia de Ciencias Prusiana el 25 de noviembre. La teoría generaliza el principio de relatividad de Einstein para un observador arbitrario. Esto implica que las ecuaciones de la teoría deben tener una forma de covariancia más general que la covariancia de Lorentz usada en la teoría de la relatividad especial. Además de esto, la teoría de la relatividad general propone que la propia geometría del espacio-tiempo se ve afectada por la presencia de materia, de lo cual resulta una teoría relativista del campo gravitatorio. De hecho la teoría de la relatividad general predice que el espacio-tiempo no será plano en presencia de materia y que la curvatura del espacio-tiempo será percibida como un campo gravitatorio.
La radiactividad puede ser:
Radiactividad natural
Radiactividad artificial
La fusión es un proceso físico que consiste en el cambio de estado de la materia del sólido al líquido por la acción del calor. Cuando se calienta un sólido, se transfiere calor a los átomos, los cuales vibran con más rapidez a medida que ganan energía
.El proceso de fusión de la materia es el mismo que el de fundición, pero este último término se aplica generalmente a sustancias como los metales, que se licúan a altas temperaturas, y a sólidos cristalinos. Cuando una sustancia se encuentra a su temperatura de fusión, el calor que se suministra es absorbido por la sustancia durante su transformación, y no produce variación de su temperatura. Este calor adicional se conoce como calor de fusión. El término fusión se aplica también al proceso de calentar una mezcla de sólidos para obtener una disolución líquida simple.
En física nuclear, la fisión es una reacción nuclear, lo que significa que tiene lugar en el núcleoatómico. La fisión ocurre cuando un núcleo pesado se divide en dos o más núcleos pequeños, además de algunos subproductos como neutrones libres, fotones (generalmente rayos gamma) y otros fragmentos del núcleo como partículas alfa (núcleos de helio) y beta (electrones y positrones de alta energía).
La fisión de núcleos pesados es un proceso exotérmico lo que supone que se liberan cantidades sustanciales de energía. El proceso genera mucha más energía que la liberada en las reacciones químicas convencionales, en las que están implicadas las cortezas electrónicas; la energía se emite, tanto en forma de radiación gamma como de energía cinética de los fragmentos de la fisión, que calentarán la materia que se encuentre alrededor del espacio donde se produzca la fisión.
La fisión se puede inducir por varios métodos, incluyendo el bombardeo del núcleo de un átomo fisionable con una partícula de la energía correcta; la otra partícula es generalmente un neutrón libre. Este neutrón libre es absorbido por el núcleo, haciéndolo inestable (a modo de ejemplo, se podría pensar en la inestabilidad de una pirámide de naranjas en el supermercado, al lanzarse una naranja contra ella a la velocidad correcta). El núcleo inestable entonces se partirá en dos o más pedazos: los productos de la fisión que incluyen dos núcleos más pequeños, hasta siete neutrones libres (con una media de dos y medio por reacción), y algunos fotones.
Los núcleos atómicos lanzados como productos de la fisión pueden ser varios elementos químicos. Los elementos que se producen son resultado del azar, pero estadísticamente el resultado más probable es encontrar núcleos con la mitad de protones y neutrones del átomo fisionado original.
Los productos de la fisión son generalmente altamente radiactivos, no son isótopos estables; estos isótopos entonces decaen, mediante cadenas de desintegración.
Aunque con muy baja probabilidad, en los experimentos se han detectado eventos de fisión fría, es decir fragmentos con tan baja energía de excitación que no emiten neutrones. Sin embargo, aún en esos casos, se observa la rotura de pares de nucleones, la que se manifiesta como igual probabilidad de obtener fragmentos con número par o impar de nucleones. Los resultados de estos experimentos permiten comprender mejor la dinámica de la fisión nuclear hasta el punto de escisión, es decir, antes de que se desvanezca la fuerza nuclear entre los fragmentos.
En física, el término cuanto o quantum (del latín Quantum, plural Quanta, que representa una cantidad de algo) denotaba en la física cuántica primitiva tanto el valor mínimo que puede tomar una determinada magnitud en un sistema físico, como la mínima variación posible de este parámetro al pasar de un estado discreto a otro. Se hablaba de que una determinada magnitud estaba cuantizada según el valor de cuanto. O sea que cuanto es una proporción hecha por la magnitud dada.
Un ejemplo del modo en que algunas cantidades relevantes de un sistema físico están cuantizadas lo encontramos en el caso de la carga eléctrica de un cuerpo, que sólo puede tomar un valor que sea un múltiplo entero de la carga del electrón. En la moderna teoría cuántica aunque se sigue hablando de cuantización el término cuanto ha caído en desuso. El hecho de que las magnitudes estén cuantizadas se considera ahora un hecho secundario y menos definitorio de las caracterísitcas esenciales de la teoría.
En informática, un cuanto de tiempo es un pequeño intervalo de tiempo que se asigna a un proceso para que ejecute sus instrucciones. El cuanto es determinado por el planificador de procesos utilizando algún algoritmo de planificación.
Historia [editar]El ejemplo clásico de un cuanto procede de la descripción de la naturaleza de la luz, como la energía de la luz está cuantizada, la mínima cantidad posible de energía que puede transportar la luz sería la que proporciona un fotón (nunca se podrá transportar medio fotón). Esta fue una conclusión fundamental obtenida por Max Planck y Albert Einstein en sus descripciones de la ley de emisión de un cuerpo negro y del efecto fotoeléctrico. Otra magnitud cuantizada en física es la carga eléctrica, cuya unidad mínima es la carga del electrón, aunque por ser tan pequeña normalmente se use como una magnitud continua. La teoría de la física que describe los sistemas cuantizados se denomina mecánica cuántica. Otras magnitudes menos intuitivas también aparecen cuantizadas como el momento angular de un electrón o el spín de una partícula subatómica.
RELATIVIDAD
La teoría de la relatividad está compuesta a grandes rasgos por dos grandes teorías (la de la relatividad especial y la de la relatividad general) formuladas por Albert Einstein a principios del siglo XX, que pretendían resolver la incompatibilidad existente entre la mecánica newtoniana y el electromagnetismo.
La primera teoría, publicada en 1905, trata de la física del movimiento de los cuerpos en ausencia de fuerzas gravitatorias, en el que se hacían compatibles las ecuaciones de Maxwell del electromagnetismo con una reformulación de las leyes del movimiento. La segunda, de 1915, es una teoría de la gravedad que reemplaza a la gravedad newtoniana pero coincide numéricamente con ella en campos gravitatorios débiles. La teoría general se reduce a la teoría especial en ausencia de campos gravitatorios.
No fue hasta el 7 de marzo de 2010 cuando fueron mostrados públicamente los manuscritos originales de Einstein por parte de la Academia Israelí de Ciencias, aunque la teoría se había publicado en 1905. El manuscrito tiene 46 páginas de textos y fórmulas matemáticas redactadas a mano, y fue donado por Einstein a la Universidad Hebrea de Jerusalén en 1925 con motivo de su
>>RELATIVIDAD ESPECIAL
La teoría de la relatividad especial, también llamada teoría de la relatividad restringida, publicada por Albert Einstein en 1905, describe la física del movimiento en el marco de un espacio-tiempo plano, describe correctamente el movimiento de los cuerpos incluso a grandes velocidades y sus interacciones electromagnéticas y se usa básicamente para estudiar sistemas de referencia inerciales. Estos conceptos fueron presentados anteriormente por Poincaré y Lorentz, que son considerados como originadores de la teoría. Si bien la teoría resolvía un buen número de problemas del electromagnetismo y daba una explicación del experimento de Michelson-Morley, esta teoría no proporciona una descripción relativista del campo gravitatorio.
Tras la publicación del artículo de Einstein, la nueva teoría de la relatividad especial fue aceptada en unos pocos años por la práctica totalidad de los físicos y los matemáticos, de hecho personas como Poincaré o Lorentz habían estado muy cerca de llegar al mismo resultado que Einstein. La forma geométrica definitiva de la teoría se debe a Hermann Minkowski, antiguo profesor de Einstein en la Politécnica de Zürich; acuñó el término "espacio-tiempo" (Raumzeit) y le dio la forma matemática adecuada.4 El espacio-tiempo de Minkowski es una variedad tetradimensional en la que se entrelazaban de una manera insoluble las tres dimensiones espaciales y el tiempo. En este espacio-tiempo de Minkowski, el movimiento de una partícula se representa mediante su línea de universo (Weltlinie), una curva cuyos puntos vienen determinados por cuatro variables distintas: las tres dimensiones espaciales (,,) y el tiempo (). El nuevo esquema de Minkowski obligó a reinterpretar los conceptos de la métrica existentes hasta entonces. El concepto tridimensional de punto fue sustituido por el de evento. La magnitud de distancia se reemplaza por la magnitud de intervalo.

Debe notarse que el matemático alemán David Hilbert escribió e hizo públicas las ecuaciones de la covarianza antes que Einstein. Ello resultó en no pocas acusaciones de plagio contra Einstein, pero probablemente sea más, porque es una teoría (o perspectiva) geométrica. La misma postula que la presencia de masa o energía «curva» al espacio-tiempo, y esta curvatura afecta la trayectoria de los cuerpos móviles e incluso la trayectoria de la luz.
Einstein expresó el propósito de la teoría de la relatividad general para aplicar plenamente el programa de Ernst Mach de la relativización de todos los efectos de inercia, incluso añadiendo la llamada constante cosmológica a sus ecuaciones de campo5 para este propósito. Este punto de contacto real de la influencia de Ernst Mach fue claramente identificado en 1918, cuando Einstein distingue lo que él bautizó como el principio de Mach (los efectos inerciales se derivan de la interacción de los cuerpos) del principio de la relatividad general, que se interpreta ahora como el principio de covarianza general.
PREDECIBILIDAD
Predicción tiene por etimología el latín pre+dicere, esto es, “decir antes”. Una vez
Sabido el significado general, conviene irlo afinando para ajustarlo a los usos que la
práctica demanda. Por ello, no se trata sólo de “decir antes”, sino de “decirlo bien”, o
sea, acertar; también, hacerlo con un plazo suficiente para poder tomar las medidas que
se crean oportunas, y además tener una idea de hasta cuándo es posible predecir el
futuro con cierto éxito.
Cuando se efectúa una predicción, se está estimando un valor futuro de alguna variable
que se considere representativa de una cierta situación. Por ejemplo, en cuestiones
climáticas podría tratarse de temperaturas medias de la atmósfera en determinados
niveles, concentraciones de gases, precipitación, etc. También se pueden hacer
predicciones espaciales, como la ubicación, movilidad e intensidad local de fenómenos
extremos, caso por ejemplo de los huracanes y tormentas tropicales (Fernández &
Pacheco 2000, Pacheco & Hayek 1997). Normalmente ambos tipos de predicción están
ligados y se realizan a la vez, como lo prueban los productos que ofrecen las grandes
agencias e institutos de Meteorología y Climatología.
Las estimaciones realizadas para predecir se denominan predictores. Pueden construirse
de modos muy diversos, de algunos de los cuales nos ocuparemos en este trabajo, y su
bondad se mide -como es natural- por el porcentaje de aciertos en situaciones del pasado
predichas con igual técnica. Las bases de registros disponibles hoy día permiten realizar
experimentos de predecibilidad con datos pasados y simular situaciones ya conocidas
mediante diversas técnicas, estudiando y comparando los resultados. Es claro que para
estos experimentos la tercera propiedad de la predicción no tiene demasiado interés,
pues la predicción -o mejor, simulación- del pasado no incita a la prisa.
Prácticamente todos los registros interesantes en Meteorología y Climatología se
presentan en forma de series temporales, esto es, los datos están ordenados de forma
correlativa respecto del tiempo. En fórmulas, se trata de trabajar con conjuntos de
valores de la forma {X t
t = 1,2,..., N}.
En esencia, el análisis de datos temporales se reduce a encontrar pautas o patrones que
se repiten más o menos exactamente a lo largo de ellas. Para las series meteorológicas,
por ejemplo, existe una pauta periódica de un año que se corresponde con el periodo de
traslación de la Tierra alrededor del Sol. Para datos tomados a intervalos muy cortos de
tiempo es posible distinguir la pauta diaria de día/noche asociada a la rotación de la
Tierra, y varias más. Todas estas pautas pueden ser sustraídas de la señal original
dejando un resto o residuo como resultado de este primer análisis:
Caos
Teoría del caos es la denominación popular de la rama de las matemáticas, la física y otras ciencias que trata ciertos tipos de sistemas dinámicos muy sensibles a las variaciones en las condiciones iniciales. Pequeñas variaciones en dichas condiciones iniciales pueden implicar grandes diferencias en el comportamiento futuro; complicando la predicción a largo plazo. Esto sucede aunque estos sistemas son en rigor determinísticos, es decir; su comportamiento puede ser completamente determinado conociendo sus condiciones iniciales
Popularmente, se le llama Teoría del Caos a la rama de las ciencias exactas, principalmente física y matemáticas, que trata sobre comportamientos impredecibles en sistemas dinámicos (sistemas complejos que cambian o evolucionan con el estado del tiempo). La Teoría del Caos plantea que el mundo no sigue un patrón fijo y previsible, sino que se comporta de maneracaótica y que sus procesos y comportamiento dependen, en gran manera, de circunstancias inciertas. Esto plantea que una pequeña variación en el sistema o en un punto del mismo puede provocar que en un lapso de tiempo a futuro éste presente un comportamiento completamente diferente e impredecible.
No es propiamente una teoría, sino un gran campo de investigación abierto que abarca numerosas líneas de pensamiento.
Núcleo atómico
El núcleo atómico es la parte central de un átomo, tiene carga positiva, y concentra más del 99,9% de la masa total del átomo.
Está formado por protones y neutrones (denominados nucleones) que se mantienen unidos por medio de la interacción nuclear fuerte, la cual permite que el núcleo sea estable, a pesar de que los protones se repelen entre sí (como los polos iguales de dos imanes). La cantidad de protones en el núcleo (número atómico), determina el elemento químico al que pertenece. Los núcleos atómicos no necesariamente tienen el mismo número de neutrones, ya que átomos de un mismo elemento pueden tener masas diferentes, es decir son isótopos del elemento.
La existencia del núcleo atómico fue deducida del experimento de Rutherford, donde se bombardeó una lámina fina de oro con partículas alfa, que son núcleos atómicos de helio emitidos por rocas radiactivas. La mayoría de esas partículas traspasaban la lámina, pero algunas rebotaban, lo cual demostró la existencia de un minúsculo núcleo atómico.
El descubrimiento de los electrones fue la primera indicación de la estructura interna de los átomos. A comienzos del siglo XX el modelo aceptado del átomo era el de JJ Thomson "pudín de pasas" modelo en el cual el átomo era una gran bola de carga positiva con los pequeños electrones cargados negativamente incrustado dentro de la misma. Por aquel entonces, los físicos habían descubierto también tres tipos de radiaciones procedentes de los átomos : alfa, beta y radiación gamma. Los experimentos de 1911 realizados por Lise Meitner y Otto Hahn, y por James Chadwick en 1914 mostraron que el espectro de decaimiento beta es continuo y no discreto. Es decir, los electrones son expulsados del átomo con una gama de energías, en vez de las cantidades discretas de energía que se observa en rayos gamma y decaimiento alfa. Esto parecía indicar que la energía no se conservaba en estos decaimiento. Posteriormente se descubrió que la energía sí se conserva, con el descubrimiento de los neutrinos.
En 1906 Ernest Rutherford publicó "El retraso de la partícula alfa del radio cuando atraviesa la materia", en Philosophical Magazine (12, p. 134-46). Hans Geiger amplió este trabajo en una comunicación a la Royal Society (Proc. Roy. Soc. 17 de julio de 1908) con experimentos y Rutherford se había hecho pasar aire a través de las partículas α, papel de aluminio y papel de aluminio dorado. Geiger y Marsden publicaron trabajos adicionales en 1909 (Proc. Roy. Soc. A82 p. 495-500) y ampliaron aún más el trabajo en la publicación de 1910 por Geiger (Proc. Roy. Soc. Febrero 1, 1910). En 1911-2 Rutherford explicó ante la Royal Society los experimentos y propuso la nueva teoría del núcleo atómico.
Por esas mismas fechas (1909) Ernest Rutherford realizó un experimento en el que Hans Geiger y Ernest Marsden, bajo su supervisión dispararon partículas alfa (núcleos de helio) en una delgada lámina de oro. El modelo atómico de Thomson predecía que la de las partículas alfa debían salir de la lámina con pequeñas desviaciones de sus trayectorias están. Sin embargo, descubrió que algunas partículas se dispersan a grandes ángulos, e incluso completamente hacia atrás en algunos casos. Este descubrimiento en 1911, llevó al modelo atómico de Rutherford, en que el átomo está constituido por protones y electrones. Así, el átomo del nitrógeno-14 estaría constituido por 14 protones y 7 electrones.
El modelo de Rutherford funcionó bastante bien hasta que los estudios llevadas a cabo por Franco Rasetti, en el Institute of Technology de California en 1929. En 1925 se sabía que los protones y electrones tiene un espín de 1 / 2, y en el modelo de Rutherford nitrógeno - 14 los 14 protones y seis de los electrones deberían cancelar sus contribuciones al espín total, estimándose un espín total de 1 / 2. Rasetti descubierto, sin embargo, que el nitrógeno - 14 tiene un espín total unidad.
En 1930 Wolfgang Pauli no pudo asistir a una reunión en Tubinga, y en su lugar envió una carta famoso con la clásica introducción "Queridos Señoras y señores radiactivos ". En su carta Pauli sugirió que tal vez existía una tercera partícula en el núcleo, que la bautizó con el nombre de "neutrones". Sugirió que era más ligero que un electrón y sin carga eléctrica, y que no interactuaba fácilmente con la materia (y por eso todavía no se le había detectado). Esta hipótesis permitía resolver tanto el problema de la conservación de la energía en la desintegración beta y el espín de nitrógeno - 14, la primera porque los neutrones llevaban la energía no detectada y el segundo porque un electrón extra se acoplaba con el electrón sobrante en el núcleo de nitrógeno - 14 para proporcionar un espín de 1. Enrico Fermi redenominó en 1931 los neutrones de Pauli como neutrinos (en italiano pequeño neutral) y unos treinta años después se demostró finalmente que un neutrinos realmente se emiten en el decaimiento beta.
En 1932 James Chadwick se dio cuenta de que la radiación que de que había sido observado por Walther Bothe, Herbert L. Becker, Irène y Jean Frédéric Joliot-Curie era en realidad debido a una partículas que él llamó el neutrón. En el mismo año Dimitri Ivanenko sugirió que los neutrones eran, de hecho partículas de espín 1 / 2, que existían en el núcleo y que no existen electrones en el mismo, y Francis Perrin sugirió que los neutrinos son partículas nucleares, que se crean durante el decaimiento beta. Fermi publicó 1934 una teoría de los neutrinos con una sólida base teórica. En el mismo año Hideki Yukawa propuso la primera teoría importante de la fuerza para explicar la forma en que el núcleo mantiene juntos
RADIOACTIVIDAD
La radiactividad (o radioactividad) puede considerarse un fenómeno físico natural por el cual algunos cuerpos o elementos químicos, llamados radiactivos, emiten radiaciones que tienen la propiedad de impresionar placas fotográficas, ionizar gases, producir fluorescencia, atravesar cuerpos opacos a la luz ordinaria, etc.
Debido a esa capacidad, se les suele denominar radiaciones ionizantes (en contraste con las no ionizantes).
Las radiaciones emitidas pueden ser electromagnéticas, en forma de rayos X o rayos gamma, o bien corpusculares, como pueden ser núcleos de helio, electrones o positrones, protones u otras. En resumen, es un fenómeno que ocurre en los núcleos de ciertos elementos, que son capaces de transformarse en núcleos de átomos de otros elementos.
Debido a esa capacidad, se les suele denominar radiaciones ionizantes (en contraste con las no ionizantes).
Las radiaciones emitidas pueden ser electromagnéticas, en forma de rayos X o rayos gamma, o bien corpusculares, como pueden ser núcleos de helio, electrones o positrones, protones u otras. En resumen, es un fenómeno que ocurre en los núcleos de ciertos elementos, que son capaces de transformarse en núcleos de átomos de otros elementos.
La radiactividad puede ser:
- Natural: manifestada por los isótopos que se encuentran en la naturaleza.
- Artificial o inducida: manifestada por los radioisótopos producidos en transformaciones artificiales.
En 1896 Henri Becquerel descubrió que ciertas sales de uranio emiten radiaciones espontáneamente, al observar que velaban las placas fotográficas envueltas en papel negro. Hizo ensayos con el mineral en caliente, en frío, pulverizado, disuelto en ácidos y la intensidad de la misteriosa radiación era siempre la misma. Por tanto, esta nueva propiedad de la materia, que recibió el nombre de radiactividad, no dependía de la forma física o química en la que se encontraban los átomos del cuerpo radiactivo, sino que era una propiedad que radicaba en el interior mismo del átomo.
Radiactividad artificial
La radiactividad artificial, también llamada radiactividad inducida, se produce cuando se bombardean ciertos núcleos estables con partículas apropiadas. Si la energía de estas partículas tiene un valor adecuado, penetran el núcleo bombardeado y forman un nuevo núcleo que, en caso de ser inestable, se desintegra después radiactivamente. Fue descubierta por los esposos Jean Frédéric Joliot-Curie eIrène Joliot-Curie, bombardeando núcleos de boro y dealuminio con partículas alfa. Observaron que las sustancias bombardeadas emitían radiaciones después de retirar el cuerpo radiactivo emisor de las partículas de bombardeo.

Fusión
La fusión es un proceso físico que consiste en el cambio de estado de la materia del sólido al líquido por la acción del calor. Cuando se calienta un sólido, se transfiere calor a los átomos, los cuales vibran con más rapidez a medida que ganan energía
.El proceso de fusión de la materia es el mismo que el de fundición, pero este último término se aplica generalmente a sustancias como los metales, que se licúan a altas temperaturas, y a sólidos cristalinos. Cuando una sustancia se encuentra a su temperatura de fusión, el calor que se suministra es absorbido por la sustancia durante su transformación, y no produce variación de su temperatura. Este calor adicional se conoce como calor de fusión. El término fusión se aplica también al proceso de calentar una mezcla de sólidos para obtener una disolución líquida simple.
Tabla con los puntos de fusión de algunas sustancias
Cuerpos puros | Punto de fusión/solidificación (°C) | Punto de ebullición (°C) |
---|---|---|
H2O | 0 °C | 100 °C |
Ciclohexano | 6 °C | 81 °C |
Mercurio | –39 °C | 357 °C |
Hierro | 1538 °C | 2862 °C |
Oxígeno | –218 ºC | –183 ºC |
Etanol | –114 ºC | 78,37 ºC |
Fisión
La fisión de núcleos pesados es un proceso exotérmico lo que supone que se liberan cantidades sustanciales de energía. El proceso genera mucha más energía que la liberada en las reacciones químicas convencionales, en las que están implicadas las cortezas electrónicas; la energía se emite, tanto en forma de radiación gamma como de energía cinética de los fragmentos de la fisión, que calentarán la materia que se encuentre alrededor del espacio donde se produzca la fisión.
La fisión se puede inducir por varios métodos, incluyendo el bombardeo del núcleo de un átomo fisionable con una partícula de la energía correcta; la otra partícula es generalmente un neutrón libre. Este neutrón libre es absorbido por el núcleo, haciéndolo inestable (a modo de ejemplo, se podría pensar en la inestabilidad de una pirámide de naranjas en el supermercado, al lanzarse una naranja contra ella a la velocidad correcta). El núcleo inestable entonces se partirá en dos o más pedazos: los productos de la fisión que incluyen dos núcleos más pequeños, hasta siete neutrones libres (con una media de dos y medio por reacción), y algunos fotones.
Los núcleos atómicos lanzados como productos de la fisión pueden ser varios elementos químicos. Los elementos que se producen son resultado del azar, pero estadísticamente el resultado más probable es encontrar núcleos con la mitad de protones y neutrones del átomo fisionado original.
Los productos de la fisión son generalmente altamente radiactivos, no son isótopos estables; estos isótopos entonces decaen, mediante cadenas de desintegración.
***Fisión fría y rotura de pares de nucleones ***
La mayor parte de las investigaciones sobre fisión nuclear se basan en la distribución de masa y energía cinética de los fragmentos de fisión. Sin embargo, esta distribución es perturbada por la emisión de neutrones por parte de los fragmentos antes de llegar a los detectores.Aunque con muy baja probabilidad, en los experimentos se han detectado eventos de fisión fría, es decir fragmentos con tan baja energía de excitación que no emiten neutrones. Sin embargo, aún en esos casos, se observa la rotura de pares de nucleones, la que se manifiesta como igual probabilidad de obtener fragmentos con número par o impar de nucleones. Los resultados de estos experimentos permiten comprender mejor la dinámica de la fisión nuclear hasta el punto de escisión, es decir, antes de que se desvanezca la fuerza nuclear entre los fragmentos.
Induciendo la fisión
La fisión nuclear de los átomos fue descubierta en 1938 por los investigadores Otto Hahn y Fritz Strassmann a partir del trabajo desarrollado por el propio Hahn junto a Lise Meitnerdurante años anteriores. Por este descubrimiento recibió en 1944 el Premio Nobel de química. El estudio de la fisión nuclear se considera parte de los campos de la química nuclear y la física.
- Aunque la fisión es prácticamente la desintegración de materia radiactiva, comenzada a menudo de la manera más fácil posible (inducido), que es la absorción de un neutrón libre, puede también ser inducida lanzando otras cosas en un núcleo fisionable. Estas otras cosas pueden incluir protones, otros núcleos, o aún los fotones de gran energía en cantidades muy altas (porciones de rayos gamma).
- Muy rara vez, un núcleo fisionable experimentará la fisión nuclear espontánea sin un neutrón entrante.
- Cuanto más pesado es un elemento más fácil es inducir su fisión. La fisión en cualquier elemento más pesado que el hierro produce energía, y la fisión en cualquier elemento más liviano que el hierro requiere energía. Lo contrario también es verdad en las reacciones de fusión nuclear (la fusión de los elementos más livianos que el hierro produce energía y la fusión de los elementos más pesados que el hierro requiere energía).
- Los elementos más frecuentemente usados para producir la fisión nuclear son el uranio y el plutonio. El uranio es el elemento natural más pesado; el plutonio experimenta desintegraciones espontáneas y tiene un período de vida limitado. Así pues, aunque otros elementos pueden ser utilizados, estos tienen la mejor combinación de abundancia y facilidad de fisión.
Comentarios
Publicar un comentario