Física, las 4 fuerzas que rigen el universo de Jordi Pereyra, el de Ciencia de sofa Flashcards

1
Q

Explica el experimento mental de Galileo con el que demostraba que todos los cuerpos, independientemente de su masa, caían con la misma aceleración

A

A pesar de que según la creencia popular se piensa que Galileo lanzó desde la torre de Pisa varios objetos de distinto peso y comprobó que tardaban lo mismo en caer. Sin embargo, esta historia apareció sólo en su biografía (escrito por uno de sus alumnos), pero no en sus propios escritos. Lo que sí aparecía era un experimento mental con el que demostraba que todos los cuerpos, en un mismo medio e independientemente de su masa, caían a la misma velocidad. Planteaba que dejáramos caer dos objetos, de distinto peso, unidos por una cuerda. Si suponemos que es cierto que los cuerpos caen más rápido en función de su peso, entonces el objeto pesado caería más rápido que el ligero, lo que tensaría la cuerda y haría al objeto pesado caer más lento, sin embargo, al mismo tiempo, todo el conjunto de los dos objetos tiene mayor peso, por lo que debería de caer más rápido que el objeto pesado. Por esta contradicción Galileo dedujo que la suposición inicial era falsa y que todos los cuerpos caerían igual de rápido. Sin embargo, tras ver la importancia de la viscosidad y la densidad de los medios (además de la forma de los objetos y su densidad), rectificó y dijo que esto sólo se cumplía en el vacío.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Explica la historia del pulsilogium

A

Una de las propiedades que Galileo descubrió de los péndulos era que el periodo de un péndulo era constante, independientemente de desde donde empezara a moverse (ya que esto sólo influye en la amplitud). Compartiría este descubrimiento con su amigo Santorio Santorio y este crearía el pulsilogium. Este aparato consistía de un péndulo cuya longitud podía regular facilmente lo que le permitía medir breves periodos de tiempo de forma precisa, con lo que medía el pulso de sus pacientes (iba soltando el péndulo variando la longitud de este hasta que coincidía con el pulso del paciente).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Explica el funcionamiento de los relojes mecánicos antiguos y como mejoraron tras el descubrimiento de los péndulos

A

Antes de los descubrimientos de Galileo, los relojes más precisos eran los relojes mecánicos, estos relojes dependían de un peso enrollado a un eje que movía los engranajes del reloj. Este peso caía lentamente gracias a otros mecanismo y movía el eje, sin embargo a lo largo del día la caída se aceleraba, además de otros problemas como la suciedad acumulada o el ligero agrandamiento o encongimiento de los engranajes por la temperatura. Todo esto solía llevar a que se generara un desfase diario de 15 minutos. Con la implementación de los péndulos en los relojes (por parte de Huygens) se controlaba muy mejor el ritmo al que caía el peso y al que giraban los engranajes, resultando en un desfase diario de 15 segundos.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Explica la evolución del funcionamiento de los sistemas antiguos para saber la posición

A

La posición en la superficie de la Tierra queda definida por dos magnitudes: la latitud, que mide la posición con respecto al ecuador del planeta; y la longitud, la distancia con respecto al meridiano de Greenwich. La latitud es relativamente fácil de calcular, ya que los marineros contaba con tablas que daban la inclinación del camino del Sol respecto al horizonte cada día del año, por lo que al hacer comparaciones podían deducir que tan cerca o lejos de los polos estaban, además de que también se podían guiar por las estrellas.
Calcular la longitud era bastante más complicado, pero importante, sobretodo en el mar, de hecho los reyes Felipe II y Felipe III ofrecieron recompensas (en 1567 y 1598, respectivamente) a quien descubriera un método para ello. Galileo propuso un método basado en la observación de las lunas de Júpiter (que el mismo descubrió). Vemos las orbitas de estas lunas de perfil, así que siempre las vemos en la misma línea. El método consistía en utilizar un reloj de péndulo para medir cuanto tiempo tardaba cada luna en completar su órbita para poder predecir los momentos siguientes en los que lo harían en cada lugar de la Tierra. Después se puede comparar estos datos con los que se observen y podemos calcular cuanta distancia se han desplazado. Sin embargo esta idea fue inicialmente ignorada, no fue hasta que Giovanni Cassini mejoró la precisión de las tablas de Galileo que se empezó a poner en práctica. Fue tanta la precisión que permitió hacer un calculo muy preciso del diámetro de la Tierra (12.554 kilometros, siendo en realidad 12.756 kilometros) y crear mapas mucho más fieles a la realidad. Sin embargo, a pesar de los esfuerzos de Huygens, inicialmente este método no era efectivo en el mar, ya que el movimiento de las olas afectaban al movimiento de los péndulos (generaban un desjuste de casi 1º, lo que podía llegar a suponer 110 kilometros de error), no sería hasta la invención de los cronómetros marinos, basados en la descompresión de muelles, que pudo ser aplicable.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Explica como se descubrió que la Tierra no es una esfera perfecta

A

Cuando el astrónomo francés Jean Richer fue enviado a la Guayaba francesa (parte de Suramérica cercana al ecuador) se trajo consigo un reloj péndulo muy preciso. Sin embargo notó que cada día este reloj iba acumulando un retraso de unos 2,5 minutos. Inicialmente no se le dió importancia, sin embaro años después Newton hipotetizó que la razón por la que se acumulaba dicho retraso era que, ya que el periodo de un péndulo sólo depende de la longitud de este y de la gravedad, esa zona estaría más alejada del centro de la Tierra que Francia. Esto le llevó a proponer que la Tierra no era una esfera perfecta, sino una esfera achatada por los polos. Newton hasta llegó a calcular que el diámetro polar de la Tierra debía de ser un 0,5% más pequeño que el ecuatorial (en realidad es un 0,3%). Para comprobar su teoría, la académie Royale des Sciences organizó dos expediciones en las que se mediría la distancia equivalente a tres grados de la Tierra, una de ellas en Laponia y otra en Perú. El resultado fue que la expedición de Perú (que estaba más cerca del ecuador que Laponia) midió una distancia menor que la expedición de Laponia, lo que confirmaba la hipótesis de Newton.
La explicación a que el ecuador de la Tierra tenga un diámetro mayor es que es la parte de la Tierra que sufre mayor fuerza centrífuga debido a la rotación de la Tierra, ya que respecto al eje de giro de la Tierra, el ecuador es la circunferencia más amplia que podemos formar.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Explica la primera demostración de la rotación de la Tierra

A

Ya en el siglo XIX la gran mayoría de personas creían en el heliocentrismo (aunque esta idea no era nueva, ya se había propuesto en los siglos IV y III a.C. por Heráclides de Ponto y Aristarco de Samos y la volvería a proponer Copérnico en el siglo XVI), por lo que pensaban que la Tierra debía de girar sobre sí misma para que se diera el paso del día a la noche y viceversa. Sin embargo aún faltaba una demostración. Esta demostración la haría Jean Bernard Léon Foucalt quien se dió cuenta que los péndulos siempre se movían en un mismo plano. Por esta razón construyó en 1851 un péndulo de 67 metros en el Panteón de París. Este péndulo estaba unida a la estructura mediante una junta universal, lo que le permitía al péndulo oscilar independiente a la estructura, es decir que aunque la estructura girase el péndulo no seguiría este giro. Lo que se observó es que el movimiento del péndulo iba girando levemente hasta el punto de al cabo de 8 horas había girado 90º y al cabo de 32 había dado una vuelta completa. La explicación es que el péndulo giraba independiente mente de la Tierra, es decir que desde el espacio sólo habríamos visto girar la Tierra, pero no el péndulo.
La explicación de que el péndulo no tardara 24 horas en dar una vuelta completa era que el plano de movimiento del péndulo no es paralelo al eje de rotación de la Tierra, sólo en los polos el péndulo tarda 24 horas en dar una vuelta completa y este tiempo va aumentando a medida que nos acercamos al ecuador, donde el péndulo no gira (ya que la dirección de giro es perpendicular al plano de movimiento). Estos péndulos se conocen como péndulos de Foucault y están repartidos por todo el mundo, normalmente con pequeños cilindros alrededor que el péndulo va derribando. Podemos calcular fácilmente el tiempo que tarda un péndulo de Foucailt en dar una vuelta completa si dividimos 24 horas con el seno del ángulo del punto de la Tierra en el que estamos con respecto al ecuador (la latitud).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Explica el proceso de puesta en órbita de satélites

A

Para poner en órbita un satélite es necesario lanzarlo con una velocidad vertical muy alta, de manera que pueda superar rapidamente las partes más densas de la atmósfera terrestre (la altura mínima a la que debe llegar son los 160 kilómetros, más abajo de ello el rozamiento con la atmósfera hace perder demasiada velocidad a los ssatélites) para después pasar a tomar una dirección más horizontal con el objetivo de ganar suficiente velocidad como para mantenerse en órbita (La explicación numérica está aquí), la mayoría de satélites que están en órbita se encuentra en órbita baja terrestre (entre los 160 y 2000 kilómetros), para lo que deben de haber sido lanzados a unas velocidades de entre 6,9km/s y 7,8km/s, si no contáramos con el rozamiento del aire. Sin embargo, debido al rozamiento con la atmósfera que aún existe a esas alturas estos satélites van perdiendo velocidad y con ello altura, por lo que es necesario que reciban porpulsiones para mantenerse en órbita, por ejemplo la estación espacial internacional debe de propulsarse cada pocos meses, haciendo su altura fluctúe entre los 370 y 460 kilómetros de altura.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Explica la velocidad de escape

A

La velocidad de escape es la velocidad que necesita un cuerpo para poder escapar de la interacción gravitatoria de un cuerpo. Normalmente se da la velocidad de escape desde la superficie, en el caso de la Tierra esta es de 11,2 km/s, la de Marte 5km/s y de Júpiter 56,9 km/s. La velocidad de escape desde la superficie del Sol es de 617,5 km/s, sin embargo, debido a la distancia que hay entre el Sol y la Tierra la velocidad de escape del sistema solar desde la Tierra es de 42,1 km/s. La velocidad de escape de la Vía Láctea es de 544km/s, sin embargo, aunque consigamos escapar de la interacción gravitatoria de nuestra galaxia sólo hay 54 galaxias que comparten el mismo centro de gravedad, este grupo se conoce como el Grupo Local y tiene un diámetro de 10 millos de años luz. Las galaxias fuera de nuestro Grupo Local no sólo están más alejadas de la Tierra sino que también se alejan cada vez más de nuestro Grupo local debido a la expansión del universo.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Explica las complicaciones del viaje entre planetas y como se solventan

A

El problema principal de lanzar un cohete al espacio es el uso de combustible. Hace falta mucho combustible para lanzar un cohete al espacio y este mismo combustible también pesa, por lo que hace falta aún más combustible y así sucesivamente, sin embargo esto no llega hasta el infinito ya que el combustible usado va siendo expulsado, por lo que el cohete va perdiendo peso, al igual que se van soltando las partes del cohete que transportaban este combustible, aún así la mayor parte del cohete acaba siendo el combustible, un 90% de la masa total, además un 6% restante era la estructura que contenía el combustible, lo que sólo deja un 4% que es el satélite. Esto significa que la cantidad de combustible que podemos llevar en ese 4% es muy limitada, por lo que el satélite no puede depender en exclusiva de este para transportarse. Entre las maneras con las que esto se palia es aprovechando la rotación de la Tierra: ya que esta aporta una velocidad que reduce la velocidad necesaria para llegar a la velocidad de escape. Esta velocidad que nos aporta la Tierra llega a su valor máximo en el ecuador, razón por la que la mayoría de lanzamientos se realizan cerca de él (esta velocidad es de 460 m/s, por lo que se necesitaría acelerar unos 10,73km/s más, en vez de 11,2km/s), además la Tierra teambién orbita al Sol, por lo que nos confiere una velocidad de unos 30km/s (esta velocidad no se tenía en cuenta antes ya que, como la Tierra también se mueve a esa velocidad, no nos influye cuando nos movemos con respecto a la Tierra). Aparte de la atracción de la Tierra, el satélite también sufrirá la del Sol, por lo qie se puede aprovechar que este satélite empezará a orbitar al Sol en una elípse (si tiene la velocidad y dirección necesarias), además de que podemos modificar la trayectoria de la orbita del satélite usando parte del combustible sobrante, de manera que la trayectoria de la órbita intercepte con el planeta al que se intenta llegar.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Explica las asistencias gravitatorias que aprovechan los satélites

A

Una vez que el satélite está orbitando al Sol desde fuera de la Tierra le pueden surgir dos problemas: si se dirige al sistema solar interior le puede suceder que vaya a demasiado rápido (ya que es la parte de la elipse cercana al Sol) como para que la gravedad del planeta al que nos dirigimos pueda atrapar al satélite, mientras que si vamos al sistema solar exterior puede suceder que no tenga la suficiente velocidad como para evitar que el Sol pueda atraer al satélite al sistema solar interior. Para poder ajustar la velocidad a la que va el satélite sin el uso de combustible podemos usar la asistencia gravitatoria, esta consiste en el uso de la gravedad de un cuerpo en movimiento para propulsar o frenar el satélite. Es muy importante que el cuerpo se esté moviendo. ya que sino la velocidad final será igual a la inicial (como mucho cambiará de dirección). Para propulsarlo tenemos que acercar el satélite por detrás (la zona de la que se está alejando), mientras que para frenar el satélite hay que acercarlo por delante (la zona hacia la que se está moviendo). La explicación es que si te acercas por detrás habrá más tiempo en el que el cuerpo te esté impulsando que frenando, mientras que si te acercas por delante será al revés. La energía cinética ganada o perdida por el satélite será equivalente a la energía cinética perdida o ganada, respectivamente, por el cuerpo. Por ejemplo la sonda New Horizons, que se dirigía a Plutón, fue capaz de aprovechar la gravedad de Júpiter para pasar de 19 km/s a 23km/s, lo que adelantó el momento en el que llegó a Plutón en 3 años.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Di datos sobre la Voyager 1

A

La voyager 1 fue lanzada por la NASA en el 1977 y es la sonda que más se ha alejado de la Tierra. En 2012 superó la heliopausa, la zona a la partir de la cual no llegan las partículas cargadas lanzadas por el Sol. Esta se encuentra a unos 100 AU del Sol. Sin embargo esto no significa que la Voyager 1 haya pasado del sistema solar, ya que aún le queda por superar la nube de oort, un conjunto de pequeños asteroides congelados que orbitan alrededor del Sol a una distancia de entre 50.000 y 200.000 AU de él

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Explica la influencia de la gravedad en la forma de los planetas

A

A una distancia de entre 2,2 a 3,2 UA se encuentra el cinturón de asteroides, este contiene entre 700.000 y 1.700.000 asteroides con un diámetro mayor a un kilómetro (toda su masa es un 4% de la masa de la Luna), aunque los asteroides grandes son bastante menos abundadantes, sólo conociendose unos 200 que tienen más de 100 kilómetros de radio, siendo el mayor de ellos ceres (con 940 kilómetros). La mayoría de los asteroides conocidos tienen una forma similar a una patata. Esto es debido a que carecen de la masa suficiente como para que la fuerza de la gravedad del planeta sobrepase a la rigidez de los materiales del asteroide y lo vuelva esférico. Esto empieza a suceder a partir de entre los 200 y 300 kilómetros, lo que se conoce como el “Potato Radius”.
Sin embargo, en los casos en los que existen más fuerzas aparte de la gravedad del propio cuerpo, este deja de ser una esfera perfecta, en la mayoría de casos esto es la rotación del cuerpo (que produce fuerzas centrífugas que se oponen a la gravedad) por ejemplo la tierra tiene un diámetro polar que es un 0,3% menor que el diámetro ecuatorial. En los casos donde el cuerpo tiene una rotación mucho menor esto se vuelve casi inapreciable, como es el caso de Venus (tarda 243 días en dar una vuelta sobre sí mismo). Otro factor que influye es la compocisión del cuerpo influye, por ejemplo los cuerpos gaseosos suelen achatarse más que los cuerpos sólidos, por ejemplo Saturno posee un diámetro polar un 10% menor que el ecuatorial.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Explica que son los asteroides y planetas troyanos

A

Un asteroide troyano es un asteroide que comparte la misma orbita de un planeta. Estos asteroides se han encontrado sobretodo en la órbita de Júpiter, sin embargo estos no pueden estar en cualquier punto de ella, tan sólo existen cinco puntos alrededor de los cuales un objeto puede realizar una órbita relativamente estable, ya que en estos puntos se haya un equilibrio entre las fuerzas gravitatorias del Sol y el planeta (esto no significa que necesariamente se anulen), lo que permite que el asteroide tenga una órbita y velocidad relativamente constantes. Existen cinco puntos de Lagrange para cada órbita. El punto L1 es el más fácil de calcular ya que es el único en el que se cancelan las fuerzas gravitatorias entre los dos planetas, el L2 se encuentra en la misma dirección que el L1 y la misma distancia con respecto al planeta, pero en sentido contrario, el punto L3 se encuentra en el punto opuesto de la órbita del planeta y los puntos L4 y L5 se encuentran a 60º del planeta con respecto al Sol. Entre estos puntos los más estables son los L4 y L5. Júpiter es con diferencia el planeta que más tiene con unos 6.000 descubiertos (aunque se cree que podrían haber hasta un millón), mientras que del resto de planetas se conocen como mucho una decena. La Tierra sólo posee uno (llamado 2010 TK7), de unos 300 metros de diámetro, este orbita alrededor del Sol a una distancia de entre 120 millones y 180 millones de kilómetros (la órbita de la Tierra tiene una distancia del Sol de unos 150 millones de kilómetros) y se va acercando y alejando de la Tierra, pasando de L3 a L4 y viceversa cada 400 años.
Los planetas troyanos serían iguales que los asteroides troyanes, sin embargo estos son mucho más improbables, debido a que esto hace que la fuerza que el planeta troyano ejerce sobre el otro sea significativa, lo que se desarrolla en que o uno de los planetas choque con su estrella o con el otro o que adopten órbitas distintas. Hasta el momento no se ha descubierto ningún planeta troyano.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Explica las distintas hipótesis sobre el origen de Luna y la aceptada actualmente

A

Hasta mediados del siglo XX no se dieron buenas hipótesis científicas sobre el origen de la Luna. Uno de los descubrimientos importantes para la creación de hipótesis fue el descubrimiento que la composición de las rocas lunares es muy similar a las de la Tierra (lo que se descubrió gracias a los fragmentos traídos por los astronautas de las misiones Apolo). Esto es importante ya que se sabe que la composición química del resto de planetas del sistema solar es bastante distinta, lo que descartaría que la Luna se hubiera formado en otra zona del sistema solar y hubiera sido atraído por la gravedad de la Tierra. Esto deja dos posibles hipótesis: que la Tierra y la Luna se formaran a la misma vez y a la misma distancia del Sol o que de alguna manera la Luna hubiera salido de la Tierra. La primera hipótesis acabó siendo descartada ya que no explicaría que, a pesar de que los dos cuerpos se hubieran formado con una proporción similar de elementos, la Luna tuviera un núcleo metálico tan pequeño, además de que no explicaría el gran momento angular que tiene el sistema Tierra-Luna, lo que no tendría sentido si supusieramos que ambos se formaron alrededor del otro. Esto hace más plausible a la segunda hipótesis, pero no como había propuesto George Darwin (hijo de Charles Darwin) en 1898. Este propuso que en la época en la que la Tierra se formó esta se encontraba en estado líquido, además de que giraba a una alta velocidad, lo que habría posibilitado que una parte de la Tierra hubiera sido expulsada, convirtiendose más tarde en la Luna. A pesar de que para la época está muy bien formada, esta hipótesis se descartaría por ser dinámicamente imposible. La hipótesis actual es la del gran impacto. Esta hipótesis propone que la Luna se habría formado tras el choque entre la Tierra y un cuerpo del tamaño de Marte. Este impacto habría lanzado materia tanto de la Tierra como de ese cuerpo al espacio, parte de la cual comenzaría a orbitar a la Tierra y que acabaría convirtiéndose en la Luna. Para que esto pudiera haber sucedido el choque entre la Tierra y el cuerpo debería haber tenido muy poco ángulo, es decir que este cuerpo debería haber tenido la misma órbita que la Tierra, lo que significaría que la Tierra habría tenido un planeta troyano (bautizado como Theia) que se habría acabado desestabilizando, haciendo que impactara con la Tierra

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Explica la influencia de la Luna en la formación de las mareas

A

Primero hay que aclarar que como tal la Luna no orbita exactamente alrededor de la Tierra, sino al centro de gravedad formado por el sistema Tierra-Luna, ambos cuerpos orbitan sobre este centro de gravedad, aunque debido a que la masa de la Tierra es unas 81 veces mayor que la de la Luna el centro de gravedad se encuentra muy cerca de la Tierra, por lo que su giro alrededor de él no es muy apreciable. La interacción gravitatoria que la Tierra ejerce sobre la Luna y viceversa no es uniforme, sino que los puntos más cercanos del otro cuerpo reciben una atracción mayor, esto hace que los cuerpos cuerpos se estiren en la dirección del centro de gravedad lo que hace que tiendan a adoptar una forma ovalada (formando lo que se conoce como bulto gravitatorio), sin embargo debido a la rotación de los cuerpos y la rigidez de la superfice sólida estos no llegan a adoptar una forma ovalada muy pronunciada, sin embargo en los mares, debido a la baja rigidez del agua, sí que se vuelve más ovalada en los extremos, lo que forma la marea alta. Este efecto de estiramiento también es producido por el Sol, por lo que en las zonas del año en la que la Tierra se encuentra más cerca del Sol habrán mayores mareas.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Explica cómo se sabe que la Luna se está alejando de la Tierra

A

Se conoce que la Luna se va alejando de la Tierra gracias a los registros de la intensidad de las mareas, lo que puede conocerse gracias a las ritmitas unas rocas formado por una gran cantidad de capas con grosores que se van repitiendo de forma cíclica. Un tipo de ritmitas se forma a partir del apilamiento de sedimentos transportados por el agua cuando sube la marea. Sabemos que estos sedimentos dependen de la marea y no de otro proceso periódico, ya que los grosores de las distintas capas coinciden con la posición de la Tierra con respecto al Sol y la Luna, de la que dependen las mareas. Gracias a estos registros podemos ver que en las capas de mucha antigüedad se observan más capas de menor tamaño, lo que indica que la Luna completaba más rapidamente su giro alrededor de la Tierra, lo que significa que antes se encontraba más cerca de ella. Actualmente la Luna se aleja de la Tierra a un ritmo de 3,8 centímetros por año, sin embargo que antes se alejaba de la Tierra más lentamente (ya que si no fuera así la Luna se habría formado hace unos 1500 Millones de años, cuando en realidad esta se formo hace unos 4500 Millones de años), aunque se piensa que en el momento de su formación (en el que se encontraría a una distancia de entre 20.000 y 30.000 kilómetros de la Tierra, actualmente se encuentra a 384.000 kilómetros, de media) sí que se alejaba a una velocidad mayor que la actual.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

Explica porque los días en el pasado eran más cortos que ahora y porque vemos siempre la misma cara de la Luna

A

Gracias al estudio de corales, los cuales cada día depositan capas de sedimento que varía en función de las horas de luz (ya que la luz potencia la fotosíntesis de las algas con la que viven en simbiosis) que han tenido podemos saber cuantos días duraban las estaciones del año en el pasado, al igual que cuanto duraba un año. Con esto se ha conseguido descubrir que hace unos 400 millones de años los años duraban unos 400 días, por lo que la Tierra tardaba 21,9 horas en dar una vuelta sobre sí misma. Los corales aparecieron hace unos 500 millones de años. Para obtener registros más antiguos podemos usar las ritmitas que dicen que hace 900 millones de años un día duraba 20 horas y que hace 2450 millones de años duraba 17,5 horas. No se sabe cuanto duraban los días poco después de la formación de la Tierra, pero se estima que podría durar entre 5 y 6 horas. El alargamiento de los días está relacionado por la razón por la que siempre vemos la misma cara de la Luna. Siempre vemos la misma cara de la Luna debido a que tarda el mismo tiempo en dar una vuelta sobre la Tierra que sobre sí misma, sin embargo esto no fue siempre así. En el pasado la Luna giraba mucho más rápido sobre sí misma, además de que se encontraba más cerca de la Tierra por lo que giraba alrededor de ella más rápido, sin embargo, debido a que la Luna se encontraba mucho más cerca de la Tierra tenía un bulto gravitatorio más pronunciado, el cual además no se encontraba en la dirección del centro de gravedad debido a su alta velocidad de rotación, esto producía que la Tierra tirara del bulto gravitatorio en el sentido contrario del giro de la Luna, lo que producía que se redujera su velocidad de rotación. Este fenómeno se conoce como acoplamiento de marea. Además, el bulto gravitoria de la Tierra tampoco está en la dirección del centro de gravedad, lo que produce que se tire a la Luna en el sentido en el que rota sobre la Tierra, lo que aumenta su velocidad lo que produce que se aleje de ella; y ralentiza en giro de la Tierra sobre sí misma, lo que hace que los días duren más (aproximadamente 2,3 milisegundos más por siglo). Cuando los bultos gravitatorios acaben estando alineados la Luna tardará 47 días en dar una vuelta sobre la Tierra y ambos cuerpos giraran a la misma velocidad, lo que significa que la Luna siempre estará sobre la misma parte de la Tierra, por lo que habrá una parte de la Tierra desde la que nunca se podrá observar la Luna, aunque aún quedan unos 50.000 millones de años para que esto suceda.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
18
Q

Explica el efecto de la gravedad sobre la biología

A

La gravedad ha determinado todos los aspectos de la vida de los seres vivos y entre los efectos más interesantes está en su tamaño. La gravedad limita el tamaño y peso que pueden tener los seres vivos. En el agua estos efectos se minimizan, ya que la alta densidad del agua en comparación del aire permite la existencia y el desplazamiento de seres vivos de un tamaño demasiado grande para los seres vivos no marinos, gracias a que la carga de su cuerpo se puede repartir por toda su superficie en vez de sólo en las partes que tocan el suelo, lo que sucedería en los seres que viven fuera del agua, debido a esto es que es el ser vivo más pesado conocido, la ballena azul, es capaz de pesar hasta 200 toneladas. En Tierra los animales más grandes que han existido son los dinosaurios, entre ellos los más grandes eran los dinosaurios del género Argentinosaurus huinculensis, que pesaban entre 70 y 100 toneladas y medían 40 metros de longitud. Sin embargo, la estructura de los dinosaurios utiliza distintos artificios que les permitían ser considerablemente ligeros para el tamaño que tenían. Por ejemplo un Tyrannosaurus rex medía entre 4,6 y 6 metros de altura y hasta 12,4 metros de longitud y pesaba unas 5 y 7 toneladas, en cambio el elefante africano más grande que se conoce medía 4 metros de altura y pesaba 10,4 toneladas. Entre las características que posibilitaban esta ligereza era que sus huesos tenían bastantes huecos, a pesar de los cuales podían mantener su resistencia.
La gravedad también afecta a las plantas, por ejemplo se sabe que la altura máxima de un árbol está entre los 130 y 138 metros, debido a que más allá de esa altura los árboles son incapaces de transportar el agua a sus hojas más altas.
La gravedad afecta hasta el tamaño de las células. La mayoría de células eucariotas no superan las 10 micras de diámetro, ya que eso supodrían tener núcleos tan masivos que colapsarían con la membrana plamática de la célula. Por eso es que las células más grandes que se conocen, como los óvulos de la especie de rana Xenopus laevis (que pueden llegar a medir hasta un milímetro de diámetro), poseen estructuras adicionales que estabilizan la célula.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
19
Q

Explica el efecto de la ingravidez en los seres vivos

A

Desde hace ya décadas se ha experimentado con el efecto que tiene en animales y plantas la ingravidez. Los datos más destacables fueron que tras varias décadas de intentos la primera vez que se consiguió obtener semillas fértiles de una planta sembrada en el espacio fue en 1997 y eran de la especie Bressica rapa. El sistema de cultivo espacial más generalizado y simple es el VEGGIE y consiste en conjines llenos de tierra compactada y con bolitas de fertilizante en los que las semillas se colocan en la dirección adecuada para que la planta crezca verticalmente (un problema recurrente era que la planta no crecía en la dirección adecuada), estas plantas son expuestas a luces LEDs rojas y azules que les permiten realizar la fotosíntesis. Este sistema dió sus resultados en 2015 cuando por primera vez los astronautos de la Estación Espacial Internacional pudieron comer lechuga cultivada en el espacio. En cuanto a animales se ha experimentado con muchos, pero los rusos mostraron especial interés en los codornices (por su pequeños tamaño y su alto contenido nutritivo), en 1979 se llevaron los primeros huevos de codorniz a la Estación Espacial Internacional, aunque no fue hasta 1990 que hubo huevos que eclosionaran (fue el tercer intento), eclosionando 8 de los 33 enviados. En líneas generales los animales expuestos a la ingravidez actuan de forma confundida, especialmente los voladores, que tienen a perder el equilibrio en el vuelo. Para poder reducir gastos muchos de los experimentos con ingravidez no se realizan en el espacio sino en los conocidos como “Weightless Wonders”, aviones que realizan los conocidos como “vuelo parabólico”, con los que se llega a experimentar la ingravidez durante unos 25 segundos, en estos vuelos primero ascienden a 45 grados con respecto al suelo, luego bajan la potencia de los motores en el pico de la parábola y por último recuperan la potencia y descienden a 45 grados. Especialmente graciosos son los experimentos con gatos.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
20
Q

Explica la teoría de la relatividad de Einstein

A

Durante varios siglos la teoría de Newton fue la más aceptada y eficaz respecto a la gravedad, sin embargo esta parecía tener problemas al predecir órbitas algo extremas como la de Mercurio, de hecho al principio se había postulado la existencia de otro planeta en el sistema solar (bautizado como vulcano) que explicaría los fallos en la predicciones en la órbita de Mercurio, lo que tampoco era demasiado descabellado de pensar ya que el descubrimiento de Neptuno se dió gracias a observar los fallos que se daban al intentar predecir la órbita de Urano, sin embargo esta vez no se daría el caso. Einstein postularía que el fallo en la teoría de Newton fue tomar que la gravedad era una fuerza que se daba entre dos masas. Einstein dijo que la gravedad era en realidad la deformación del tejido del espacio-tiempo a causa de una masa, una manera de visualizarlo es la deformación que causa un objeto en una malla elástica (aunque en la teoría de Einstein esta malla sería tridimensional). Si la teoría de Einstein era cierta la luz debería de ser capaz de ser afectada por la gravedad a pesar de no tener masa. Esto se verificaría en un eclipse solar de 1919 en el que se observó que la posición de la estrellas era distinta a lo que cabía esperar, lo que significaba que la gravedad del Sol estaba haciendo cambiar de dirección la luz que venía de ellas, por lo que parecía que provenía de otro lugar. Otra de las predicciones de su teoría era que el tiempo debería de pasar más lento cuanto mayor sea la gravedad que estás experimentando (Una persona que está observando a otra entrar a un agujero negro la vería moverse más lento). Esto se comprobó en 1971 al comparar el tiempo que había medido un reloj atómico que estaba en un avión con uno que estaba en Tierra. Esto se conoce como la dilatación temporal y la velocidad a la que vas también hace que el tiempo pase más lento. La persona que más ha experimentado este efecto es Sergei Krikalev, un astronauta ruso que pasó 748 días en la estación espacial MIR, moviendose a 7,6 km/s y a una altura de 360 kilómetros, a pesar de que sienta una gravedad menor a la de la Tierra, debido a la velocidad a la que se mueve es 0,02 segundos más joven que lo que sería si no hubiera salido de la Tierra. Otro de los experimentos que verificarón la teoría de Einstein fue el LIGO, un experimento que tenía lugar en una estructura que tenía dos “brazos” perpendiculares de 4 kilómetros de longitud. Por cada brazo pasaba un rayo láser que rebotaba contra un espejo de la estructura. Este experimentó fue capaz de detectar la ondas gravitacionales (que se encontraban implícitas en la teoría de Einstein), gracias a que estas produjeron un momentaneo acortamiento de la distancia entre los dos brazos, lo que pudo ser medido con los láseres.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
21
Q

Explica las primeras experiencias científicas sobre el electromagnetismo

A

Hay registros históricos bastante antiguos que tratan fenómenos relacionados con el electromagnetismo, sin embargo no sería hasta alrededor del siglo XVI que se empezaron a intentar explicar de manera científica. En el siglo XVI William Gilbert observó diferencias entre la atracción que se sufría con las piedras magnéticas y la de los objetos “electrificados” como el ámbar (lo que hoy conocemos como electricidad estática). Este decía que, a diferencia de las piedras magnéticas, los objetos electrificados no presentan polos, además de que mientras que la atracción de las primeras puede atravesar objetos, la segunda puede ser detenida por una hoja de papel. En el siglo XVII estos fenómenos empezaron a despertar el interés de la gente. En 1663 la gente producía electricidad estática con montajes como el de Otto Von Guericke: una bola de azufre o de cristal montada sobre un eje giratorio y que producía electricidad estática cuando se frotaba. Charles François de Cisternay du Fay experimentó con este montaje y observó como un trozo de pan de oro de repente pasaba de verse atraido a repelido por la esfera, además de que la lamina de oro volcía a verse atraída hacia la bola después de entrar en contacto con otra superficie. Du Fay propuso que existía un tipo de electricidad atractiva y otra respulsiva, una idea a la que se opuso Benjamin Franklin, quien creía que bastaba con “un solo fluido eléctrico para explicar el fenómeno”. Este decía que los objetos con poco fluido eléctrico eran atraídos por los que tenían mucho y que la repulsión se daba entre objetos con mucho fluido eléctrico. A partir de esta idea, en 1745 Ewald Georg Von Kleist sugirió que la electricidad era un fluido debería de poder almacenarse. Este ideó un sistema en el que un tarro de cristal lleno de alcohol y un clavo de metal se “cargaría” de electricidad al hacer girar la rueda que creaba electricidad estática y que estaba conectada con el tarro por un cable (imagen del montaje). Tras haber cargado el tarro Von Kleist tocó al mismo tiempo el clavo y el tarro, con lo que sufrió una descarga eléctrica. Una mejora de este sistema fueron las botellas de Leyden, formado por un tarro de cristal recubierto de agua y que estaba recubierto de papel metálico. Cuando se descubrió que la electricidad podía pasar por varias personas se realizó un experimento para descubir su velocidad, Jean Antoine Nollet unió a unos doscientos monjes con cables de hierro, de manera que formaban un círculo de alrededor de un kilómetro de diámetro. Cuando este conectó el montaje a una botella de Leyden observó que todos los monjes reaccionaban al mismo tiempo, con lo que concluyó que la velocidad de propagación de la electricidad era muy alta.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
22
Q

Explica el desarrollo de la teoría atómica de Dalton

A

En el siglo XVII ya se había ido abandonando la alquímia, lo que dió lugar a que los intelectuales crearan verdaderas teorías científicas. Poco a poco se irían descubriendo sustancias que parecían ser imposibles de descomponer en otras, que se llamaron elementos. Además se observó que las cantidades de sustancia que participaban en las reacciones químicas seguían unas proporciones constantes de números enteros sencillos. Esto dió lugar a que John Dalton propusiera la primera teoría atómica científica. Esta decía que los elementos estaban formados por trozos indivisibles de materia llamados átomos (haciendo referencia a las ideas de demócrito, de la antigua Grecia) y que estos se combinaban entre ellos para formar el resto de sustancias.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
23
Q

Explica el desarrollo de la teoría de Thomson

A

A finales del siglo XIX se habían descubierto los rayos catódicos, unos rayos que aparecen en el interior de un tubo de cristal vacío (o casi vacío) cuando una corriente eléctrica pasa por él. En los experimentos que realizaría J.J. Thomson descubriría que estos rayos se veían influidos ante la presencia de un campo magnético. Se observaba que el rayo se veía repelido por un imán orientado por su polo negativo y atraído por otro orientado en su polo positivo, con lo que se dedujo que estos rayos tenían carga negativa. Además observó que estos rayos presentaban las mismas propiedades independientemente del material de los electrodos o del gas introducido en el tubo de cristal antes de crear en él un vacío, por lo tanto fuera lo que fuese lo que componía estos rayos debía de estar presente en la estructura de todos los metales y gases. Por último comprobó que lo que fuera que estuviera implicado en el fenómeno debía de tener masa, ya que al insertar dentro del tubo una aspas montadas se observaba que estas empezaban a girar cuando chocaban con el chorro luminoso. Con todo esto concluyó que los rayos catódicos estaban formados por unas partículas de carga negativa que provenían de los electrodos o de los restos de gas que quedaba en el tubo. Además, también pudo calcular que la masa de estas partículas tenían una masa unas mil veces menor que el elemento de hidrógeno (se conocía el peso de los distintos elementos gracias a un sistema similar al espectrógrafo de masas). Con esto Tompson propuso que el átomo en realidad estaban formados por pequeñas partículas de carga negativa (a las que llamó corpusculos) y, como la mayoría de la materia no posee carga, también propuso la existencia de una partícula de carga positiva. Todo esto lo resumió en su modelo atómico que decía que los átomos estaban formados por una partícula de carga positiva que tenía incrustada partículas de carga negativa, a este modelo se le conoció como el modelo del “pudin de pasas”

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
24
Q

Explica el modelo de Rutherford

A

En 1911 Ernest Rutherford realizó un experimento en el que dejo impactar las partículas alfa que liberaba un elemento radiactivo (que posee carga positiva) sobre una lámina de oro, alrededor de la cual había una pantalla fluorescente que se iluminaría con el impacto de las partículas alfa. Si el modelo de Thompson era correcto la carga positiva del átomo debería de estar tan distribuida uniformemente que las partículas alfa pasarían sin apenas perturbaciones. Sin embargo, en el experimento observó que, si bien la mayoría de las partículas no sufrían perturbaciones, habían otras que se desviaban bastante. A partir de estos datos Rutherford postuló que el átomo estaba mayormente vacío (el diámetro de del núcleo de los átomos es entre 23.000 y 135.000 veces más pequeño que el propio átomo) y formado por un núcleo que concentra casi toda su masa y toda su carga positiva (estando compuesto por los protones y los neutrones, aunque la existencia de estos últimos no se había demostrado), alrededor del cual orbitan los electrones. Este modelo aún presentaba algunos problemas, como que no limitaba las posibles órbitas de los electrones y que había fenómenos que explicaba, lo que sería corregido por Bohr, al que le haría correciones Sommerfield, aunque más adelante sus teorías serían sustituidas por las teorías cuánticas.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
25
Q

Explica la unión de átomos

A

La Química explica como se da la formación de sustancias, esta dice que los electrones de un átomo están agrupados en capas y que los átomos tienen la tendencia a buscar que su última capa contenga 8 electrones (regla del octeto), a excepción de los primeros elementos de la tabla períodica, los cuales tienden a que halla 2 electrones. Para poder conseguir esto los átomos compartirán (en el enlace covalente y tecnicamente también en el metálico) o cederán y aceptar (en el iónico) electrones, formando y rompiendo enlaces dando lugar a nuevas. Los elementos con mayor tendencia a reaccionar son los que tengan pocos electrones en su última capa (son los metales y tienden a ceder dichos electrones), aunque no siempre tienen tanta tendencia, por ejemplo el oro y el platino son elementos muy codiciados por su baja reactividad, debida a la fuerza de atracción que su núcleo ejerce sobre sus electrones. Por otro lado también son bastante reactivos los elementos que tengan muchos electrones en su última capa (son los no metales y tienden a compartir o aceptar electrones). Estos elementos pueden ser peligrosos debido a su tendencia a reaccionar, por ejemplo el sodio y el potasio son metales muy reactivos que explotan en contacto con el agua, mientras que el Fluor y el cloro son no metales muy reactivos que tienden a romper otras moléculas para cumplir la regla del octeto, por ejemplo el cloro reacciona con el agua que hay en la mucosa de la nariz produciendo ácido clorhídrico que destruye las células que toca, cosas similares suceden con el Fluor, al que se le atribuye la muerte de varios químicos que intentaron aislarlo en el siglo XIX. Aún así, los compuestos que forman estos elementos no tienen porque ser nocivos, por ejemplo el floururo de sodio y el difloururo de estaño son sustancias importantes para los dientes, en este caso el fluor es positivo para nosotros ya que reacciona con la hidroaxiapatita (el mineral que forma nuestros dientes) para formar fluoroapatita, que es más resistente al ácido que generan las bacterias, el cual con el tiempo puede producir caries. De hecho el agua que tomamos lleva añadido unas cantidades minúsculas de fluor (entre 0,7 y 1,2 partes por millón), que son capaces de reducir las caries infantil en un 60% y las adultas en un 35%.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
26
Q

Explica las propiedades del agua que la hacen tan importante para la vida

A

Las funciones que tiene el agua en los seres vivos son:
1. Ser el medio de transporte de nutrientes, debido a su capacidad disolvente .
2. Ser el medio en el que se realizan la mayoría de reacciones químicas del organismo, debido a su capacidad disolvente.
3. Ayudar a mantener una temperatura constante en los organismos, debido a su alto calor específico (es decir que hace falta más energía para calentar el agua).
4. Servir como método de refrigeración, debido a su alto calor específico (al sudar, el agua que tiene el sudor es capaz de absorber mucho del calor de nuestra superficie corporal, lo que hace reducir su temperatura).
5. Dar flexibilidad al cuerpo, debido a las fuerzas de tensión superficial que se dan, debido a los puentes de hidrógeno que contienen.
El agua es tan buen disolvente debido a que existe una diferencia de polaridad alta entre el oxígeno y el hidrógeno, debido a la alta electronegatividad del oxígeno, esto significa que el oxígeno atrae con mayor fuerza los electrones compartidos con el hidrógeno, esto produce que se creen unas cargas parciales negativas en el oxígeno y unas cargas parciales en los hidrógenos, lo que hace que la molécula sea polar (tenga un polo positivo y otro negativo). Esto permite que el agua separe los átomos unidos por un enlace iónico (en estos enlaces los átomos se mantienen unidos debido a la atracción entre cargas positivas y negativas), lo que hace que los iones positivos se queden rodeados por la parte negativa de las moléculas de agua (el oxígeno) y los iones negativass por la parte positiva de la molécula de agua (los hidrógenos).
El alto calor específico del agua es debido a los fuertes enlaces que forman las moléculas de agua entre sí. Este enlace es el puente de hidrógeno y es debido a que las cargas parciales negativas de los átomos de oxígeno atraen a las cargas parciales positivas de los átomos de hidrógeno de otras moléculas de agua y viceversa, esto hace que cada átomo de oxígeno este rodeado de átomos de hidrógeno de otras moléculas de agua y viceversa.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
27
Q

Explica la importancia del carbono para la vida

A

El carbono es un elemento esencial para la vida, debido a la gran variedad de estructuras que es capaz de crear, gracias a que necesita compartir 4 electrones para cumplir la regla del octeto, lo que significa que puede llegar a enlazarse hasta con cuatro átomos (como es el caso del metano, CH4, que como dato curioso es inoloro, los verdaderos causantes del mal olor de las flatulencias son sustancias como el escatol o el sulfuro de hidrógeno), aunque en otras ocasiones forma dobles o triples enlaces con otros átomos (como es el caso del dióxido de carbono). Gracias a que también tiene tendencia a compartir electrones con otros átomos de carbono es capaz de crear grandes cadenas, como las del ADN. En la busqueda de la vida extraterrestre se prioriza buscar moléculas que contengan carbono, además del agua, esto es debido a que el carbono es el mejor elemento para la construcción de moléculas complejas. El otro elemento que presenta características similares al carbono es el silicio, sin embargo los átomos de carbono son más pequeños (el radio atómico del carbono es de 70 picometros y el del silicio de 111 picometros), lo que hace que las moléculas de carbono puedan encajarse mejor, además de que los átomos de silicio son más pesados que las del carbono (sus masas son aproximadamente de 28u y 12u, respectivamente), además de que los enlaces del silicio son menos estables y que el dióxido de silicio es sólido, mientras que el dióxido de carbono es gaseoso, por lo que es mucho más fácil de expulsar. Aunque esto no significa que no pueda haber vida basada en el silicio, es mucho más probable que la vida compleja se base en el carbono.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
28
Q

Explica las teorías sobre el origen de la vida en la Tierra

A

Hay tres teorías principales sobre el origen de la vida en la Tierra: La teoría de la Panspermia, la de Oparín-Haldane y la de las fuentes termales.
La teoría de la Panspermia dice que los compuestos que dieron lugar a la vida en la Tierra provienen de asteroides o cometas que habrían impactado contra ella. El principal punto a favor de esta teoría es que se sabe que, aparte de agua, los cometas contienen muchas de las sutancias básicas para la vida: nitrilos, alcoholes, aminas…
La teoría de Oparín-Haldane, propuesta en 1920, dice que la vida se habría creado poco a poco, a través de una “evolución química” que comenzaría con moléculas inorgánicas y que sería fometada por la atmósfera primitiva. En 1953 Miller y Urey realizaron un experimento en el que intentarían replicar la atmósfera primitiva de la Tierra, con lo que comprobar si en este contexto se podrían crear moléculas precursoras de la vida. Ellos asumieron que la atmósfera primitiva estaba compuesta de los gases volcánicos producidos tras la formación del planeta, así que crearon una mezcla de vapor de agua, metano, amoníaco e hidrógeno a través de la que pasaría un arco voltaico que simularía los rayos. Tras una semana de descargas eléctricas consiguieron 11 de los 20 aminoácidos necesarios para la vida terrestre. A pesar de estos buenos resultados, hoy se piensa que la composición de la atmósfera primitva habría sido más bien de nitrógeno, vapor de agua y dióxido de carbono (es decir que no habría sido una atmósfera reductora). Esta nueva atmósfera no daba tan buenos resultados, debido a que los compuestos con nitrógeno destruyen cualquier aminoácido que se forma, a menos que se añadan hierro y carbonatos a la mezcla, sustancias que habrían sido abundantes en la Tierra primitiva y que son atacadas por los compuestos nitrogenados en vez de los aminoácidos, lo que permite que se vuelvan a formar. A pesar de todo esto se sigue sin estar seguros sobre la composición de la Tierra primitiva, así que aún no se puede estar completamente seguros de esta teoría.
La teoría de las fuentes hidrotermales dice que la vida se habría formado alrededor de las fuentes hidrotermales que hay en el fondo de los océanos. Una gran cantidad de gases calientes cargados de iones positivos, lo que habría producido un potencial electrico entre el gas y el agua ácida de los océanos. La vida microscópica que se hubiera formado en los alrededores deberían de haber formado un mecanismo para producir su propio potencial eléctrico cuando hubiera ido a colonizar lugares alejados de estas fuentes, de hecho hay que dice que los sistemas de las células que permiten el flujo de iones entre su exterior e interior son una reliquia evolutiva de aquella época.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
29
Q

Explica qué produce la corriente eléctrica y porque los metales son buenos conductores de la electricidad

A

Ya que los electrones poseen carga negativa, estos se veran atraídos por los cuerpos en los que hayan más protones que electrones (es decir que esté cargado de forma positiva), esto produce que se forme un potencial eléctrico (una especie de energía potencial) entre los cuerpos cargados positivamente y los cuerpos cargados negativamente, de manera que si existe entre ellos un camino (normalmente este es un material conductor), los electrones adicionales del cuerpo cargado negativamente se desplazarán hasta el cargado positivamente. Este movimiento de electrones es lo que produce la corriente eléctrica. Los materiales conductores son los materiales en los que los electrones se pueden desplazar fácilmente. Los metales son grandes conductores de la electricidad gracias al tipo de enlace que los mantienen unidos. Este es el enlace metálico y en este todos los átomos de un trozo de metal liberan los electrones de su última capa, lo que hace que haya una especie de nube de electrones movimiendose libremente. Este movimiento libre de los electrones es lo que los vuelven tan buenos conductores. El metal más conductor es la plata, sin embargo debido a su coste y a su reactividad con el oxígeno del aire se opta por el cobre, el segundo mejor conductor. El tercero es el oro y suele ser usado en circuitos pequeños que necesiten un material inerte, por ejemplo los circuitos de los procesadores de los móviles y ordenadores esstán recubiertos de oro, aunque la cantidad usada es muy baja, por ejemplo en un ordenador moderno hay unos 100 mg de oro, este se encuentre en láminas de alrededor de una millonésima de milímetro de groso que están en zonas muy específicas de los circuítos.
Una propiedad especial del enlace metálico es que en el vacío se pueden unir trozos de metal sin necesidad de soldarlos, gracias a que los electrones se encuntran deslocalizados. En la vida cotidiana esto es imposible que suceda ya que el metal siempre presenta una fina capa de óxido, debido al contacto con el aire, pero en otros escenarios puede llegar a suceder, por ejemplo se piensa que esto pudo provocar un fallo en la antena de la sonda Galileo en 1991, impidiendo que se desplegara por completo cuando dos de sus componentes se quedaron unidos

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
30
Q

Explica la relatividad especial de Einstein

A

A partir de los experimentos de Michelson y Morley se descubrió que la velocidad de la luz era la misma independientemente del observador, es que incluso si otra persona viera que te mueves en la misma dirección y sentido de un rayo de luz a 200.000 km/h tú seguirías viendo a la luz alejarse a 300.000 km/h de ti (y no a 100.000 km/h). Einstein basó su teoría de la relatividad especial en estos resultados, diciendo que la percepción del espacio-tiempo del observador varía con tal de hacer que siempre observe a la luz moverse a la misma velocidad, además de que era imposible de superar. De esta propuso que al observar a un objeto que se mueve a velocidades cercanas a la de la luz, lo veremos encogido y moviendose más lentamente, por ejemplo si observamos a alguien en una nave que se mueve muy rápido veríamos a esa persona moverse a cámara lenta. Además, ya que todos los sistemas de referencia son igual de válidos, podemos interpretar que desde el punto de vista de la persona de la nave el resto de cuerpo son los que se mueven muy rápido, de manera que los vería encogerse y ralentizarse. Gracias a este fenómeno seguiríamos viendo los rayos de luz moviendose a la misma velocidad, pues, ya que el espacio está encogido, el rayo de luz se está moviendo más rápido, aunque, ya que el encogido, observaríamos la longitud de onda de la luz encogida también, lo que haría que vieramos la luz más hacia el violeta. Estos fenómenos sólo son importantes a grandes escalas, por lo que en la vida cotidiana es inapreciable, por ejemplo si vemos a un coche moverse a 120km/h su longitud sólo se verá un 0,0000000000055% menor, es decir que si el coche midiera 3 metros de longitud, sólo se observaría una contracción de 165 cienmillonésimas de milímetro.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
31
Q

Explica cómo se conecta la electricidad y el magnetismo

A

En 1820 el físio Orsted observó que al hacer pasar electricidad por un cable, la aguja de su brújula dejaba de apuntar hacia el polo norte magnético y empezaba a apuntar en una dirección perpendicular al cable, con un sentido que variaba en función del sentido de la corriente eléctrica. Más adelante Faraday también descubriría que el movimiento de un imán con respecto a un circuito generaba una fuerza electromotriz que creaba una corriente inducida. La razón por la que una corriente eléctrica genera un campo magnético tiene que ver con la relatividad especial. Por esta sabemos que los cuerpos en movimiento, se encogen, en el caso de la corriente eléctrica esto produce que los electrones se vuelvan más pequeños (aunque esto no reduce la cantidad de carga de los electrones), lo que hace que haya mayor densidad de carga positiva que negativa, a pesar de que la velocidad de los electrones en un cable es bastante baja (menos que un milimetro por segundo, aunque esto no es lo mismo que la velocidad de la electricidad, ya que la velocidad de la electricidad es cercana a la de la luz, ya que es como si los electrones se “empujaran” hasta el final del cable) acaba dando lugar a campos magnéticos notables gracias a la cantidad de electrones y protones que hay. Esto también se puede intrepretar desde el punto de vista de los electrones, que observarán que los protones y el espacio que hay entre ellos se reduce, por lo que la densidad de carga positiva aumenta.

32
Q

Explica cómo se produce la electricidad estática

A

La electricidad estática se produce tras frotar dos cosas, debido a que el frote hace que parte de los electrones de una de la cosas se queden en la otra, lo que crea una diferencia de cargas que hace que se atraigan, pudiendo incluso crearse una corriente eléctrica entre las dos cosas, de manera que se solucione la diferencia de cargas. Esto fenómeno es lo que produce los rayos, ya que el frotamiento entre nubes puede producir electricidad estática que puede producir una corriente eléctrica dirigida hacia el suelo

33
Q

Explica cómo funcionan los imanes permanentes

A

Los imanes permanentes funcionan gracias a una de las propiedades de los electrones. Estos poseen lo que se conoce como “spin” que hace que produzcan un campo magnético cómo el que produciría una corriente eléctrica en un circuito circular, aunque sin necesidad que el electrón lo haga. Este spin puede valer 1/2 o -1/2, en función de la dirección que tenga el campo magnético. Debido a la manera en la que se va ordenando los electrones, estos se van colocando en los distintos suborbitales (que aceptan 2 electrones cada) de un tipo de orbital, de manera que en cada suborbital completo haya un electrón con cada spin, además los electrones buscan que, si no hay los suficientes electrones para llenar el orbital completo haya la mayor cantidad de electrones desemparejados y con el mismo spin, lo que genera que no se anulen los campos magnéticos generados por los spin. Por esto mismo los compuestos formados por elementos con el último orbital medio vacío (como el hierro o el cobalto y el níquel) son lo que se conoce como ferromagnéticos, materiales que pueden presentar imanes permanentes, por ejemplo la magnetica es un compuesto formado por varios óxidos de hierro (que normalmente se resume como Fe3O4). Para que un material sea magnético también tiene que suceder que la mayoría de los campos magnéticos creados por sus átomos apunten en la misma dirrección, esto se consigue al fundir el material en presencia de un campo magnético.

34
Q

Explica que es la luz

A

Gracias a Maxwell se conoce que la luz es una radiación electromagnética, es decir que es una pertubación en el campo eléctrico y en el campo magnético. La pertubación en uno de esos campos produce una pertubación en el otro y así sucesivamente, lo que da lugar a una onda. Uno de los problemas que tenía el modelo de Rutherford era que el movimiento de los electrones alrededor del núcleo debería de generar ondas electromagnéticas que harían que los electrones perdieran energía y se precipitaran al núcleo. Bohr intentó solventar esto diciendo que existían unas órbitas determinadas en las que el eléctron se podía mover en unas determinadas órbitas sin perder energía y que para cambiar de órbita podía absorber o liberar una radiación electromagnética, de energía equivalente a la diferencia en la energía mecánica entre las dos órbitas. La energía de la luz es directamente proporcional a su frecuencia, por lo que es indirectamente proporcional a su longitud de onda.

35
Q

Explica cómo vemos los colores

A

De todo el espectro electromagnético los humanos vemos la luz de entre 390 y 700 nanómetros. Esto lo hacemos gracias a unas estructuras llamadas conos que existen en nuestros ojos y hay unos 6 y 7 millones de conos en ellos. Existen tres tipos: los que reaccionan sobretodo ante luz de entre 564 y 580 nanómetros (los colores rojos), que suponen el 64% de ellos; los que reaccionan sobretodo entre los 534 y 545 nanómetros (colores verdes), que suponen el 32% de ellos y los que reaccionan sobretodo entre los 420 y 440 nanómetros (colores azules), que supone el 2% de ellos. Aunque sobretodo se activen en los rangos dados, también se activan en las longitudes de onda cercanas, sólo que perdiendo intensidad, lo que da lugar a que varios conos se puedan activar al mismo tiempo (de hecho casi siempre ocurre esto), lo que da lugar a los colores que percibimos. Aparte de los conos, el ojo también posee los bastones, que están relacionados con la intensidad de la luz, específicamente se suelen activar en condiciones de baja iluminación.
Aparte de las estructuras que nos permiten ver los colores, cada objeto posee un color determinado debido a las longitudes de onda que absorbe y que refleja, por ejemplo los objetos azules los vemos azul ya que absorbe todas las longitudes de onda excepto la que se corresponde con el color azul, de hecho si ulimináramos dicho objeto con una linterna de luz de color rojo, verémos el objeto de color negro, ya que no está reflejando luz. La luz que absorbe o refleja un material depende de como interactua sus átomos con la luz, dependiendo de la configuración electrónica de sus átomos, sus electrones podrán absorber ondas de energías determinadas para moverse a órbitas más altas, lo que dar lugar a electrones excitados. Estos electrones eventualmente vuelven a su posición original emitiendo la luz recibida o (aunque no tienen porque volver a su posición en un único paso, los materiales fluorescentes por ejemplos absorben luz ultravioleta y emiten luz visible y otros tipos de luz), normalmente, transformandola en calor (aunque ya que este calor es el movimiento de los átomos, este se acaba liberando en forma de luz de baja frecuencia, como la infrarroja). La reflexión de la luz sucede, debido a que los electrones absorban luz con una energía insuficiente para cambiar de órbita, en vez de moverse a una órbita superior simplemente vibran, ya que los electrones son una partícula con carga el vibrar hace que acaben formando una radiación de energía equivalente a la absorbida, es decir que vuelven a emitir esa luz, dando lugar a su reflexión

36
Q

Explica cual es el material más negro y el más blanco que existen

A

Un objeto nos parecerá negro si absorbe toda o casi toda la luz que recibe (o cuando no recibe luz), puesto que en ese caso no reflejará o apenas reflejará luz. Si bien no existe ningún material completamente negro ante la luz blanca si que existen muy buenas aproximaciones. El objeto más negro creado es la Vantablack, que absobe el 99,965% de la luz que recibe. Este material es tan oscuro que los objetos tridimensionales que recubrimos con él parecen planos. Este material está compuesto de tubos microscópicos, ya de por sí de color negro, que rebotan la luz no absorbida dentro del material, de manera que siguen siendo absorbidos. En contraparte de este material, el material más blanco son las escamas de unos escarabajos del género Cyphochilus, originarios del sureste de Asia.

37
Q

Explica como funcionan los espejos

A

Un espejo está compuesto de una fina lámina de metal pulido (normalmente aluminio o plata), cubierta por una lámina de cristal. Debido a que los metales poseen muchos electrones que se mueven libremente (sin pertenecer a ningún órbital) cuando reciben una radiación electromagnética, en vez de moverse a otra capa, empiezan a vibrar y, debido a que el electrón es una partícula con carga, la energía de la vibración se acaba usando en crear una nueva radiación electromagnética idéntica a la recibida, creando la imagen reflejada, sin embargo, para que esto funcione adecuadamente la superficie debe de ser muy lisa o de lo contrario las irregularidades del metal harían que cada rayo de luz reflejado fuera en una dirección distinta, dando lugar a una imagen difuminada. La diferencia que tiene un espejo y un material blanco justamente está relacionado en esto. En un material blanco se refleja la mayoría de la luz recibida, pero se hace en todas direcciones, por lo que no se crea una imagen. En cambio, en un espejo toda la luz reflejada va en una dirección determinada que permite que se forme la imagen.

38
Q

Explica como funcionan los materiales transparentes

A

Para que un material pueda absorber luz, los electrones de sus átomos deben de poder aprovechar la energía de la luz que reciben para moverse a otra capa, sin embargo si la luz no es suficientemente energética como para mover al electrón a otra capa, es decir que sólo logran hacer vibrar sus electrones. Debido a la estructura del cristal la vibración se va pasando de átomo a átomo, hasta llegar hasta el lado contrario del material, donde se libera, es decir que en vez de reflejar la luz la dejan pasar, siendo esta la diferencia entre los materiales transparentes y los materiales blancos. Esto es lo que pasa con los cristales, la luz visible no es suficimiente energética para ellos por los que muchos cristales son incoloros. De hecho los cristales pueden ser tratados quimicamente para que absorban la luz ultravioleta (que es más energética que la visible), protegiendonos de ella.
Aunque hay algunas sustancias transparentes, como el aire que son transparentes más bien debido a que al ser un gas su densidad de partículas es mucho menor, por lo que la mayoría de la luz no impacta contra ella, además el aire es incoloro debido a que no absorbe la luz visible.

39
Q

Explica la evolución de las telecomunicaciones

A

En 1816 un inventor inglés llamado Francis Ronald creó un aparato que permitía mandar pulsos eléctricos a través de un cable utilizando un generador de electricidad estática. Este invento llevaría a la inauguración en 1838 de la primera línea de telégrafo comercial que permitía la comunicación instantánea entre las personas separadas por los 21 kilómetros que hay entre la estación de Paddington, Londres, y la de West Drayton. En 1858 se tendió la primera línea telegráfica transoceánica, que iba desde Irlanda hasta Canadá. Para poder mejorar este sistema sería necesario el uso de las ondas de radio. Al tener una longitud de onda tan larga y, por tanto, una energía tan baja, las ondas de radio atraviesab la mayoría de los materiales sin ser absorbidos, ya que su energía no es la suficiente como para mover a los electrones a otra capa, con lo que es capaz de cubrir grandes distancias a través de la atmósfera sin ser absorbidas. Los emisores de ondas de radio los podríamos entender como bombillas de una luz que no podemos ver y aunque estas ondas sean capaces de atravesar las relativamentes finas paredes de las construcciones humanas, siguen sin ser capaces de atravesar kilómetros de material, por lo que sigue estando limitado por la curvatura de la Tierra, ya que si como se lanzan en línea recta, la única manera que hay para llegar a otro punto alejado de la superficie es atravesando la Tierra. Por suerte, las ondas de radio poseen una propiedad distinta a la de la luz visible. Por encima de los 60 kilómetros de altura exista la ionosfera, una capa de la atmósfera en la que el aire está cargado de iones y electrones libres. Cuando una onda de radio alcanza esta capa de la atmósfera hace que sus electrones vibren y vuelvan a emitir la misma onda de vuelta hacia la Tierra, de manera similar a como un espejo hace con la luz visible. Los sistemas de comunicación aprovechan esto para reflejar (en realidad es refractar) las ondas pueden pasar por encima de la curvatura de la TIerra. Si este proceso se repite en los distintos repetidores de ondas de radio repartidos por toda la Tierra es posible enviar mensajes a cualquier lugar del planeta. Otro sistema de comunicación usado eran las ondas de microondas, que se usaban antes de la implementación de los cables de fibra óptica para las llamadas telefónicas a largas distancias. Estas utilizaban repetidores que se encontraban en zonas de mucha altitud, como montañas, lo que permitía reducir la cantidad de repetidores usados al permitir recubrir mayor parte de la superficie de la Tierra. Por ejemplo una persona a nivel del mar es capaz de ver en un radio máximo de unos 5 kilómetros, mientras que una antena colocada a 4,4 kilómetros (en la cima de una montaña) del nivel de mar puede cubrir una distancia de 70 kilómetros.

40
Q

Explica el funcionamiento de un microondas

A

El microondas crea ondas de frecuencia 2,45 GHz, por lo que tienen una longitud de onda de unos 12,44 centímetros. Esta frecuencia es bastante buena, ya que consigue hacer vibrar bastante el agua, calentando el agua. Esto permite calentar la comida debido a que la mayor parte de la mayoría de alimentos es el agua. Esta frecuencia está bastante cerca de una de las frecuencias de resonancia del agua (2,5 GHz). No se usa esta frecuencia de resonancia, ya que el agua absorbería tan bien esta frecuencia que sólo se calentaría la superficie del material. En cambio esta frecuencia no se absorbe tan directamente dando lugar a una penetración de la comida bastante mayor, pudiendo calentar también el interior de la comida. Relacionado con esta vibración, los metales por ejemplo apenas se calientan por la radiación infraroja porque la reflejan casi toda.

Esta tarjeta me costo bastante trabajo de hacer, ya que había ido asumiendo algunos problemas que hacían que esto fuera más complicado de entender. Principalmente que la luz que un electrón no absorbía para hacer que se moviera a otra órbita (que sucede si la frecuencia no es de resonancia), sino que hacía que el electrón (y aparentemente también el átomo) vibrara (aunque parece que también puede rotar), lo que hacía que se produjera una onda idéntica a la original, lo que producía la reflexión de la luz. Si bien esto es cierto, parece que no toda la luz se refleja, sino que parte de ella se convierte en calor, además de que hay otros fenómenos importantes como la penetración de la luz en el material. Este post de quora y este video lo explican bien.

41
Q

Explica los efectos nocivos que puede tener la luz en los seres vivos

A

La luz bastante energética, como la ultravioleta. Este tipo de luz penetra la piel (aunque hay que decir que penetra menos que la luz visible o la infrarroja) y tiene la energía suficiente como para mover los electrones de los átomos de la piel a una órbita distinta, si bien este cambio en su configuración electrónica dura bastante poco, cambia temporalmente las propiedades de los átomos afectados, lo que puede provocar que rompa los enlaces en la molécula en la que pueda estar y que forme otros enlaces con moléculas cercanas, lo que en el caso del ADN es un gran problema. Las células tienen ciertos mecanismos para reparar este daño, aunque si el daño es demasiado grande simplemente se dejan morir, esto mismo es lo que causa la piel que se nos cae tras haber recibido una quemadura solar. Sin embargo, estos mecanismos pueden fallar, permitiendo que las células dañadas se reproduzcan sin control, en estos casos es cuando se produce un tumor. Por esto mismo es tan importante la crema solar, ya que es capaz de reflejar o absorber, dependiendo de la crema solar, aunque en general absorben (Esto tecnicamente nos hace sentir más calor, sin embargo la proporción de luz que llega a la Tierra que es ultravioleta está entre el 3 y 5%, habiendo entre un 42 y 43% de lus visible y un 52 y 55% de luz infrarroja), las radiaciones ultravioletas del sol.

42
Q

Explica la relación entre la temperatura y la radiación

A

Lo que nosotros apreciamos como temperatura es la velocidad media con la que se mueven las partículas de una sustancia. Es la velocidad media ya que cada átomo de la sustancia se mueve a su propia velocidad, que en sólidos es relativamente uniforme, mientras que es más variable en líquidos y gases. Siguiendo esta definición la temperatura mínima a la que se encontrar un cuerpo es a la temperatura en la que sus átomos se encuentran quietos, lo que son los 0 kelvin o -273,15 Cº, aunque llegar a esta temperatura es imposible en la práctica, siendo la temperatura más baja a la que hemos llegado el medio nanokelvin. El movimiento de los átomos implica el movimiento de las partículas con carga que contiene, las cuales están en presencia de un campo magnético (el de las otras partículas), lo que significa que se liberará energía en forma de radiación electromagnética, con una energía mayor en función de la temperatura, además, como cada átomo se mueve a su propia velocidad un cuerpo emitirá una variedad de ondas de distinta longitud de onda. En el caso de los cuerpos cotidianos sólo se liberan radiaciones infrarrojas. La temperatura con la que la mayoría de los átomos de un cuerpo empiezan a emitir luz visible es de 525 Cº, como por ejemplo los trozos de hierro que brillan con un tono rojizo. Los filamentos de las bombillas por ejemplo se calientan a temperaturas de entre 1.700 Cº y 3.000 Cº (los filamentos no se funden a estas temperaturas gracias a que están compuestos de tungsteno, que se a los 3.700 Cº) para producir luz, aunque incluso a esta temperatura la mayoría de la energía se emite en forma de radiación infrarroja, sólo el 2% de la energía se aprovecha para producir luz visible, aunque es cierto que el tungsteno con el que se frabican las bombillas libera la mayor parte de sus ondas como luz visible a los 6.000 Cº.

43
Q

Explica la temperatura de las estrellas y de los objetos más calientes del universo

A

La temperatura de la superficie de nuestro Sol es de 5.800 Cº, con lo que emite con mayor intensidad las radiaciones con longitud de onda cercana a los 550 nanómetros, que coincide con un color amarillo algo verdoso (aunque esto es casi inapreciable, desde el espacio el Sol es de color blanco ya que irradia más o menos todas las longitudes de onda de la luz visible con la misma intensidad), aunque la razón por la que lo vemos amarillo no tiene que ver con esto, la razón es que la atmósfera absorbe mejor la longitudes de ondas más pequeñas (las que se acercan al azul), de manera que mientras que vemos estas ondas de luz venir de la atmósfera, tan sólo vemos venir las longitudes de ondas mayores del Sol, de hecho la razón por la que en los atardeceres y amaneceres el cielo se ve tan anaranjado es porque, debido al ángulo que sigue la luz, recorre mayor distancia por la atmósfera, por lo que los colores azules se quedan totalmente absorbidos por la parte superior, dejando principalmente los colores rojos y amarillos.
Las estrellas más pequeñas, las enanas rojas, tienen entre 0,075 y 0,5 veces la masa del Sol y tienen una temperatura en la superficie de entre 1.700Cº y 3.200Cº, con lo que la mayoría de sus radiaciones se encuentran en el infrarrojo, además de la parte roja y anaranjada de la luz visible. En cambio, las estrellas que tienen como mínima unas 20 veces la masa del Sol poseen unas temperaturas en la superficie de entre 50.000Cº y 60.000Cº, emitiendo principalmente luz azul y ultravioleta. En el universo existen fenómenos más energéticos, como el disco de material que da vueltas a un agujera negro mientras se precipita a él, llegando a adquirir temperaturas de millones o incluso cientos de millones de grados, emitiendo casi de forma eclusiva rayos X y rayos gamma. La temperatura más alta observada se produjo en el interior del LHC, después de que el acelerador estrellara dos haces de iones de plomo a velocidades cercanas a las de la luz, con lo que se obtuvo una temperatura de 5,5 billones de grados. Esta temperatura se encuentra alrededor de la llamada temperatura de Hagedorn, en la que los protones y los neutrones se descomponen en los quarks, los cuales aún se pueden seguir calentando hasta llegar a la llamada temperatura de Planck, que es de aproximadamente 1,417 * 10^32Cº, temperatura que se dió durante 10^-43 segundos tras el Big Bang.

44
Q

Explica la transferencia de calor entre sustancias y los estados de la materia

A

Una sustancia puede transmitir calor por contacto, debido al choque que habrá entre las partículas de una sustancia y de otra, lo que irá igualando la velocidad entre ellas, con lo que se iguala el calor. Este proceso es bastante rápido es gases y líquidos, ya que sus partículas poseen mucha libertad de movimiento, permitiendo que se produzcan muchos más choques, mientras que en los sólidos esto es mucho más lento, aunque eso no significa que los sólidos sean aislantes del calor, ya que también transmiten su calor en todas las partes de su superficie en contacto con el aire, además de que todas las sustancias liberan parte de su calor en forma de radiación. Cuando tocamos algo bastante caliente nos hace daño ya que el calor puede degradar las proteínas de las paredes de las células de la piel o directamente puede hacer que el agua de las células de la piel se expanda y rompa la membrana de la célula. En función de que tanta libertad de movimiento tengan las partículas de una sustancia está será sólida, líquida o gaseosa, aunque como no todas las partículas de un material se mueven a la misma velocidad pueden suceder fenómenos como que en un líquido las partículas más veloces se escapen y se vuelvan gas, esta es la razón por la que el agua de un charco se puede evaporar sin necesidad de estar hirviendo. Un factor importante respecto al estado de una sustancia es la presión a la que está sometida, pues cuanta más presión haya más difícil será para las partículas de una sustancia moverse libremente, lo que aumentará la temperatura de fusión y ebullición, esto es lo que aprovechan las ollas a presión, pudiendo cocinar más rápidos los alimentos al tener el agua a una temperatura alta sin que ebulla (el punto de ebullición al que llega el agua depende de la olla, pero normalmente está entre los 110Cº y 130Cº), mientras que a menor presión las temperaturas de fusión y ebullición bajarán, por ejemplo en la cima del Everest, donde la presión es tres veces menor que al nivel del mar el agua ebulle a los 74Cº. Este fenómeno es el que hace que la mayoría de capas de la Tierra sean sólidas, a pesar de las altas temperaturas que hay, específicamente esto se cumple en la corteza (que tiene entre 5 y100 km de profundidad), el manto (acaba a los 2.885 km de profundidad) y el núcleo interno (va de los 5.100 km al centro de la Tierra, que se encuentra a 6.371 km de profundidad). Esto no se cumple en el núcleo externo (entre los 2.885 km a los 5.100 km de profundidad), ya que mientras que la corteza y el manto están formados por rocas el núcleo externo está compuesto de hierro y níquel, en la que las condiciones de presión y temperatura son suficientes como para que se fundan, aunque en el núcleo interno las condiciones de presión superan a las de la temperatura haciendo que, a pesar de estar compuesto principalmente de hierro y níquel, vuelvan a estar en estado sólido. El efecto de la presión también afecta a los llamados gigantes gaseosos, compuestos principalmente de hidrógeno y helio, en los que la presión es tan grande que es capaz de hacer que la mayoría de la masa del planeta esté en estado líquido a pesar de estar compuesto de materiales que normalmentes son gases.

Por lo que he visto la temperatura de fusión del hierro y el níquel es mayor a la de la roca, así que supongo que la razón por la que el núcleo externo es líquido tiene que ver más con que aumenta bastante la temperatura en comparación del aumento de la presión

45
Q

Explica el descubrimiento del campo magnético de la Tierra

A

Las primera brújulas aparecieron en China durante la dinastía Han (221 a.C-206 a.C) y fueron introducidas en Europa en el siglo XI.. Se habían propuesto hipótesis sobre la existencia de una isla magnética en el norte del planeta, pero el primero en proponer la idea de que la Tierra actuaba como un gran imán fue Willian Gilbert. Este había realizado un experimento en el que hizo una esfera a partir de rocas magnéticas y colocó agujas de hierro en su superficie, con esto observó que todas las agujas apuntaban hacia los polos y que cuanto más cerca estaban de ellos más se inclinaba respecto a la superficie, llegando a estar en posición vertical cuando llegaban a los polos. Esto concordaba con las observaciones que realizó Robert Norman, que en 1581 Gilbert aprovechó como guía. Norman se dedicaba a frabricar instrumentos de navegación y se dió cuenta mientras fabricaba brújulas que siempre se inclinaban ligeramente respecto a la horizontal. Por esto conectó por medio de un hilo una aguja con un corcho, de manera que la aguja quedara suspendida en el agua al sumergirla. Lo que cabría esperar era que la aguja quedara vertical (debido a la gravedad), sin embargo observó que la aguja quedaba ligeramente inclinada.
A partir de todo esto Gilbert dedujo que la Tierra sería un imán gigante y que se podría incluso usar la inclinación de la aguja suspendida en el agua para calcular la latitud a la que nos encontramos. Sin embargo, esto último no era fiable ya que los polos norte y sur geográficos no coinciden con los magnéticos (el polo norte magnético está inclinado unos 10º con respecto al polo norte geográfico y el polo sur magnético está inclinad unos 23º con respecto al polo sur geográfico), además de que hay zonas en las que existen anomalías magnéticas, como en Bangui (República Central Africana), producida por la ascención de material magnético subterrano o de restos metálicos de un asteroide metálico que habría impactado hace unos 540 millones de años. Hay otra anomalía en Kurks (Rusia), ya que la zona está repleta de material magnético. Aparte de esto, el propio campo magnético de la Tierra está cambiando constantemente.

46
Q

Explica el funcionamiento del magnetismo de la Tierra

A

El magnetismo de la Tierra es bastante variable. Actualmente el el polo Norte magnético se encuentra a unos 420 kilómetros del polo norte geográfico y se aleja de él entre 50 y 65 kilómetros al año, mientras que el Polo Sur magnético se encuentra a 2800 kilómetros del geográfico y se aleja de él entre 10 y 15 kilómetros al año. La razón de este comportamiento caótico es que la Tierra no funciona como un imán permanente, ya que el núcleo de la Tierra se encuentra a unos 5.400 Cº, lo que supera con creces las temperaturas de Curie del hierro (1.043 Cº) y del níquel (627 Cº) y por encima de estas temperaturas los imanes pierden sus propiedades magnéticas. En realidad el causante del campo magnético de la Tierra es el movimiento del hierro y níquel líquidos del núcleo externo. El movimiento (a causa de la rotación de la Tierra) del hierro y níquel que han perdido electrones y, por tanto, poseen carga eléctrica produce un campo eléctrico que produce un campo magnético, que vuelve a producir un campo eléctrico y así sucesivamente. Como el movimiento depende de la rotación de la Tierra, la velocidad en el ecuador será mayor, lo que genera un campo magnético más fuerte en el sentido de los polos (actua como una corriente eléctrica en una espira), que es aproximadamente el doble que la del Ecuador. Sin embargo hay factores que enrevesan el movimiento de los metales del núcleo externo, como que la velocidad de las corrientes de fluido magnético no es uniforme, aparte de por lo anterior, porque sólo las partes del líquido que están en contacto con el núcloe interno se mueven a dicha velocidad, el resto del líquido se va moviendo por el movimiento de las capas más bajas, lo que hace que las capas más altas queden rezagadas. Además, el líquido más bajo está más caliente, lo que genera corrientes de convección que también alteran las corrientes. Además, los polos magnéticos hasta pueden llegar a invertirse. Esto se conoce gracias a las fallas oceánicas, zonas del océano en la que la subida de magma a la superficie (por lo que sería lava) y posterior solidificación empuja a los continentes y crea nueva corteza oceánica, esto significa que cuanto más lejos este la corteza oceánica de una falla, más antigua será. Este magma contiene partículas de hierro que, al estar en estado líquido, poseen la suficiente libertad de movimiento como para quedar orientadas en la dirección y sentido del campo magnético terrestre. Ya que se observa que al estudiar el terreno alrededor de las fallas se van observando barras alternas de corteza con magnetismo orientado hacia al polo norte magnético y hacia el polo sur se puede concluir que el campo magnético de la Tierra se invierten cada cierto tiempo, específicamente en periodos de entre 100.000 y un millón de años. La última inversión magnética ocurrió hace unos 780.000 años y sabemos que está disminuyendo gracias a los registros históricos de 1850 (que fue cuando se empezó a registrar), por lo que se calcula que la reversión magnética volvería a ocurrir dentro de unos 1.500 o 1.600 años. Sin embargo, no hay indicios en los registros fósiles que indiquen que esto pueda suponer un problema para la vida, además, incluso si el campo magnético de la Tierra desapareciera por completo durante los 1.000 o 10.000 años que tardaría en producirse la inversión, nuestra densa atmósfera nos podría seguir protegiendo de los vientos solares o los rayos cósmicos. Aún así un periodo más prolongado podría hacer que la Tierra sufriera algo como lo que pasó a Marte. Se sabe que durante los primeros 400 millones de años posteriores a su formación Marte tuvo campo magnético, sin embargo al poseer una masa 8 veces menor que la Tierra, Marte perdió mucho más rápido el calor producido en su formación, lo que acabó produciendo que su capa de metal líquido se solidificara y perdiera su campo magnético. Sin un campo magnético, Marte fue perdiendo parte de su atmósfera a causa de los vientos solares, dejando a Marte con una fina capa de gas que aún hoy sigue perdiendo a un ritmo de unos 100 gramos por segundo (lo que aumenta durante las tormentas solares). Al perder su atmósfera, Marte pasó de ser un planeta húmedo con ríos y lagos, que hasta habría tenido la mayor parte de su hemisferio norte recubierto por un océano de 2.000 metros, a convertirse en un planeta seco. Si bien es cierto que la Tierra también va perdiendo calor con el tiempo, el núcleo sólido tan sólo le va quitando un milimetro de terreno al año al núcleo líquido.

47
Q

Explica el magnetismo del Sol y los fenómenos que causa

A

El Sol es una gigante esfera de plasma (es un estado de la materia en el que los átomos que componen un gas están en forma de iones, ya que los electrones se están moviendo de forma libre, debido a la energía que tienen) en rotación, esto significa que hay muchos iones en constante movimiento, lo que produce campos magnéticos. Sin embargo, al tener un diámetro de casi 1,5 millones de kilómetros, las irregularidades magnéticas que se producen en el Sol son mucho mayores que las de la Tierra. Esto se puede apreciar en las manchas solares, regiones de la superficie del Sol donde el campo magnético está tan enrevesado que apartan el plasma que las rodea, formando parches de material más frío. En ocasiones, cuando se producen presiones demasiado grandes debido a los campos magnéticos muy enrevesados, se libera toda la tensión de golpe mientras que los campos magnéticos vuelven a la normalidad, esto lanza al espacio todo el gas ionizado que estaba contenido en una zona. Estos son los fenómenos que producen las llamaradas solares o las eyecciones demasa coronal. La llamarada solar es un aumento súbito en el brillo que produce un área del Sol, ya que la mayoría de energía se libera en forma de radiación electromagnética. En cambio, una eyección de masa coronal es una gran nube de plasma liberada de la superficie solar a velocidades altas, este fenómeno ocurre con frecuencia y puede llegar incluso hasta la Tierra, aunque sin efectos sobre la vida. Sin embargo, una eyección de masa coronal especialmente intensa podría poner dañar nuestros sistemas de comunicaciones o el tendido eléctrico, sin siquiera llegar a tocarlos. La llamarada solar puede también llegar a afectar a los sistemas de comunicación, ya que puede modificar las propiedades de la ionosfera, la capa de la atmósfera que funciona como “espejo” de las ondas de radio y que es usada para transmitiralas a lugares lejanos, pudiendo provocar fallos en los sistemas de comunicación y navegación por radio. Pero las eyecciones de masa coronal son bastante más peligrosas, estas nubes de iones se sienten atraidos por los polos, por lo que no impactan con la mayoría de la Tierra, de hecho la interacción de los iones con las partículas de la atmósfera hace que estas últimas se exiten liberando la energía en forma de luz, lo que da lugar a las auroras boreales. sin embargo, el movimiento de estas cargas puede provocar campos magnéticos que, en caso de ser fuertes, podrían generar nuevas corrientes eléctricas en los tendidos eléctricos, lo que los podría sobrecargar y fallar si no están protegidas ante ello. Aún así, las probabilidades de que un evento así sucedan es bastante baja, ya que las eyecciones de masa coronal de tal magnitud no son demasiado frecuentes y además debería de estar orientada hacia la Tierra.

48
Q

Explica que fue el conocido como “Evento de Carrington”

A

El mayor caso de eyección coronal registrado que ha afectado a la Tierra se conoce como el “Evento de Carrington” y se produjo en Septiembre de 1859. Desde el 28 de Agosto al 2 se observaron gran cantidad de manchas en la superficie del Sol, el día 29 de Agosto aparecieron auroras australes en Queensland (Australia), el día 1 los astrónomos Carrington y Hodgson observaron por separado como ocurría una llamarada solar en la superficie del Sol y entre los días 1 y 2 de Septiembre llegaría la eyección de masa coronal. Los iones se movían a tal velocidad que fueron capaces de atravesar el escudo magnético que supone el campo magnético terrestre, lo que hizo que llegaran partículas cargadas en casi todas las latitudes, produciendo auroras boreales en el Caribe, África subsahariana e incluso Colombia, además se sobrecargaron muchas líneas telegráficas en Europa y América del Norte dando calambrazos a sus operadores e incluso haciendo que saltaran chispas en las terminales. En el noreste de Estados Unidos hasta se decía que se podía leer el periódico bajo la luz de la aurora. Si un evento de estas proporciones volviera a suceder podrían ocurrir graves daños en los sistemas de producción y transporte de energía. Si los transformadores eléctricos de una central fueran dañados por este evento, la central podría pasar hasta dos años sin funcionar, dependiendo de la disponibilidad de los recambios. Se estima que una eyección de masa coronal de este nivel podría causar un impacto económico de entre 0,6 y 2,6 mil millones de dólares, sólo en Estados Unidos. Por suerte la probabilidad de que vuelva a ocurrir una eyección de masa coronal como esta que afecta a la Tierra es bastante baja.

49
Q

Explica que son los planetas cnóticos

A

Los planetas cnóticos son una clase hipotética de cuerpos celestes que serían los núcleos rocosos de gigantes gaseosos que tendrían una órbita demasiado cercana a su estrella, por lo que habría ido perdiendo su atmósfera a causa de los vientos solares y el calor. Aún no se ha confirmado que alguno de los planetas rocosos que se han descubiertos sean de esta clase, aunque sí que se han observado gigantes gaseosos que están perdiendo sus atmósferas. Por ejemplo HD 209458 b (apodado Osiris) es un gigante gaseoso con una masa 0,7 veces la de Júpiter, pero con 2,5 veces su volumen, debido a la cercanía de su órbita con su estrella, lo que hace que tenga una temperatura superficial de 1.000 Cº. Se estima que Osiris podría haber perdido ya entre el 1 y el 7% debido a los vientos solares.

50
Q

Explica la evolución en las teorías sobre la naturaleza de la luz

A

La primera teoría científica sobre la luz generalmente aceptada fue la de Newton, que proponía que la luz estaba formada por partículas (naturaleza corpuscular), aún así habían ciertas discrepancias, por ejemplo Huygens propuso que la luz era una onda, aunque su teoría aún tenía algunos problemas, como la propagación de la luz en el vacío, ya que la luz necesitaría de un medio para propagarse si fuera una onda, ya que en ese momento no se había pensado en la posibilidad de que fuera una onda electromagnética, que por tanto no requeriría de un medio, esta idea acabaría siendo demostrada por Maxwell en 1865. La teoría de que la luz era una onda ganó credibilidad tras el experimento de la doble rendija de Thomas Young en 1801. En este experimento se hizo pasar la luz de una bombilla por dos rendijas que luego pasarían por un detector de luz, si la teoría de Newton era cierto sólo deberían de haber sólo dos franjas en las que se detectara la luz, sin embargo, lo que se observó fueron muchas franjas luminosas separadas por franjas oscuras, lo que sólo podía ser explicado si la luz fuera una onda y que al entrar por las rendijas se crearan nuevos frentes de ondas, los cuales daban lugar a interferencias destructuvas en algunas franjas (las oscuras) y constructivas en otras (las luminosas). A pesar de las demostraciones de Young y Maxwell, en el siglo XX se descubrieron fenómenos que no podían ser explicados con la teoría de la naturaleza ondular de la luz. El primero de estos fenómenos era el efecto fotoeléctrico, por el cual los metales liberan electrones al recibir luz que debe de tener una mínima o sino no liberará electrones, independientemente del tiempo que reciba la luz o la intensidad de la luz (que tanta cantidad de luz hay). Einstein explicó en 1905 que este fenómeno podía ser explicado si suponemos que la luz está formada por partículas (los fotones), de manera que cada una de ellas sólo sería capaz de liberar un electrón y sólo si tuviera una energía mínima (que depende de su frecuencia). Gracias a esta explicación Einstein recibiría el premio nobel de la Física en 1921, la razón de que se tardará tanto en darselo es que se necesitaron varias pruebas experimentales para que se aceptara la explicación, principalmente ya que había una gran pregunta respecto a dicha explicación y era que no se sabía como las partículas de las que estaría compuesta la luz podrían hacer mover a los electrones si la luz no posee masa y los electrones sí. Según la teoría de la relatividad de Einstein las partículas de la luz tendrían momento, una propiedad de la materia que depende de la velocidad de un cuerpo y de su masa y que se transfiere cuando distintos cuerpos chocan, sólo que el momento de la luz dependería de su frecuencia y no de su masa, además de la constante de Planck. Para demostrar esta idea a Arthur Compton se le ocurrió que si la luz tenía momento debería de perder parte de él al interactuar con la materia, al igual que le pasa a una bola de billar cuando choca con otra, sólo que la luz, en vez de perder velocidad, perdería frecuencia, por lo que aumentaría su longitud de onda. Para comprobar esto hizo pasar un haz de rayos X a través de un cristal de calcita, tras el cual habría un detector de luz que mediría la longitud de onda de la luz para comprobar si había aumentado, lo que acabó siendo cierto, con lo que se demostró definitivamente la existencia del momento en la luz y de los fotones, lo que le haría ganar a Compton el premio nobel de Física en 1923. Las conclusiones tras estos descubrimientos fueron que la luz actuaba como una onda cuando se propagaba por el espacio y como una partícula cuando interactuaba con la materia.

51
Q

Explica el paso de los modelos atómicos planetarios a la mecánica cuántica

A

Tras el descubrimiento de que la luz se comportaba tanto como onda como partícula, Louis-Victor de Broglie hipotetizó en 1924 que toda la materia debería poseer también esta propiedad, teniendo una longitud de onda que es igual a la constante de Planck partida del momento lineal del cuerpo (que es igual a multiplicar su masa por su velocidad). Ya que la constante de Planck tiene un valor muy bajo, la longitud de onda sólo sería de un tamaño relativamente grande en las partículas subatómicas (que poseen una masa muy pequeña). Para comprobar la hipótesis de Broglie, un equipo dirigido por George Thomson (el hijo de J.J Thompson, quien había propuesto el modelo del pudin de pasas) realizó un experimento similar al de la doble rendija de Young. En este experimento se lanzarían electrones a un cristal de níquel, siendo las “rendijas” en este caso la separación entre los átomos del cristal de níquel. Alrededor del cristal se colocó una pantalla fluorescente que brillaría cuando un electron impactara con ella. Si los realmente eran sólo una partícula entonces deberían de rebotar contra los cristales de níquel en todas las direcciones, por lo que toda la pantalla debería de iluminarse. Sin embargo, se observaron franjas iluminadas separadas por franjas oscuras al igual que sucedía en el experimento de Young, además al calcularse la longitud de onda de los electrones en base a los resultados del experimento (a partir del ángulo que había entre cada franja iluminada y el espacio que había entre los átomos de níquel) se observaba que coincidía con lo que predecía la fórmula de Broglie. Este experimento demostró que la materia también actuaba como onda al propagarse por el espacio, sólo que únicamente tiene apreciable en los cuerpos en los que su longitud de onda superaba a su tamaño, lo que sólo coincide con las partícu subatómicas. A partir de estas concluciones, se crearía la mecánica cuántica, gracias a las ecuaciones de onda que scrödinger publicaría en 1926, que niega que los electrones se muevan en órbitas alrededor del núcleo y que podamos conocer su posición exacta, en cambio esta teoría dice que los electrones pueden encontrarse en cualquier zona alrededor del núcleo, aunque existen zonas, conocidas como orbitales, en las que hay muy altas probabilidades de encontrar al electrón. Además existen distintos tipos de orbitales, que cambian en tamaño, forma y orientación en función de los números cuánticos del electrón. Cada órbital puede contener como máximo dos electrones, uno con un spín igual a -1/2 y otro con spín igual a 1/2 (este número cuántico no se dedujo a partir de las fórmulas, a diferencia del resto, sino a partir de los datos observables).

52
Q

Explica la creación de la tabla periódica

A

A la vista del descubrimiento de una alta cantidad de elementos, Dimitri Mendeléiv creó la tabla periódica para organización de estos elementos. Esta tabla poseía 8 columnas y 12 filas, además de que tenía muchos menos elementos de los que se conoce a día de hoy, por lo que es muy distinta a la tabla periódica actual , aunque comparten que ambas están ordenadas en función de la masa átomicos de los elementos. Mendeléiev fue capaz de comparar la masa atómica de los distintos elementos gracias a que en 1811 Amadeo Avogadro había deducido que dos volumenes iguales a misma presión y temperatura de dos gases contenían el mismo números de partículas (aunque no se conocía este número), incluso si los elementos eran distintos. De esta manera era relativamente sencillo la masa átomica de distintos elementos gaseosos, en el caso de los elementos líquidos y sólidos se busca una reacción química en la que estos reaccionen con un elemento gaseoso y produzcan otro gas, de manera que se pueden comparar los volumenes y pesos obtenidos para deducir la masa de los átomos del líquido o sólido. Al comparar las masas atómicas de los distintos elementos se dió cuenta de un patrón de masas, por lo que hipotetizó la masa de otros elementos que aún no se habían descubierto, por lo que dejó espacios libres en su tabla periódica, que más tarde serían rellenados, por ejemplo predijo la existencia del galio (que el había llamado ekaaluminio), prediciendo que tendría una masa atómica de 68, lo que se acerca a la masa que tiene de 69,72, siendo justos la predicción se puede considerar aún más precisa, ya que la masa atómica de los elementos en la tabla periódica es la media entre sus isótopos, teniendo en cuenta su abundancia, por ejemplo el galio tiene dos isótopos estables, uno con masa atómica de 68,92 y otro con 70,92.

53
Q

Explica el descubrimiento de la radioactividad

A

En 1896, Wilhelm Conrad Roentgen había descubierto los rayos X, una forma de la luz muy energética, al darse cuenta que una pantalla fluorescente que se encontraba cerca de un rayo catódico en funcionamiento, pero cubierto con papel oscuro, se ilumanaba. Por otro lado, Henri Becquerel había teorizado que las sales fluorescentes, como las de uranio, emitían rayos X, lo que había supuesto tras descubrir que al revelar una placa fotográfica que se había encontrado cerca de sales de uranio esta tenía una mancha quemada en la zona donde estaban las sales. Inicialmente teorizó que esto se daba tras que las sales recibieran luz solar, sin embargo más adelante se dió cuenta que estas liberaban radiación independientemente de ello. Dos años después de este descubrimiento, Rutherford observó que la radiación liberada por las sales de uranio no presentaba las propiedades de las radiaciones electromagnéticas. En uno de sus experimentos Rutherford colocó sales de uranio pulverizadas sobre una placa de metal y colocó otra encima de ella. Se sabía que esta radiación era capaz de arrancar electrones de las moléculas del aire, así que conectó las dos placas a un circuito eléctrico para medir que tanto cambia la corriente electrica provocada a causa de la radiación mientras hacia sus experimentos. A continuación colocó unas láminas de aluminio sobre las sales de uranio y observó que la corriente eléctrica que medía bajaba mucho (pero no desaparecía) tras colocar una lámina de un milímetro. Por esto dedujo que las sales de uranio lanzaban dos tipos de radiación distintas, una que podía atravesar el aluminio y otra que no, que denominó como rayos alfa y rayos beta, respectivamente. Sin embargo, para poder hacer mejores experimentos para investigar sobre estos rayos era necesario un elemento que los liberara en mayor cantidad, ya que la radiación emitida por el uranio era demasiado baja como para ello. Quienes se encargarían de encontrar este elemento sería Maria Salomea Sklodowska (también conocida como Marie Curie) y su esposo, Pierre Curie. Marie había descubierto que los restos de la uraninita, el mineral del que se extrae el uranio, era más radioactivo de lo que cabría esperar, incluso si aún contenía restos de uranio, por lo que dedujo que contenía otro elemento más radioactivo que el uranio. Tras tres años de trabajo fueron capaces de procesar la tonelada de material que tenían en 100 miligramos de un elemento al que llamaron radio, incluso identificaron otro elemento más, al que se bautizó como polonio, aunque no fueron capaces de llegar a aislarlo, este trabajo lo hiceron sin las precauciones que hoy en día se tienen al tratar elementos radiactivos, lo que llevó a que terminaran sus días de trabajo enfermos y exhaustos a causa de la lenta exposición a la radiación, de hecho se cree de forma casi segura que la anémia aplástica, un problema grave de la médula ósea por la que murió Marie Curie en 1934, a los setenta y seis años fue causada por ello. Debido a su trabajo el matrimonio y Henri Becquerel recibieron el premio Nobel de Física en 1903 por sus contribuciones al estudio de la radiación y en 1911 Marie Curie recibió el premio Noble de Química por el descubrimiento del radio y el polonio, por lo que Marie Curie no fue sólo la primera mujer en ganar un premio nobel, sino que también la primera persona en ganar dos premios nobel. Tras el descubrimiento del radio se pudieron hacer experimentos en los que se descubrió que la radiación beta era la emisión de electrones. Para la radiación alfa fueron necesarios campos magnéticos más intensos para desviarlos en el poco tiempo que dura la radiación, que va perdiendo energía a un ritmo cada vez más rápido llegando a recorrer sólo 6,7 centímetros, con lo que se descubrió que esta radiación tenía carga positiva.

54
Q

Explica el descubrimiento de los neutrones

A

En 1913 J.J Thompson realizó un experimento en el que lanzaba iones de neón con la misma carga eléctrica a una placa fotográfica en presencia de un campo magnético. Lo extraño de este experimento fue que en la placa fotográfica habían quedado dos marcas grandes distintas, lo que indicaría que habían iones de neón que eran desviado por el campo magnético con disitnta intensidad que otros, así que a pesar de que en la época no se entendía porque, tuvo que deducir que habían dos tipos distintos de átomos de neón con distinta masa. En 1917 Rutherford descubrió que cuando se bombardea con partículas alfa contra átomos de nitrógeno empiezan a salir despedidos núcleos de hidrógeno, por lo que tenían carga positiva. Este resultado hacía pensar en una idea que había tenido William Prout un siglo antes, quien había propuesto que el bloque básico con el que se formaban los elementos eran los átomos de hidrógeno, sin embargo esta idea tenía el problema que existen elementos con una masa que no es multiplo entero de la masa del hidrógeno, por ejemplo el cloro es 35,5 veces más pesado que el hidrógeno. La diferencia es que ahora sólo se tenían en cuenta los núcleos de hidrógenos, al que denominaron como protón, aunque aún existía el problema de los elementos como el cloro, por ello Rutherford propuso la existencia de una partícula con carga neutra, que llamó neutrón, que se encontraba en el núcleo de los átomos, aunque tardaría una década en demostrarse su existencia. En 1928 Walter Bothe observó que los átomos de berilio emiten una radiación energética con carga eléctrica neutra cuando un haz de partículas alfa incide sobre ellos. Mas tarde, la hija de Marie Curie, Irène Joliot-Curie, descubrió junto a su mariddo, Fréderic Joliot, que cuando esta radiación neutra emitida por el berilio incide sobre un bloque de parafina, un montón de núcleos de hidrógeno empiezan a salir despedidos de su interior. Inicialmente se supuso que la radiación neutra sería alguna forma de los rayos gamma, la variante más energética de las ondas electromagnéticas, sin embargo para que este fenómeno sucediera los rayos gamma deberían de tener una cantidad de energía demasiado alta como para que pudiera haber surgido por el choque entre las partículas alfa y el berilio. En cambio, los resultados encajaban si se suponía que la radiación estaba formada por partículas de carga neutra de una masa casi igual a la del protón. Este resultado significaba que lo que disitingue a los elementos entre sí son el número de protones que poseen, mientras que los átomos de un mismo elemento se diferencian entre sí por el número de neutrones que poseen, llamando isótopos a las variaciones de un elemento que existen debido a la diferencia en su número de neutrones. En el caso del hidrógeno existen tres isótopos distintos, uno sin neutrones, el hidrógeno-1, que supone el 99,98% del hidrógeno que existe en la naturaleza, que se llama simplemente hidrógeno o protio, luego también existe el hidrógeno-2 o deuterio, que tiene un protón y un neutron en su núcleo y supone el 0,015% del hidrógeno y por último el hidrógeno-3 o tritio, que es muy inestable y escaso.

55
Q

Explica el descubrimiento de los quarks y de la fuerza nuclear fuerte

A

Tras el descubrimiento del protón, a los científicos de la época se les hacía extraño que los núcleos atómicos pudieran existir, a pesar de que reunen partículas de igual carga. El descubrimiento del neutrón dió supuso un pequeño paso hacia la respuesta, pero la pregunta seguía vigente. A principios de los años setenta, la comunidad científica pensaba que los protones y neutrones eran partículas fundamentales de unos 10^-13 metros de tamaño, por lo que no tendrían estructura interna. Esta idea fue desafiada por Murray Gell-Mann y George Zweig, quienes propusieron que los protones y electrones estarían compuestos por unas partículas llamadas quarks. Existen 6 tipos distintos de quarks en función de su “sabor”: arriba, cima, encanto, extraño, fondo y abajo. Los quarks poseen la característica especial de que tienen carga fraccionaria, teniendo los quarks arriba, cima y encanto carga de 2/3 y los quarks extraño, fondo y abajo tienen carga -1/3. Para formar una partícula tres quarks se tienen que juntar para dar una carga entera, de esta manera un protón tiene carga 1 al juntar dos quarks arriba y uno abajo y un neutron no tiene carga al juntar dos quarks abajo con uno arriba. Además, debido al principio de exclusión de pauli sabemos que no pueden formar parte del mismo sistema dos partículas con características iguales, por lo que debía de existir otra característica para los quarks. A esta característica se le llamó “color”, existiendo el rojo, azul, verde, antirojo, antiazul y antiverde, siendo posible cualquier combinación de tres quarks que de el color blanco. Para demostrar la existencia los quarks se hizo un experimento similar al que hizo Rutherford, en este se lanzarían chorros de electrones acelerados a velocidades cercanas a las de la luz, gracias al acelerador de partícular SLAC de California (que consiste en un tubo de unos 3,2 kilómetros de longitud), contra hidrógeno líquido para comprobar si los electrones seguían una línea recta, en caso de que los protones fueran partículas fundamentales (ya que su carga estarían repartida por toda su superficie, por lo que no habría muchas pertubaciones en la dirección del electrón) o si se dispersaban, en caso de que estuviera compuesto por quarks. Los experimentos se realizaron entre 1967 y 1973 e inicialmente se experimentó con protio, para más adelante experimentar con deuterio, de manera que también se pudieran observar los efectos sobre los neutrones (se tenía que usar deuterio y no neutrones libres ya que estos sólo permanecen estables durante unos 10 minutos), pudiendo diferenciar si los electrones habían pasado por un neutrón o un protón al ya saber los efectos que sucedía el pasar por un protón. Los resultados del experimentos mostraron que los electrones se desviaban y que lo hacían en la mendiad en los que cabría esperar si los quarks fueran reales, por lo que se demostró que los protones y neutrones no eran partículas fundamentales, a diferencia de los quarks y los electrones. El tamaño de los quarks es demasiado pequeño para nuestro aparatos de medida, pero se estima que tienen un tamaño mínimo de 4,3 * 10^-17. La respuesta a cómo es que los quarks se mantienen unidos es debido a su “color” ya que los colores distintos se atraen de forma muy intensa a distancia cortas, lo que se conoce como “fuerza de color”. Esta fuerza de color no sólo afecta a los quarks de un mismo protón o electrón sino que también atrae a los quarks de las partículas que los rodean, es decir que la fuerza que mantiene unidos a los protones y neutrones de un núcleo, la llamada “fuerza nuclear fuerte”, es en realidad la “fuerza de color” que une a los quarks de distintos protones y neutrones. Por esto es necesaria la existencia de los neutrones en el núcleo, ya que permite atraer a los componentes del núcleo sin que se repelan por fuerzas electroestáticas.

56
Q

Explica cómo sucede la emisión de partículas alfa

A

En 1902 Rutherford y Frederick Soddy descubrieron que los elementos radiactivos que emiten partículas alfa se acaban convirtiendo en un elemento con dos protones menos, por ejemplo el uranio se va convirtiendo en torio a medida que va liberando radiación alfa. Además, la relación entre la masa y la carga hipotetizó que las partículas alfa eran núcleos de helio que contienen justamente 2 protones (y 2 neutrones, aunque estos aún no se habían descubierto). En 1907 demostró esta hipótesis junto con Thomas Royds en un experimento que consistió en bombardear un tubo de ensayo de cristal muy fino con partículas alfa para luego pasar una corriente eléctrica por el tubo para comprobar si aparecían átomos de helio al suministrarlos de electrones, lo que comprobarían con un espectroscopio con lo que acabarón confirmando la hipótesis. La explicación de como sucede la emisión de las partículas alfa dice que la razón por la que a partir de los elementos con 84 protones en adelante (a partir del polonio) todos los isótopos son radiactivos es que los núcleos son tan grandes que la fuerza núclear fuerte no es capaz de mantener el núcleo estable, ya que si bien es una fuerza muy intensa lo es sólo a distancias muy cortas, mientras que la fuerza elestroestática no es tan intensa pero decrece menos con la distancia, por lo que acaba superando a la fuerza nuclear fuerte. Aunque a partir de los 84 protones todos los isótopos de los elementos son radiactivos, los elementos anteriores también tienen isótopos cuya mala proporción de protones y neutrones los hace radiactivos.

57
Q

Explica la emisión de partículas beta y la fuerza nuclear débil

A

En 1913, tanto Frederick Soddy como Kazimerz Fajans habían observado, de forma independiente, que los átomos de un elemento que emiten radiación beta se acaban transformando en el elemento que posse un protón más que el elemento original. Además, en 1911 se descubrió que emiten radiación beta pierden una cantidad de masa ligeramente mayor de la que se podía explicar si sólo se emitían un electrón. Para explicar este suceso, Enrico Fermi postuló en 1933 que al liberar partículas beta, los átomos también emitan otra partícula que bautizó como neutrino, por su pequeño tamaño y carga neutra. Además, Fermi también dijo que los electrones no provendrían de la nube de electrones del átomo sino del núcleo. Fermi explicó que los electrones provenientes de la emisión de las partículas alfa se originarían tras la descomposición de un neutrón del núcleo del átomo en un protón, electrón y antineutrino. Mientras que el protón se quedaría dentro del núcleo por la fuerza de color, el electrón y el antineutrino no sentirían esta fuerza y serían expulsados por la fuerza nuclear débil. La fuerza nuclear débil permite que los quarks cambien de sabor al interactuar con los llamados bosones W, que pueden tener una carga igual a la del protón (W+) o del electrón (W-). Por ejemplo cuando un quark arriba (carga 2/3) interacciona con un boson W-, este se transforma en un quark abajo (con -1/3). Esto es lo que puede hacer que un neutrón se transforme en un protón, ya que si uno de los quarks abajo de un neutrón emite un boson W-, este se transformará en un quark arriba, lo que transforma al neutrón en un protón. A su vez, el boson W- se descompone muy rapidamente, produciendo un electrón y un antineutrino, que salen disparados del núcleo. Este fenómeno se conoce como desintegración beta negativa. La desintegración beta positiva es el proceso en el que uno quarks arriba de un protón emite un boson W+ y se transforma en un quark abajo, con lo que transforma al protón en un neutrón. A su vez, el boson W+ se descompone en un positrón y un neutrino. Una diferencia importante entre la desintegración negativa y la positiva es que la negativa puede suceder para los neutrones libres, de hecho es lo que hace que los neutrones libres tengan una vida media de entre 10 y 15 minutos (he encontrado datos entre ambos valores), mientras que la desintegración positiva no puede suceder para los protones libres, ya que supondría romper la ley de la conservación de la energía, aunque sí que puede suceder en casos en los que haya más energía implicada, por ejemplo si un protón absorbe un electrón o si la variación en las energías potenciales que habría en un núcleo al transformar un protón en un neutrón son las suficientes como para que no se rompa la ley de conservación de la energía. A pesar de que todas estas explicaciones puedan resultar antiintuitivas los bosones W fueron detectados en 1983 en el Súper Sincrotrón de Protones, en Suiza.

58
Q

Explica las cadenas de desintegración

A

En 1913 Frederick Soddy observó que un elemento radiactivo va transformandose en otro elemento mientras emite partículas alfa y beta hasta que no quedan partículas del elemento radiactivo. Sin embargo, muchos elementos radiactivos se acaban desintegrando en otros elementos radiactivos que a su vez se convierten en otros elementos, a la secuencia en la que un elemento se va transformando en otros hasta dejar de ser radiactivo se conoce como cadena de desintegración y principalmente lo que puede suceder es que un elemento libere radiación alfa y pierda dos protones y neutrones (se reduce en cuatro su número másico) o que libere uno de sus neutrones en un protón (manteniendo su número másico). Por ejemplo la secuencia de desintegración del torio-232 es torio-232, radio-228, actinio-228, torio-228, radio-224, radón-220, polonio-216, plomo-212, bismuto-212, el cual se puede transformar o en talio-208 o polonio-212, ambos que se acaban por transfomar en plomo-208, que no es radiactivo. En esa época aún no se conocían los neutrones, por lo que tampoco la de los isótopos, por lo que desde el punto de vista de Frederick Soddy, cadenas de desintegración como la del uranio eran muy extrañas, pues a lo largo de la cadena se había llegado a distinguir la masa de 40 elementos que no coincidían con ninguno conocido, lo que en su época significaría que habría descubierto hasta 40 elementos nuevos. Sin embargo, entre el uranio y el plomo sólo quedaban 10 espacios vacíos en la tabla periódica, siendo lo que en realidad estaba observando distintos isótopos de los 10 elementos desconocidos en ese momento. Otra propiedad de la desintegración de los elementos radiactivos la descubrió Rutherford y esta era que independientemente de la masa de la muestra y de la presión o temperatura a la que estuviera expuesta la muestra, en un tiempo determinado siempre se transformaba el mismo porcentaje de material. Así se llamó al periodo de semidesintegración al tiempo que una muestra tardaba en transformar la mitad de las partículas presentes en otras. Entonces si tenemos una muestra de un material radiactivo, al pasar un periodo de semidesintegración quedará el 50% del material original, si pasa otro periodo de semidesintegración el 25%, si pasa otro el 12,5% y así sucesivamente. El periodo de semidesintegración varía bastante en función del isótopo radiactivo, por ejemplo el uranio-238 (el 99,27% del uranio presente en la Tierra), el isótopo máas estable del uranio, tiene un periodo de semidesintegración de 4.500 millones de años, lo que es aproximadamente el tiempo que lleva existiendo la Tierra, por lo que aproxidamadamente la mitad de uranio-238 que había en el origen de la Tierra se ha transformado, en cambio hay otros isótopos como el uranio-235 que tiene un periodo de unos 700 millones de años o el uranio-237 que tiene un periodo de semidesintegración de 6,75 días. Hay elementos que en efectos prácticos ya han desaparecido de la Tierra, como el tecnecio (Tc), este elemento tiene 43 protones y es el elemento más ligero del que todos sus isótopos son radiactivos, su isótopo más estable tiene un periodo de semidesintegración de 4,5 millones de años, por lo que practicamente ha desaparecido todo el tecnecio que existía en el origen de la Tierra, aún así siempre existe algo de tecnecio en la Tierra debido a que es uno de los productos de la fisión espontánea del uranio. Lo mismo sucede con elementos como el radio o el polonio, cuyos isótopos más estables tienen periódos de semidesintegración de 1.600 años y 125 años, respectivamente. Hay otros, como el astato que se desintegra tan rápido que sólo existen entre 1 y 30 gramos en todo momento en la Tierra, de hecho su isótopo más estable tiene una vida media de 56 segundos. Hay otros elementos menos pesados que también tienen isótopos radiactivos, por ejemplo el potasio-40 (el 0,0117% del potasio existente) tiene un periodo de desintegración de 1.200 millones de años. Estos elementos tan ligeras sólo tienden a ser radiactivos por la radiación beta, ya que es muy difícil que puede liberar radiación alfa siendo tan pequeño (debido a la fuerza de la fuerza nuclear fuerte a esas distancias), aunque hay otros métodos, por ejemplo puede ocurrir la radiación beta positiva si uno de los electrones se precipita contra el núcleo y choca con un protón, lo que da lugar a un protón, liberando un neutrino (supuestamente también un positrón, pero no sale en el libro), así se convierte por ejemplo el carbono-11 en boro-11, aunque también puede ocurrir que haya una mala proporción de protones y neutrones, por ejemplo el nitrógeno-11 (7 protones y 4 neutrones) que se puede deshacer de forma espontánea de uno de sus protones, transformandose en carbono-10, también puede pasar lo contrario, que hayan demasiado neutrones y se libere uno, por ejemplo el berilio-13 (4 protones y 9 neutrones).

59
Q

Explica la datación por carbono-14

A

La Tierra está constantemente siendo bombardeada por radiación del espacio. Esta radiación, aparte de la electromagnética, son núcleos atómicos acelerados por eventos como las supernovas, sin embargo esto no supone un peligro ya que la atmósfera es capaz de absorberla. Los rayos cósmicos han sido acelerados a fracciones considerables de la velocidad de la luz, lo que hace que tengan la energía suficiente como para romper los átomos de gas de las capas superiores de la atmósfera, que liberan sus protones y neutrones en todas direcciones. Puede suceder que uno de los neutrones que han sido expulsados choque contra átomos de nitrógeno-14, expulsando uno de sus protones y quedando incrustado en su lugar, lo que lo vuelve un átomo de carbono-14. Este es un isótopo radiactivo del carbono que tiene un periodo de semidesintegración de unos 5.730 años, con lo que libera radiacion beta y se vuelve a transformar en nitrógeno-14. El carbono-14 comparte todas las propiedades químicas del carbono-12, es decir que puede formar cualquier compuesto que el carbono-12 pudiera formar. Esto significa que puede formar dióxido de carbono con el oxígeno de la atmósfera, el cual puede ser absorbido por las plantas para realizar la fotosíntesis, aprovechando el carbono-14 para la producción de azúcares, con lo que pasa a formar parte de los tejidos vegetales y, después de que sean comidos por un animal, de los animales. Ya que además la radiación cósmica que recibe la Tierra es bastante constante, por lo que la producción natural de carbono-14 también lo es, de manera que la proporción de carbono-12 y carbono-14 se debería de mantener relativamente constante. Sin embargo, el uso de combustibles fósiles hace que la proporción cambie, ya que el combustible fosil tiene millones de años, por lo que apenas queda carbono-14 en ellos. Lo que es mucho más importante que esto último fue la experimentación con bombas atómicas, que produjo que crearon tanto carbono-14 en la atmósfera que no es posible datar correctamente los seres vivos que murieron después de 1955, de hecho en 1963 los niveles de carbono-14 doblaron la cantidad natural, aunque hay que decir que desde que se prohibieron las pruebas con bombas atómicas los niveles de varbono-14 ha decrecido bastante, aunque aún no han vuelto a la normalidad, a esto último también a ayuda la liberación de carbono-12 por parte de los combustibles fosiles (aunque el libro dice que el efecto de esto sólo ha diluido en un 2% la cantidad de carbono-14, lo que me parece poco, así que no sé si tiene en cuenta lo que habría pasado sin las pruebas atómicas o si habla del efecto que tuvo antes de ellas, aún así hay que decir que los motivos del cambio climático no son sólo la incorporación de nuevo dióxido de carbono a la atmósfera sino también la destrucción de los sistemas que lo absorben, como la deforestación). La datación por carbono-14 está limitada tanto por su periodo de semidesintegración relativamente corto, que hace que no se puedan datar restos de hace más de 50.000 años, además de que sólo permite datar restos orgánicos.

60
Q

Explica la datación por zircón

A

Hay otros métodos de datación aparte de la datación de carbono-14 que permiten datar materiales con mucha más antigüedad, por ejemplo hay algunos minerales muy resistentes que contienen materiales radiactivos que permiten calcular la edad del mineral, uno de estos es el zircón, este mineral tiene una estructura cristalina compuesta por átomos de circonio, silicio y oxígeno, este mineral es muy resistente, lo que le ha permitido resistir a la erosión durante miles de millones de años sin alterarse. Lo que permite datar con este mineral es que puede contener dentro de su estructura cristalina átomos de uranio, debido a tener propiedades químicas que le permiten formar parte de la estructura. El uranio posee un periodo de semidesintegración mucho más largo que el del carbono-14 y al final de su cadena de desintegración produce plomo, que de forma natural no podría formar parte del zircón, por lo que todo el plomo que se halle dentro de él ha sido producido por el uranio, de manera que al conocer la proporción de uranio y plomo podemos calcular la edad del mineral, lo que, si bien no tiene porque indicarnos la edad de los minerales que tenga cercanos, sí que puede ayudarnos a aproximar la edad de la Tierra. Por ejemplo el cristal de zircón más antiguo encontrado tiene una edad de 4.375 millones de años, lo que concuerda con otros datos que apuntan a que la Tierra tendría alrededor de unos 4.500 años de antigüedad. Este proceso también se puede aplicar a los meteoritos, con lo que se ha calculado que el sistema solar tiene alrededor de 4.600 millones de años.

61
Q

Explica la producción de elementos químicos en los aceleradores de partículas

A

En teoría si lanzamos núcleos atómicos a alta velocidad, para lo que es necesario un acelerador de partículas, siendo el más grande de ellos el CERN, con 27 kilómetos de circumferencia; contra otros elementos nos es posible obtener elementos mayores en el caso en el que el núcleo atómico lanzado se queda incrustado en el otro elemento, de manera que por ejemplo deberíamos poder lanzar átomos de litio (que tiene 3 protones) contra una lámina de osmio (que tiene 76 protones) para conseguir oro (que tiene 79 protones), sin embargo en la práctica esto es bastante difícil, ya que lanzar núcleos a altas velocidades tienden a destrozar completa o parcialmente los átomos golpeados, lo que genera elementos distintos a los deseados, siendo más fácil romper átomos grandes para formar otros elementos más pequeños. Por ejemplo en 1980 Glenn Seaborg descubrió que tras bombardear una lámina de bismuto con átomos de carbono y neón a algunos de los átomos de bismuto se le habían arrancado 4 protones y entre 6 y 15 neutrones, volviendolos isótopos de oro. A pesar de que este sistema no sea para nada rentable para la obtención de materiales existentes en la naturaleza (generar oro por este método costaría 3,5 trillones de dólares por gramo de oro), sí que sirve para la obtención de elementos no existentes en la naturaleza, por ejemplo el americio (Am). Los detectores de humo contienen americio-241, un isótopo con un periodo de semidesintegración de 432,2 años, siendo el isótopo más estable del americio el de masa atómica 243, que posee un periodo de semidesintegración de 7.370 años, de manera que apenas existe de forma natural. Por ello el americio-241 se obtiene bombardeando plutonio-239 con neutrones para que se convierta en plutonio-241 que posee una vida media de 14 años (la vida media es el que tiempo medio en el que un átomo radiactivo se desintegra, este es 1,44 veces el periodo de semidesintegración), el cual emite una partícula beta para transformarse en americio-241, de manera que hay que esperar a que el plutonio se desintegre para obtener el americio-241, lo que es un proceso lento y costoso que hace que el americio cueste 1.500 dólares por gramo, aunque los detectores de humo sólo necesitan 0,3 microgramos de americio. Los detectores de humo funcionan gracias a que poseen unos detectores de partículas alfa que detectan la radiación que emite el americio, de manera que si no le llega partículas alfa significará que se ha metido humo en el detector, que está obstruyendo el camino entre el americio y el detector de partículas alfa, con lo que empezará a pitar.

62
Q

Explica los límites de la tabla periódica

A

Hasta el momento existen 118 elementos en la tabla periódica, siendo el último de ellos el organesón, descubierto en 2015. Los elementos tan masivos como este son tan radiactivos que la única manera de obtenerlos es fusionando átomos para crearlos, por ejemplo para obtener 4 átomos de organesón fue necesario disparar unos 40 millones de iones de calcio a una lámina de californio. Estos átomos se acabarón desintegrando en un par de milisegundos, aunque fue más tiempo que 10^-14 segundos, el tiempo necesario para que se forme la nube de electrones, que es lo necesario para que sepueda considerar un elemento. Si bien en general cuantos más protones y neutrones posee un átomo más rápido se desintegrará un elemento radiactivo, existen ciertas combinaciones que aportan relativa estabilidad que, estas combinaciones son conocidas como “islas de estabilidad”, estas podrían poseer tiempos de semidesintegración de entre 1 minuto y varios millones de años. Actualmente se cree que podría haber una isla de estabilidad en el elemento con 120 protones y alrededor del elemento con 164 protones, aunque no se sabe a ciencia cierta cual es el número máximo de protones que puede poseer un átomo, anteriormente se pensaba que no podrían haber más de 128, 137 o 155 elementos, sin embargo hoy en día se piensa que no deberían haber elementos con más de 173 protones (aunque la IUPAC tiene nombres provisionales para hasta el elemento con 999 protones). Tampoco se conoce muy bien las propiedades químicas de estos elementos masivos, ya que a pesar de que existan predicciones estas son muy difíciles de contrastar, de hecho más allá de los elementos con 108 protones, sólo se conocen las propiedades aproximadas del copernicio (112 protones) y el flevorio (114 protones) e incluso si se encontrara una de estas islas de estabilidad los procesos para conseguir estos elementos serían demasiado caros como para que puediera ser rentable su utilización.

63
Q

Explica la energía producida por los elementos radiactivos

A

Las partículas alfa que emiten los núcleos radiactivos se mueven a unos 15.000 km/s, mientras las partículas beta casi alcanzan la velocidad de la luz. Hay algunos elementos radiactivos a los que les sobra tanta energía que incluso emiten rayos gamma. Estos fenómenos hacen que aumente la temperatura de los alrededores, pudiendo hasta volver incandescente un trozo de material muy radiactivo, por ejemplo el plutonio. El el isotopo más longevo del astato que se puede encontrar en la naturaleza, el astato-219, con un período de semidesintegración de 56 segundos libera tanta energía que, asumiendo que los núcleos de astato-219 se descompusieran a través de la emisión de una partícula alfa el 100% de las veces (en realidad lo ha- cen el 96%, pero es para simplificar los cálculos) y conociendo la energía cinética de las partículas que emiten, se puede deducir que la descomposición de los 30 gramos de astato que existen en nuestro planeta en cualquier momento libera entorno a una energía equivalente a la producida por 10,5 toneladas de TNT durante el primer minuto. Sin embargo, en la cantidades adecuadas, los elementos radiactivos pueden ser una buena fuente de energía, por ejemplo, los satélites que se dirigen a zonas alejadas del Sol, y que por tanto no pueden aprovechar su energía con placas solares, llevan encima un pequeño bloque de algún elemento inestable que emite suficiente radiación como para que su temperatura se mantenga elevada durante años. A bordo de la nave, el bloque radiactivo se halla rodeado de termopares, dispositivos que son capaces de crear un potencial eléctrico a partir de una diferencia de temperatura y proporcionar a los circuitos de la nave la electricidad que necesitan para mantenerse en funcionamiento. A este sistema se le llama generador termoeléctrico de radioisótopos (o RTG, por sus siglas en inglés) y, curiosamente, como presenta la ventaja de que no contiene piezas móviles que puedan averiarse y, por tanto, no necesita mantenimiento, se utiliza también en tierra firme para proporcionar energía a las instalaciones que se encuentran en lugares muy remotos. Por ejemplo en Rusia, un lugar tan grande que la mayoría de su territorio está practicamente despoblado. la Unión Soviética equipó muchos de sus faros y balizas de navegación con células radiactivas. Se estima que aún quedan unos mil faros que han terminado su vida útil en zonas remotas del país, pero que siguen cargados de estroncio radiactivo y sin mucha vigilancia, motivo por el cual varias agencias piden su retirada.
El material radiactivo que se elige para un RTG depende en gran medida del tiempo que el aparato al que suministra la energía vaya a pasar activo. Por otro lado, el estroncio-90 es abundante en los desechos radiactivos de las centrales nucleares, así que se trata de una alternativa mucho más barata al Plutonio-238, pero tiene la desventaja de que su período de semidesintegración es de «sólo» 28,8 años y que alcanza temperaturas menores que el uranio. Otras alternativas son el polonio-210 y el americio-241. Los sistemas RTG también se han usado en boyas meteorológicas, faros, instrumentos sismográficos e incluso en los marcapasos. Esto se dió en los años setenta, ya que las baterías químicas que llevaban los marcapasos anteriores eran muy molestas ya que fallaban a menudo, lo que hacía que las tuvieran que cambiar con frecuencia. Este problema se solucionó cuando empezaron a aparecer los primeros marcapasos nucleares que funcionaban gracias a unos RTG en miniatura que iban cargados con entre 0,2 y 0,4 gramos de plutonio-238, capaz de proporcionar energía a su circuito durante muchísimos años. Las partículas alfa y beta emitidas por el plutonio se veían absorbidas por las paredes del marcapasos, produciendo la diferencia de temperatura que generaba la corriente eléctrica, así que el riesgo para el paciente era prácticamente inexistente.
Pero el invento no pasó mucho tiempo en el mercado. A mediados de los años ochenta, los marcapasos nucleares habían sido sustituidos por los de baterías de litio que, pese a que tenían una vida útil de entre diez y quince años, se consideraban una alternativa más segura. Curiosamente, no era el miedo a que el plutonio de los marcapasos estuviera haciendo daño a los pacientes lo que preocupaba a las autoridades, ya que tan sólo aumentaba en un 25 % la dosis de radiación a la que estaban expuestos anualmente de manera natural, sino la posibilidad de que, después de que fallecieran, el marcapasos pudiera ser incinerado con ellos por accidente.
El calor producido por los elementos radiactivos también es muy importante para la vida en la Tierra, ya que se estima que hasta el 50% del calor interno de la Tierra proviene de la desintegración de los elementos radiactivos que contiene (como el uranio, el torio o el isótopo radiactivo del potasio), siendo el resto el calor residual producido por los impactos entre los cuerpos que dieron lugar a nuestro planeta. A pesar de todos estos usos, las plantas de energía nuclear utilizan la fisión nuclear para la producción de grandes cantidades de energía.

64
Q

Explica la fisión nuclear

A

Los núcleos radiactivos no sólo pueden ganar estabilidad emitiendo partículas alfa y beta o incluso con la emisión de un protón bajo circunstancias especiales sino que, a veces, el núcleo atómico está tan incómodo que directamente prefiere ganar estabilidad partiéndose por la mitad, formando dos nuevos núcleos más ligeros. A este proceso se le llama fisión nuclear. La fisión de un átomo libera una cantidad tremenda de energía. Tanta, de hecho, que la energía que contiene un trozo de combustible nuclear es millones de veces mayor que la contenida en los enlaces químicos de los combustibles fósiles, como el carbón o la gasolina. Pero para liberar toda esa energía hay que conseguir que la mayor parte de los átomos que contiene un bloque de material radiactivo se descompongan a través del mecanismo de la fisión lo que es complicado porque, en condiciones normales, los átomos radiactivos son muchísimo más propensos a ganar estabilidad a partir de la emisión de una partícula alfa o beta que a partirse por la mitad. En el caso del uranio-235, el isótopo- ро fisible más utilizado en las centrales nucleares, sólo 1 de cada 500 millones de núcleos se descomponen a través de la fisión de manera natural. Por suerte, la fracción de átomos que se fisionan se puede alterar bajo las condiciones adecuadas.
Cuando un átomo de uranio-235 absorbe un neutrón, su núcleo se desestabiliza e intenta convertirse en uranio-236, pero se deforma tanto durante el proceso que termina dividiéndose en dos núcleos diferentes. Por tanto, se puede forzar a que la mayoría de los átomos de un bloque de uranio-235 se fusionen a través de este mecanismo si se bombardean constantemente con neutrones. Curiosamente, no se puede predecir qué dos nuevos núcleos más ligeros van a producir la fisión de un átomo en concreto pero, estadísticamente, se sabe que uno de ellos contendrá alrededor de 95 partículas en su núcleo, mientras que el otro rondará las 137. Pero, además de producir dos átomos nuevos, la descomposición de un elemento a través de la fisión también emite partículas sueltas, como por ejemplo neutrones. Y esto es muy importante en el caso que nos ocupa, porque cada átomo de uranio-235 emite tres neutrones cuando se fisiona. Sin embargo, si cada uno de los tres neutrones iniciarán nuevas fisiones y estas otras y así sucesivamente se estaría produciendo una bomba atómica liberando una cantidad de energía descontrolada de forma muy rápida. Los sistemas de las centrales pueden aprovechar la energía de la fisión si se libera lentamente. Si se controla el ritmo al que transcurre la reacción de fisión en cadena que se produce en el interior de un bloque de material radiactivo, puedes conseguir que se mantenga a una temperatura lo suficientemente elevada como para que ese calor se pueda utilizar de una manera segura. Por esta razón el objetivo principal de un reactor nuclear es absorber dos de los tres neutrones que emite cada átomo después de fisionarse, de modo que la fisión de cada uno de los átomos sólo detone la fisión de uno más, prolongando la reacción en el tiempo en vez de magnificarla. Desde el punto de vista mecánico, las centrales nucleares producen energía como cualquier central térmica convencional, calentando agua para convertirla en vapor que hace girar una turbina conectada a un imán colocado en una bobina de cables. La diferencia está en que el calor que evapora el agua proviene de la fisión de material radiactivo. El concepto es sencillo, pero llevarlo a la práctica contiene algunos pasos enrevesados. En primer lugar, los cilindros de material radiactivo que contienen los tubos de una central nuclear no están compuestos por uranio puro, sino por óxido de uranio. Además, sólo entre el 3 y el 5% del uranio que contienen se encuentra en forma de uranio-235. El resto es uranio-238 que es mucho más estable y no es fisible. Y ahí está el primer problema: el uranio-235 representa sólo el 0,7% de cualquier muestra de uranio que puedes recoger en la naturaleza, así que el primer paso es aumentar la concentración de uranio-235 del material de partida. Como los dos isótopos tienen propiedades químicas idénticas, la única manera eficiente de separarlos es aprovechando que el uranio-235 es un 1,26% menos denso que el uranio-238. Para ello, se mezcla el uranio con flúor para producir hexafluoruro de uranio, un gas que se introduce en el interior de unas centrifugadoras que rotan a gran velocidad, de manera que las moléculas que contienen el uranio-238, al ser ligeramente más densas, están sometidas a una aceleración centrífuga mayor y se acumulan cerca las paredes del depósito. Las plantas de enriquecimiento de uranio están llenas de centrifugadoras conectadas en serie, de manera que el gas que está contenido más cerca del eje de la máquina, donde hay una mayor concentración de uranio-235, pasa a la siguiente para refinarlo aún más. Cuando el gas tiene la concentración de uranio-235 deseada, el uranio se separa químicamente del flúor para convertirlo de nuevo en un óxido y se prensa en forma de cilindros que se colocarán en el interior de las barras de combustible que alimentan el reactor nuclear.
Llegados a este punto, aparece otro problema: cuando un átomo uranio-235 se fisiona, los neutrones que salen disparados de su interior se mueven demasiado rápido como para que otros átomos de uranio-235 los capturen y se separen en dos núcleos nuevos. Por tanto, para reducir la velocidad de los neutrones que salen disparados entre las barras de combustible, éstas se sumergen en un medio que los ralentiza mientras pasan a través de él. Estas sustancias se llaman moderadores de neutrones y en el 75% de los reactores no es más que agua. Pero como hemos visto no queremos que todos los neutrones que salen despedidos del interior de las barras de combustible provoquen la fisión de algún otro átomo porque, como hemos visto, la situación se descontrolaría rápidamente. Por eso el ritmo al que se produce de la cadena de fisión se controla colocando varas de cadmio o de boro entre las barras de combustible, que absorben gran parte de los neutrones que salen de ellas. De todas maneras, estas barras dejan de ser necesarias a medida que los átomos de uranio se descomponen en elementos más ligeros ya que, con el tiempo, terminan siendo éstos últimos los que absorben el exceso de neutrones.
El primer neutrón que hace fisionar el uranio proviene de unas barras que se encuentran alrededor de los tubos de combustible. Estas barras contienen elementos que sí que se fisionan con frecuencia de manera natural y, por tanto, emiten neutrones constantemente. Un ejemplo son los átomos de californio-252, que ganan estabilidad a través de la fisión 1 de cada 32 veces.

65
Q

Explica el reactor nuclear natural que existió en Oklo

A

En la región de Oklo, en Gabón, un reactor nuclear subterráneo estuvo produciendo energía hace casi 2.000 millones de años. Esto fue descubierto en mayo de 1972, cuando los técnicos de una planta de enriquecimiento de uranio francesa descubrieron que unas muestras minerales que les habían enviado desde Oklo tan sólo contenían un 0,60% de U cuando, lo normal es que éste represente el 0,72% del uranio total. Parecía que, de alguna manera, alguien había estado fisionando el uranio-235 de la roca de donde procedían estas muestras, reduciendo su contenido. Como querían asegurarse de que no les estaban robando uranio para fabricar armas nucleares, el gobierno francés decidió investigar la mina de Oklo y el análisis de nuevas muestras de roca reveló que algunas de ellas tenían una concentración de U menor del 0,44%. Todo aquello era muy raro pero, cuando se midió la proporción isotópica otros elementos que contenía el material de la zona, como el neodimio o el rutenio, las autoridades entendieron lo que había pasado: parecía que el depósito de uranio había conseguido sostener procesos de fisión nuclear en el pasado y, a juzgar por las proporciones de los distintos elementos que había producido, se dedujo que este reactor natural estuvo activo hace unos 1.700 millones de años. En esta época hacía menos tiempo que la Tierra se había formado y, por tanto, el uranio-235 representaba alrededor del 3,1 % del uranio que contenía el planeta (en vez del 0,7% actual) porque había pasado por menos períodos de desintegración. Pero, para sostener una reacción de fisión controlada, no bastaba con que la proporción de uranio-235 en los minerales del lugar fuera la adecuada: este reactor nuclear natural empezó a funcionar cuando el depósito de uranio de Oklo se llenó de agua. El reactor de Oklo seguía un ciclo de tres horas. En primer lugar, el depósito se inundaba y el efecto moderador de neutrones del agua “encendía” el reactor, haciendo que el depósito de minerales empezara a calentarse. Este aumento de temperatura evaporaba el agua y, por tanto, las reacciones de fisión iban perdiendo intensidad hasta que la presión disminuye lo suficiente como para que el agua entrara de nuevo en el depósito y repitiera el proceso, entrando en un bucle que duró cientos de miles de años y se detuvo cuando el contenido de uranio-235 de los minerales descendió por debajo del límite que posibilita la fisión. Sin embargo, a día de hoy no podría seguir existiendo uno de estos reactores naturales, ya que actualmente el uranio-235 es el 0,72% del uranio total, lo que es demasiado bajo como para que se produzca uno de estos reactores naturales.

66
Q

Explica los efectos nocivos de la radiactividad y casos que aumentaron la concienciación al respecto y los usos positivos de la radiación que ha encontrado la medicina

A

La radiación nuclear daña nuestros cuerpos de manera parecida a la que lo hace, por ejemplo, la radiación ultravioleta del sol: las partículas que impactan contra nosotros son capaces de romper los enlaces moleculares, dañando y poniendo en peligro la integridad de las células. El impacto negativo de la radiación puede afectarnos de dos maneras diferentes.
Si recibimos una dosis relativamente baja de radiación, algo que depende tanto del número de partículas que chocan contra nosotros como de la energía de cada uno de los impactos, entonces el mayor peligro es que alguna de las partículas destruya parte del ADN de una célula y ésta se empiece a replicar sin control, convirtiéndose en un tumor. En este caso, el daño se produce a largo plazo. En cambio, si nos exponemos a una dosis de radiación muy alta, el intenso bombardeo de partículas sobre nuestros cuerpos puede destruir tantas células que nuestros órganos empiezan a fallar, provocando la muerte en unos días o semanas.
A pesar de estos peligros, en la época en la que no se conocían bien los peligros de la radiactividad (de principios hasta mitad del siglo XIX), o al menos no en la cultura popular proliferaron productos supuestamente milagrosos que contenían materiales radiactivos como, por ejemplo, dentífricos aderezados con tório que prometían dejar los dientes más blancos o jarras que liberan átomos de radón radiactivo en el agua que harían que te sintieras más “enérgico.”
Pero el caso más sonado fue el del Radithor, un producto que tuvo una gran repercusión mediática en 1930 porque provocó la muerte del atleta y aristócrata estadounidense Eben Byers.
Byers empezó a tomarlo aconsejado por su médico después de que sufriera una lesión en un brazo. Este brebaje, que prometía acelerar la recuperación de las enfermedades, era en realidad un frasco lleno de agua con alrededor de dos microgramos de radio (Ra) diluido en su interior Durante dos años, Byers estuvo bebiendo tres botellas de Radithor diarias. No hay duda de que no fue la mejor decisión de su vida. El Radithor contenía los isótopos radio-226 y radio-228, que se descomponen emitiendo una partícula alfa y una partícula beta respectivamente. Las partículas alfa son la forma de radiación nuclear que tiene el potencial de hacernos más daño porque se ven absorbidas por la materia con mucha facilidad. Pero esta capacidad para transferir energía a su entorno también limita las situaciones en las que nos puede hacer algún mal: disipan toda su energía después de recorrer sólo 6,7 centímetros a través del aire y una capa de aluminio de unas pocas centésimas de milímetro de grosor es capaz de detenerlas. Incluso aunque estemos lo suficientemente cerca de una fuente radiactiva como para que las partículas choquen contra nuestro cuerpo, éstas son detenidas por completo por nuestra piel que, dentro de lo que cabe, es un órgano muy resistente.
Pero si un elemento radiactivo termina dentro de tu cuerpo, entonces sus átomos pueden bombardear tus delicados órganos internos desde dentro con partículas alfa. Y ahí es donde hacen daño de verdad. Y por eso beber Radithor era una idea tan mala.
A Byers se le empezaron a caer los dientes en 1930 debido al daño que le estaba produciendo la radiación en la mandíbula. El radio se estaba acumulando en sus huesos, haciendo que perdiera masa ósea, y le empezaron a salir agujeros en el cráneo, además de abscesos en el cerebro. De hecho, parte de su mandíbula inferior tuvo que ser extirpada quirúrgicamente porque estaba demasiado dañada. Byers murió en 1932 pero, al menos, su muerte sirvió para concienciar a la población sobre los peligros de la charlatanería radiactiva y los productos como el Radithor desaparecieron del mercado. Otra historia interesante sobre la radiactividad es la de las Chicas del Radio, un grupo de mujeres que alrededor de 1917 fueron expuestas a dosis altas de radiación en una fábrica de Nueva Jersey que producía relojes con manecillas fluorescentes. Estas mujeres pintaban las manecillas a mano con una pintura radiactiva que contenía radio y que, según les habían dicho, era totalmente inofensiva. Convencidas de que esto era cierto, las trabajadoras no tenían ningún reparo en afilar las hebras de los pinceles con los labios o pintarse las uñas con esta pintura de vez en cuando. Pero con el tiempo algunas mujeres empezaron a sufrir anemia, sus huesos se volvían frágiles o desarrollaban necrosis en sus mandíbulas. La empresa atribuyó estos efectos a otras enfermedades, pero cinco de las trabajadoras (apodadas las Chicas del Radio) se unieron para llevarla ante los tribunales. La justicia terminó dándoles la razón, reconociendo que sus síntomas estaban causados por la manipulación de la pintura radiactiva y la empresa fue obligada a dotarlas con una compensación económica por los daños.
La última de las Chicas del Radio murió en la década de 1930. No se conoce el número total de trabajadores de la empresa cuya muerte pudo estar provocada por los efectos de la radiación a largo plazo pero, independientemente de la cifra, el caso tuvo una gran repercusión en los medios y sentó los precedentes que terminarían en la aprobación de la legislación que reconocía los derechos de los empleados ante las enfermedades laborales.
Aunque la radiación puede llegar a provocar nos cáncer, la medicina moderna también puede utilizarla para curarlo. Por ejemplo, la glándula tiroides absorbe la mayor parte del yodo que llega a nuestro cuerpo, de modo que si inyectas yodo-131 en tu torrente sanguíneo, los átomos de este isótopo radiactivo terminarán alojados en esta glándula. Esto es muy útil en los casos en los que un cáncer ha obligado a extirpar la glándula tiroides, porque se puede mandar una carga de yodo radiactivo hasta ella para que elimine las células cancerígenas que puedan haber quedado tras la cirugía. En otras terapias, se introducen anticuerpos artificiales en el torrente sanguíneo del paciente que simulan los anticuerpos humanos y van cargados con algún agente radiactivo. Estos anticuerpos deambulan por el cuerpo hasta que encuentran una célula cancerígena, se acoplan a ella y la irradian con su carga letal sin dañar al resto de las células sanas. Y luego está la radioterapia, por supuesto, la técnica en la que dirige un haz de radiación contra un tumor que destruye el ADN de las células malignas para limitar su crecimiento o incluso eliminarlas por completo, dependiendo del tipo de cáncer al que se aplique.

67
Q

Explica la radiación de fondo

A

La naturaleza nos está bombardeando con radiación de manera constante. No mucha, por supuesto, pero, básicamente, allá donde existan isótopos inestables de algún elemento, estaremos sometidos a su radiación. Un ejemplo inesperado son los plátanos, la comida más radiactiva que os podéis llevar a la boca. Como sabréis, los plátanos tienen un alto contenido en potasio (K) y, como he comentado, el 0,012% de todo el potasio que ocurre de manera natural se encuentra en la forma de 40K, un isótopo inestable que se descompone emitiendo una partícula beta o capturando uno de sus propios electrones, un proceso que emite rayos gamma.
Sin embargo, al no emitir partículas alfa, la radiación emitida por el K no es especialmente perjudicial para nuestro cuerpo. Además, su período de semidesintegración es muy largo (unos 1.200 millones de años), así que aunque 4.000 átomos de potasio se estén desintegrando en tu interior cada segundo, tendrías que comer tres- cientos plátanos, uno detrás de otro, para que te bombardearan con la misma cantidad de radiación que una radiografía, lo que tampoco sería algo demasiado preocupante porque la dosis recibida durante una radiografía también es muy baja.
En realidad, gran parte de la radiactividad que reciben nuestros cuerpos cada año proviene del uranio de manera indirecta. Incluso aunque nos pusieran un bloque de uranio delante de nuestras narices, su alto contenido en uranio-258 poco radiactivo difícilmente nos provocaría algún daño mientras el material permaneciera fuera de nuestro cuerpo. El problema es que el uranio-258 se convierte en radón-222 a lo largo de su cadena de desintegración, un isótopo inestable de este gas noble que, a diferencia del uranio, puede colarse con facilidad en nuestro organismo a través de las vías respiratorias y sabotearnos desde dentro con partículas alfa. Para rematar el asunto, los átomos de radón se convierten en polonio-210 después de varias transformaciones, otro elemento radiactivo que emite más partículas alfa y se convierte en plomo-206, que es estable, pero tóxico. Lo que es aún más problemático es que resulta que el uranio se encuentra de manera natural en muchos tipos de roca, como por ejemplo el granito. Por tanto, si tu casa está construida sobre este tipo de terreno, no está bien ventilada y han aparecido grietas en sus cimientos, el radón-222 producido por la descomposición del uranio se puede empezar a acumular en el aire y causar problemas a largo plazo. De hecho, se estima que, sólo en Estados Unidos, entre 15.000 y 22.000 muertes anuales por cáncer de pulmón son atribuibles al radón.
Por otro lado, parte de la radiación que recibimos cada año proviene directamente del espacio. Los rayos cósmicos de los que he estado hablando antes no sólo producen el isótopo radiactivo del carbono que respiramos y nos comemos sino que, además, generan grandes cantidades de partículas ligeras (protones, partículas alfa, electrones…) cuando destrozan los átomos de las capas altas de la atmósfera terrestre, que llueven sobre nosotros cuando llegan a la superficie. Como dato adicional sobre los depósitos de uranio es que normalmente es de ellos de donde se extrae el helio, ya que en estos depósitos las partículas alfa que se han estado emitiendo partículas alfas durante millones de años han recogido electrones de su entorno convirtiendo las partículas alfa en átomos de Helio.
La cantidad de radiación de origen espacial que recibirás cada año depende de la altura a la que vivas: cuanto más alta esté tu casa, menor será la cantidad de atmósfera que habrá por encima de tu cabeza para protegerte de la radiación. Por ejemplo, a una altura de 1,6 kilómetros, la ciudad de Denver recibe el doble de radiación anualmente que una ciudad que se encuentre a nivel del mar.38 Y, como podréis imaginar, la cantidad de radiación que recibimos también aumenta de manera sustancial cuando estamos surcando el cielo a bordo de un avión.
Combinando todas estas fuentes de radiación obtenemos la llamada radiación de fondo o radiactividad natural, la cantidad de radiación a la que estamos expuestos anualmente por mucho que intentemos huir de ella.
La radiación es un proceso estocástico (los sucesos anteriores no determinan completamente los futuros), lo que significa que una dosis mayor no tiene por qué ser necesariamente más letal, aunque sí que sea probable. Básicamente, esto se debe a que nada garantiza que alguna de las partículas que termina estrellándose contra tu cuerpo vaya a terminar provocando un cáncer o no. La dosis de radiación absorbida se mide en sieverts (Sv), donde una dosis de 1 Sv refleja un incremento del 5,5% en la probabilidad de desarrollar un cáncer a causa de ella.
La dosis de radiación que recibimos anualmente ronda entre los 3 y los 6 milisieverts (mSv). En los países desarrollados, la mayor parte de esta dosis procede de los procedimientos médicos y del aire.” El personal de los aviones recibe unos 2,19 mSv extras al año, mientras que el límite para cualquier trabajo está en los 50 mSv anuales, no pudiendo acumular más de 100 mSv durante cinco años en casos extraordinarios.

68
Q

Explica el proceso en el que una estrella como el Sol se acaba convirtiendo en una enana blanca

A

La materia que nos compone se generó en el interior de alguna estrella que la esparció por el espacio al terminar su vida en forma de supernova, todo lo que no esté compuesto únicamente por hidrógeno y helio, está compuesto por polvo de estrellas. Las estrellas son capaces de formar el resto de elementos gracias a la fusión nuclear. En condiciones normales, los núcleos de los átomos sólo se pueden acercar tanto unos a otros como los electrones de su órbita más externa les permitan. Como, de media, el diámetro de un núcleo atómico es alrededor de 100.000 veces menor que el del átomo en conjunto, los núcleos de los átomos siempre están increíblemente lejos los unos de los otros en condiciones normales. Pero en los núcleos de las estrellas las condiciones son lo suficientemente extremas como para que esto cambie. La materia que está contenida en el núcleo del Sol, que ni siquiera es una estrella especialmente grande, se ve comprimida por una presión equivalente a unos 100.000 millones de atmósferas. La fuerza compresiva que actúa sobre los átomos es tan intensa que sus núcleos se llegan a acercar lo suficiente como para que entren en contacto. Como resultado, los dos núcleos atómicos se pueden combinar para dar lugar a un nuevo núcleo que tiene un número de protones mayor y, por tanto, se ha convertido en un elemento nuevo. Este proceso, la llamada fusión nuclear, es la fuente de energía que proporciona el calor que permite que las estrellas brillen. La cadena de fusión nuclear que tiene lugar en el interior de las estrellas empieza con dos núcleos de hidrógeno o, lo que es lo mismo, con dos protones sueltos. La unión forzada de los dos protones provoca que uno de ellos se convierta en un neutrón, dando como resultado un núcleo de deuterio, el isótopo del hidrógeno que contiene un protón y un neutrón en su núcleo. A continuación, el deuterio se une con alguno de los núcleos de hidrógeno que lo rodea, formando un nuevo núcleo que contiene dos protones y un neutrón. Como el número de protones de su núcleo ha aumentado, nos encontramos ahora ante un elemento nuevo, el helio (He), concretamente el helio-3 Llegados a este punto, dos núcleos de helio-3 se pueden combinar entre sí para formar helio-4, el isótopo más abundante del helio y que está acompañado por dos neutrones, liberando dos protones en el proceso, puesto que originalmente lo que intenta formar la fusión de dos núcleos de helio-3 es un núcleo de berilio-6, que al no poseer suficientes neutrones como para evitar la repulsión de los protones, lo que acaba haciendo que se expulsen dos protones
Este proceso irá agotando las reservas de hidrógeno del núcleo de la estrella mientras la concentración de helio va aumentando. El tiempo que durarán estas reservas dependerá del tamaño de la estrella. El Sol, por ejemplo, ha agotado más o menos la mitad de su hidrógeno durante los 4.600 millones de años que lleva brillando, así que aún le queda hidrógeno para rato. Pero el Sol es una estrella mediana: aunque las estrellas más masivas tienen mayores reservas de hidrógeno, su núcleo está sometido a unas condiciones de presión y calor tan intensas que las reacciones nucleares se suceden a un ritmo muchísimo mayor. Como resultado, las estrellas gigantes pueden utilizar todo su hidrógeno en unas pocas decenas de millones, o incluso sólo millones, de años. Aparte de la formación de nuevos elementos, durante la fusión nuclear también se emite un montón de energía, tanto en forma de rayos gamma como de partículas más pequeñas que se mueven a velocidades muy altas. Estos subproductos de la fusión nuclear sacuden con fuerza los átomos que los rodean, haciendo que se muevan más rápido y, por tanto, aumentando su temperatura. O sea, que la radiación producida por las reacciones de fusión del núcleo de las estrellas es lo que les proporciona el calor que las convierte en bolas de gas incandescente. Al ser ligeramente más denso que el hidrógeno, la gravedad va acumulando en el centro de la estrella el helio producido por las reacciones de fusión nuclear. Pero el núcleo de una estrella mediana (como el Sol) no está sometido a la temperatura y presión necesarias como para fusionar ese helio en elementos más pesados y producir energía de modo que, a medida que el hidrógeno se agota, su núcleo se va debilitando hasta que llega un momento en el que la potencia de la fusión nuclear ha disminuido tanto que deja de ser capaz de oponerse al peso de toda la masa de la estrella. Curiosamente, cuando esto ocurre la gravedad comprime un poco la estrella, creando una nueva región alrededor del nuevo núcleo de helio donde el calor y la presión aumentan lo suficiente como para que la fusión del hidrógeno continúe en ella. Esta nueva capa tiene un volumen mucho mayor del que tenía el núcleo de hidrógeno original, así que la estrella empieza a generar más calor que nunca. Este aumento de la producción energética hace que la luminosidad global de la estrella aumente entre 1.000 y 10.000 veces pero, su superficie se empieza a enfriar. Esto se debe a que las nuevas reacciones de fusión más energéticas empujan las capas externas de la estrella desde dentro, alejándolas del núcleo y, como resultado, el calor producido durante esta fase termina repartido por una superficie mucho mayor. Como consecuencia la temperatura de la superficie de la estrella disminuye durante esta fase de expansión y su brillo adopta longitudes de onda más largas, por lo que acaba emitiendo una luz con tintes anaranjados o rojizos. Por esta razón los astrónomos llaman a estas estrellas gigantes rojas, una fase en la que pueden hincharse hasta alcanzar un tamaño cientos de veces mayor a su diámetro original. De hecho es muy posible que el Sol termine tragándose la Tierra cuando se convierta en una gigante roja. Los astrónomos no saben con seguridad si esto va a ocurrir o no pero, suponiendo que el Sol no se llevara nuestro planeta por delante durante este proceso y que viviéramos miles de millones de años, podríamos llegar a ver la siguiente fase de su evolución. La fusión continúa alrededor del núcleo inerte de helio hasta que el hidrógeno se agota de nuevo, la estrella se vuelve a contraer y aparece otra región nueva alrededor del núcleo, ahora un poco más grande, donde el hidrógeno puede seguir fusionando. Este ciclo se repite mientras la estrella se expande hasta que no queda hidrógeno lo suficientemente cerca del núcleo como para inaugurar una nueva capa que pueda sostener la fusión de este elemento.
Llegados a este punto, si la estrella tiene una masa equivalente a entre 0,5 y 8 veces la de nuestro Sol, en su núcleo se darán las condiciones de calor y presión necesarias para que el propio helio se empiece a fusionar a través del llamado proceso triple alfa, en el que tres núcleos de helio-4 se unen para formar uno de carbono-12. Además, algunos átomos de Carbono-12 se unen con otro núcleo de Helio-4, dando como resultado átomos de oxígeno. Eso sí, las estrellas que se encuentran en este rango de tamaños son incapaces de fusionar el carbono o el oxígeno para producir otros elementos aún más pesados, como el neón. Por tanto, cuando la estrella agota su hidrógeno, empieza a “quemar” el helio alrededor de un creciente núcleo de neón y oxígeno. Mientras todo esto tiene lugar alrededor del núcleo de la estrella, las reacciones cada vez más energéticas de fusión nuclear empujan hacia afuera las capas externas de la estrella, que empiezan a difuminarse por el espacio y a formar una nebulosa planetaria. Las nebulosas planetarias se llaman así porque, por su forma, a William Herschel le dio la impresión de que parecían los discos de un planeta a través del telescopio, no porque vayan a formar planetas nuevos ni nada por el estilo. En el centro de esta gigantesca masa dispersa de gas quedará una enana blanca, el núcleo de carbono y oxígeno de la estrella original, cuya masa puede oscilar entre 0,17 y 1,33 veces la masa del Sol.

69
Q

Explica las enenas blancas

A

Las enanas blancas son objetos bastante curiosos, ya que estos escombros estelares tienen el tamaño de un planeta rocoso, pero una masa comparable a la de una estrella. Estas dos características combinadas hacen que la materia que componen las enanas blancas alcance densidades tremendas, del orden de miles de millones de kilos por metro cúbico, lo que se debe al estado inusual bastante inusual en el que se encuentra la materia en una enana blanca. La densidad de una sustancia depende de la cantidad de partículas que caben en un volumen determinado. Por ejemplo, los núcleos atómicos, compuestos por protones y neutrones, tienen una densidad que ronda los 230.000 billones de kilos por metro cúbico, debido a que los protones y los neutrones tienen una masa enorme (para ser partículas) y están muy juntos. Pero, claro, su densidad no se refleja en el mundo macroscópico en condiciones normales porque el núcleo del átomo medio tiene un diámetro 100.000 veces menor que su capa más externa de electrones, de manera que el 99,99999999999% del volumen de un átomo y, por tanto, de la materia que nos rodea, es espacio vacío, lo que provoca que su densidad global sea mucho más baja. De hecho, el elemento químico más denso conocido, el osmio, tiene una densidad de 22.590 kg/m3. Esto significa que una botella de agua de un litro llena de osmio pesaría 22,59 kg.
Pero la materia que compone una enana blanca tampoco se encuentra sometida a condiciones muy normales. En el interior de las enanas blancas ya no se producen reacciones de fusión nuclear, así que no tienen manera de mantener a raya su propia masa que, impulsada por la gravedad, empieza a compactarlas con tanta fuerza que aplasta los átomos hasta que todos sus electrones están tan cerca sus núcleos atómicos que dejan de estar ligados a él. Llegados a este punto, la gravedad se encuentra con la resistencia que ofrece la repulsión entre los electrones, que impide que la estrella siga comprimiéndose. Esta repulsión no es causada por la repulsión entre carga sino por la repulsión cuántica entre los electrones, provocada por el principio de exclusión de Pauli, la ley que impide que dos partículas con las mismas propiedades existan en la misma región estadística.
Por otro lado, como las enanas blancas no tienen ningún mecanismo interno que produzca energía, irradiarán al espacio el calor acumulado durante su formación, enfriándose mientras su luz se apaga a lo largo de escalas de tiempo inimaginables.

70
Q

Explica el proceso por el que las estrellas gigantes se acaban convirtiendo en supernovas

A

Las estrellas que pueden llegar a formar una supernova son las estrellas gigantes, estrellas que poseen como mínimo más de ocho veces la masa del Sol. Estas empiezan su vida de la misma manera que las demás, fusionando el hidrógeno y el helio en sus núcleos hasta que el carbono y el oxígeno empiezan a ocupar su lugar en el centro de la estrella. Pero esto no es un contratiempo para estas estrellas tan masivas, porque en su núcleo se dan las condiciones de presión y calor necesarias para que los átomos de estos elementos se fusionen y sigan produciendo energía. De hecho, pueden fusionar elementos mucho más pesados que el oxígeno. A medida que el interior de la estrella va generando elementos cada vez más pesados, éstos se van ordenando según su densidad, formando varias capas a lo largo del volumen de la estrella en las que los elementos más densos terminan más cerca del núcleo. En cada una de estas capas, la fusión produce elementos más pesados que se hunden hacia la siguiente, donde se convierten en elementos que tienen aún más protones en su núcleo: helio, carbono, nitrógeno, oxígeno, neón, magnesio, cloro, calcio… Y así hasta llegar a las zonas más profundas de la estrella convertidas en níquel. Pero, al contrario que el resto de las reacciones que se llevaban a cabo hasta este momento en el núcleo de la estrella, la fusión del níquel absorbe energía en vez de producirla. Por tanto, cuando en el núcleo de una estrella muy masiva se acumula una cantidad de níquel considerable, de repente toda la energía producida por la estrella se invierte en fusionar este elemento, que no da nada a cambio. Llegados a este punto, las reacciones de fusión en el núcleo se detienen y, sin una fuerza contrarreste el efecto de la gravedad, toda la masa de la estrella se precipita hacia su núcleo con una rapidez extrema, alcanzando hasta un 23% de la velocidad de la luz. Esto hace que la estrella entera se comprima, generando presiones tremendas a lo largo y ancho de todo su volumen que provocan la fusión repentina de toda la masa de la estrella y una de las explosiones más intensas del universo, una supernova, un evento que pueden llegar a emitir tanta luz como el resto de la galaxia en la que tienen lugar. Estas explosiones descomunales no sólo esparcen por el espacio las entrañas ricas en elementos pesados de las estrellas gigantes, sino que, además, los núcleos atómicos que salen despedidos tras la explosión también colisionan y se fusionan, como si de un acelerador de partícu- las se tratara, formando el resto de los elementos pesados de la tabla periódica. Y así es como las estrellas gigantes llenan el espacio de elementos que nunca se habrían llegado a formar en el universo. Es por eso que, sin ellas, el espacio no contendría los elementos necesarios para formar planetas rocosos y, con una cantidad indeterminada de suerte, la vida.

71
Q

Explica distintas teorías que tuvieron mitologías antiguas sobre el origen del mundo

A

Es interesante conocer las ideas con las que las culturas antiguas intentaban explicar el origen del mundo que les rodeaba. En algunas versiones de la mitología china, cada parte del mundo se corresponde con un órgano diferente del cadáver de un dios gigante llamado Pangu. En la mitología Kuba, en África central, Mbombo era un gigante blanco que vomitó la Tierra después de sufrir un dolor de estómago. Los indios Kiowa-Apache creían que el mundo había sido creado por un tipo barbudo del tamaño de una rana que se llamaba Kuterastan. Muchas culturas hablan sobre un huevo cósmico del que nacería la Tierra. Algunas tradiciones egipcias sostenían que el mundo había surgido de las aguas sin vida del caos. Tales de Mileto creía que toda la materia provenía del agua, que tenía el poder de transmutarse en el resto de los elementos clásicos. Y había quien creía que las cosas no tenían un origen, que siempre habían estado allí. Pero, curiosamente, parece que nadie se esperaba que toda la materia que nos rodea proviniera del interior de esos pequeños puntos brillantes e inmutables que pasan cada noche por encima de nuestras cabezas

72
Q

Explica los comienzos de la teoría del todo

A

Gracias a Newton se consiguió una nueva manera de estudiar la física de una manera más matemáticamente rigurosa, además de que llegó a dar una teoría muy preciso sobre la gravedad, sustiyendo otras teorías como la de René Descartes, quien había propuesto que los planetas giraban alrededor del Sol porque estaban atrapados en remolinos de éter, una sustancia hipotética muy ligera, esto fue fácilmente desmentido por Newton ya que eventualmente el rozamiento con el éter detendría el movimiento de los planetas. Después de la gravedad se estudió la electricidad y el magnetismo, descubriendo que en realidad eran fenómenos producidos por la misma fuerza, la fuerza electromagnética, que aparecía por la existencia y el movimiento de cargas eléctricas, en la mayoría de los casos, electrones.
El hecho de que dos fenómenos tan aparentemente distintos tuvieran un origen común hizo que un científico británico llamado Michael Faraday se preguntara si, en realidad, la gravedad y la electricidad podrían estar también relacionadas de alguna manera. De hecho, Faraday llegó a postular que la fuerza atractiva a la que llamamos gravedad sería en realidad una forma de atracción electrostática provocada por la carga eléctrica opuesta de los objetos que están en órbita. La idea no era correcta pero, como descubridor del fenómeno de la inducción electromagnética, no es de extrañar que Faraday asumiera que un mecanismo parecido podría aparecer a gran escala. James Clerk Maxwell seguiría uniendo fenómenos aparentemente inconexos cuando añadió la luz a la lista de fenómenos causados por el movimiento de los electrones, lo que no haría más que intensificar la sensación de que, tal vez, había alguna manera de encontrar un origen común de la gravedad y el electromagnetismo. En el siglo xx, los científicos se pusieron manos a la obra, con la misión de encontrar una única interpretación de la realidad que explicara todas las fuerzas que gobiernan el universo. Una Teoría del Todo, vaya.
Albert Einstein fue uno de los pioneros en este campo. Después de que se le ocurrieran ideas tan revolucionarias como la teoría de la relatividad o explicara la causa del efecto fotoeléctrico, Einstein intentó dar con una interpretación de la realidad que permitiera unir los fenómenos de la gravedad y el electromagnetismo. Pero, llegados a este punto de la historia, la tarea ya no parecía tan sencilla: la física cuántica había revelado que los electrones, las partículas que dan origen a la fuerza electromagnética, se rigen por las leyes estadísticas, una característica que no comparten con los objetos que interaccionan gravitacionalmente, como los planetas y las estrellas.
Hay que mencionar también que la fuerza electromagnética es muchísimo más fuerte que la gravedad. Podéis observar a lo que me refiero mirando los imanes que tienes pegados en la puerta de la nevera, que no caen al suelo pese a que la masa de todo nuestro planeta está tirando de ellos. De hecho, la intensidad de la fuerza gravitatoria que aparece entre dos electrones es 39 órdenes de magnitud menor que la fuerza electromagnética repulsiva que actúa entre ellos.
Para visualizar esta cifra se puede tener en cuenta que dos botellas de agua de un litro separadas por una distancia de un metro se ven repelidas con una fuerza de casi 50.000 billones de newtons debido a la repulsión producida entre los electrones que contienen, lo que equivale al peso de los 5 billones de toneladas de hielo que ha perdido nuestro planeta desde 2002 debido al cambio climático. Aunque, en la vida real, los electrones de cada botella dan vueltas alrededor de los núcleos atómicos que componen las moléculas de agua, que contrarrestan el efecto con su carga positiva.
Más allá de estas diferencias, la gravedad y el electromagnetismo sí que tienen un rasgo en común: el alcance de las dos fuerzas es (teóricamente) infinito y la intensidad de ambas disminuye con el cuadrado de la distancia. De todas maneras, a Einstein no le hacía ninguna gracia el indeterminismo que acompaña a la mecánica cuántica. De hecho, su famosa frase “Dios no juega a los dados” es una referencia a su negativa a aceptar que existen fenómenos naturales que se rigen por el azar. Y, con su no tan famosa respuesta, “Einstein, deja de decirle a Dios lo que tiene que hacer”, Niels Bohr pretendía decirle que sus ideas preconcebidas no tenían un peso mayor que la realidad.
Más adelante se descubriría la fuerza nuclear fuerte y la fuerza nuclear débil, las cuales no se parecían a las anteriores fuerzas descubiertas, de hecho, cuando estas fuerzas se identificaron, se observó que cada una de ellas parecía actuar a una escala distinta.
Los efectos de la gravedad son los que dan forma al universo a gran escala, colocando grandes colecciones de átomos en órbita alrededor de otros, haciendo que colisionan o dándoles una forma más o menos esférica, como hemos visto. A nivel atómico, la fuerza electromagnética dirige el comportamiento de los electrones que, como también hemos visto, determina la interacción entre los átomos de toda la materia que nos rodea. En el reino aún más reducido del núcleo de los átomos, mucho más pequeño que el dominio de los electrones, la fuerza nuclear fuerte y la débil son las más predominantes. Si bien hoy en día aún se está muy lejos de una teoría del todo, lo más cercano que tenemos a ello es el Modelo Estándar, una interpretación que propone que el origen de las fuerzas fundamentales está en el intercambio de bosones entre el resto de las partículas que componen la materia.

73
Q

Explica el Modelo Estándar

A

A mediados del siglo xx los científicos habían empezado a darse cuenta de que existen varios tipos de partículas más simples que los protones o los neutrones y que eran realmente fundamentales, como los quarks, que explicaban diferentes aspectos de las interacciones que se producen entre la materia a nivel subatómico. Para catalogar estos descubrimientos, científicos de todo el mundo crearon el Modelo Estándar de Partículas, la formulación que recoge todas esas partículas fundamentales y describe cómo interaccionan entre ellas para producir todos los fenómenos que ocurren a nuestro alrededor.
En la siguiente imagen podéis ver los diferentes grupos de partículas que contiene este modelo. En primer lugar, tenemos los quarks. En el capítulo anterior hemos visto que los seis tipos de quarks se unen mediante la fuerza de color para dar lugar a partículas más grandes, los llamados hadrones, el nombre que reciben las partículas que están compuestas por varios quarks y que, por tanto, no son partículas fundamentales.
Hay dos tipos de hadrones. Los bariones, como los protones y los neutrones, están compuestos por tres quarks, mientras que los mesones sólo contienen dos quarks en su interior. Entre los mesones se pueden encontrar los piones, los kaones y aproximadamente otras doscientas partículas inestables que se producen durante la desintegración de otras partículas más grandes y que no forman parte del núcleo de los átomos.
El Modelo Estándar también cuenta con otro grupo de partículas fundamentales, los leptones, entre las que se encuentra el electrón. A medida que la tecnología ha avanzado, los científicos han podido reconocer nuevas partículas fundamentales con propiedades similares a nuestros queridos electrones que también forman parte de este grupo.
Por ejemplo, en 1936, Carl D. Anderson y Seth Neddermeyer notaron que cuando los rayos cósmicos interaccionan con la atmósfera producen (entre otras cosas) unas partículas fundamentales que tienen la misma carga y el mismo spin que los electrones, pero una masa 207 veces mayor. A estas nuevas partículas las llamaron muones.
Una de las características de los leptones es que no se ven atraídos por la fuerza de color de los quarks. De hecho, los muones no existen en la naturaleza de manera estable y se desintegran 2,2 microsegundos después de ser creados a partir de la descomposición de otras partículas, transformándose en un electrón y dos neutrinos. Es verdad que un muón puede llegar a sustituir uno de los electrones de un átomo en unas condiciones muy específicas pero no se trata de una situación duradera debido a su corta vida.
En la familia de los leptones también se pueden encontrar los tauones, descubiertos durante los experimentos del SLAC, 17 veces más masivos que los muones y con un tiempo de desintegración de sólo 29 billonésimas de segundo. También existe un tipo teórico de materia que podría estar formada por un antitauón, con carga positiva, orbitado por un electrón, aunque también carece de estabilidad
Tanto los electrones como los muones y los tauones están asociados a otro tipo de partículas llamadas neutrinos, que son leptones con una masa muy pequeña y carga eléctrica neutra. Los neutrinos electrónicos son los que salen disparados junto con el electrón que aparece tras la transformación de un neutrón en un protón a través de la radiación beta. Cuando un muón se descompone, da lugar a un neutrino electrónico y un electrón, que además van acompañados por un neutrino distinto llamado neutrino muónico, mientras que un tauón produce un neutrino teutónico al descomponerse. Los neutrinos tampoco forman parte de la materia, por cierto, sino que simplemente son productos que se forman cuando alguna partícula se transforma en otra, un fenómeno que ocurre a menudo durante las reacciones de fusión nuclear o algunos tipos de desintegración radiactiva. Curiosamente, al ser partículas tan ligeras y sin carga eléctrica, los neutrinos pueden pasar fácilmente entre los átomos sin ser detenidos. Tanto es así que un neutrino podría atravesar un bloque de plomo de un año luz de grosor sin interaccionar con una sola partícula, saliendo intacto por el otro lado. Tanto los quarks como los leptones pertenecen a los fermiones, que se diferencian de los bosones en que los fermiones poseen un espín no entero, mientras que los bosones sí lo poseen (aparentemente esto hace que los fermiones sean afectados por el principio de exclusión de pauli). Cada fermión tiene asociado un antifermión, que son la contraparte de los fermiones de antimateria, todos los antifermiones se llaman anti más el nombre del fermión, a excepción del positrón, que es el antifermión asociado al electrón
Pero los componentes del Modelo Estándar que explican las fuerzas del universo son los bosones que, al ser intercambiados por el resto de las partículas, transmiten las distintas fuerzas fundamentales: las interacciones electromagnéticas se realizan a través de los fotones, los gluones median la fuerza nuclear fuerte y, como ya sabéis, los bosones W y Z son los responsables de la fuerza nuclear débil. Los bosones además son el punto más fuerte del Modelo Estándar: las propiedades de las partículas fundamentales que contiene fueron predichas de manera teórica antes de que se confirmara su existencia a través de los experimentos, excepto en el caso de los fotones, que ya se conocían con anterioridad.

74
Q

Explica como se han descubierto los bosones y la unificación de la fuerza electromagnética con la fuerza nuclear débil

A

Nuestros sentidos no son capaces de detectar los bosones que transmiten las fuerzas nucleares, así que los científicos no pudieron confirmar su existencia hasta que inventaron los instrumentos que permitieron expandir los límites de nuestra percepción en la dirección adecuada. Los aceleradores de partículas son útiles para disparar núcleos atómicos a alta velocidad y romperlos en pedazos más pequeños o que queden incrustados, creando así elementos nuevos.
Pero estas máquinas también se pueden utilizar para acelerar chorros de partículas a velocidades tan altas como para que, al impactar, el choque destruya las partículas por completo. Cuando esto ocurre, los bloques fundamentales que las componen salen disparados en todas las direcciones y los científicos pueden analizar la trayectoria de estos escombros fundamentales para identificar qué partículas en concreto han aparecido tras la colisión. De esta manera no sólo pueden descubrir qué partículas fundamentales componen ciertos hadrones, sino que también pueden identificar otras partículas desconocidas. Estas partículas son demasiado pequeñas como para poder observarlas directamente, pero, ya que las diferentes partículas fundamentales que aparecen tras el impacto tienen una masa y/o una carga eléctrica determinadas, se pueden identificar por su interacción con su entorno, de manera parecida a la que los científicos empezaron a estudiar las propiedades de las partículas observando cómo se desviaban en presencia de un campo magnético, aunque, las cosas no son tan sencillas como parecen.
Por ejemplo se había predicho que un bosón W+ se podía producir a partir de la interacción de un quark arriba y un quark antiabajo. Ahora bastaba con estrellar unos cuantos quarks de cada tipo y ver si de la interacción entre alguno de ellos aparecía el ansiado bosón W+. Sin embargo no puedes hacer que dos “rayos de quarks” se estrellen en el interior de un acelerador de partículas, porque los quarks no son estables en estado libre.
Y no basta con sólo impactar protones, porque los protones están formados por quarks arriba y abajo, pero no contienen ningún quark antiabajo. La partícula que sí que contiene un quark antiabajo es el antiprotón, una configuración de quarks que tiene la misma masa que un protón, pero carga negativa. Por tanto, para forzar la aparición de bosones W+ debería bastar con dirigir un chorro de protones contra otro de antiprotones a altas velocidades.
Pero los antiprotones son una forma de antimateria que se desintegra al entrar en contacto con la materia ordinaria, así que no se pueden encontrar a nuestro alrededor en ninguna cantidad remotamente apreciable, por lo que se debe de crear artificialmente.
Para obtener antimateria es necesario acumular grandes cantidades de energía porque resulta que al acumular una gran cantidad de energía en una región del espacio empezarán a aparecer en ella pares de partículas y antipartículas que, al tener cargas opuestas, tienden a atraerse, colisionar y desintegrarse, convirtiendo el 100% de su masa de nuevo en energía. De manera que podemos obtener antimateria si se separan las partículas y las antipartículas antes de que se vuelvan a unir. Un método de producción de antimateria consiste en dirigir un rayo de protones que se mueven a velocidades cercanas a las de la luz contra una barra de iridio para separar magnéticamente las partículas y las antipartículas que se crean a partir de la energía de la colisión.
En 1983, el CERN llevó a cabo un experimento llamado UA1 en el que estrellaron un rayo de partículas y otro de antipartículas en sentidos opuestos para observar el camino que seguían los distintos pedazos de metralla subatómica que salían despedidos tras el impacto cuando interaccionan con las diferentes capas de material que recubrían el tubo en el que tuvo lugar la prueba.
Y resultó que, de entre los miles de millones de colisiones que tuvieron lugar, seis de ellas apuntaban inequívocamente a la existencia del bosón W+. Apuntaban ya que no se detectaron bosones W+ propiamente dichos, sino los productos de su descomposición: por un lado, dos electrones que habían salido despedidos de la colisión en unas trayectorias muy concretas; y por otro, una falta de energía asociada a la emisión de un neutrino que no se podía detectar.
Variaciones más o menos sofisticadas de estos métodos se han utilizado para detectar el resto de los bosones que actúan como mediadores de las fuerzas nucleares. Por ejemplo, los bosones Z se detectaron cartografiando en tres dimensiones las trayectorias de todas las partículas cargadas producidas por las colisiones entre protones y antiprotones. En una de estas colisiones se detectó que un positrón y un electrón habían salido despedidos en direcciones opuestas, señal de que el bosón Z se estaba descomponiendo de la manera en la que se había predicho que lo haría. De hecho, el punto más fuerte del Modelo Estándar de partículas es su gran poder predictivo. Una muestra de su precisión es que el modelo predecía que los hipotéticos bosones W y Z deberían tener una masa de 80,390 y 91,1874 GeV), respectivamente (donde el electrón-volt, eV, es la unidad que se utiliza en la física de partículas para medir la masa y la energía). Más tarde, los experimentos posteriores en el CERN confirmaron la existencia de dos partículas con masas de 80,387 y 91,1876 GeV que, por supuesto, se correspondían con estos bosones. Otro de los logros de esta teoría fue que en 1967, los científicos que trabajaban con el Modelo Estándar ya habían conseguido unificar de manera teórica la fuerza electromagnética y la fuerza nuclear débil en la llamada fuerza electrodébil. Lo que se notó en aquella época es que los bosones Z, W+ y W- (muy masivos) y los fotones (sin masa) deberían ser en realidad cuatro manifestaciones distintas de una misma partícula que, de alguna manera, estaba obteniendo masa en tres de sus cuatro formas. Los científicos propusieron que la causa de estas diferencias debía encontrarse en la interacción de estas partículas con otra partícula llamada bosón de Higgs, cuya existencia se verificó en 2013, confirmando la hipótesis y reforzando aún más el poder predictivo del Modelo Estándar.

75
Q

Explica el problema del Modelo Estándar, las alternativas a este y las posibilidades futuras en las que se forme la teoría del todo

A

Aunque es el modelo más preciso con el que contamos para explicar las interacciones que ocurren a nivel subatómico, aún tiene que resolverse un problema bastante gordo si se pretende que el Modelo Estándar alcance el estatus de Teoría del Todo: si es una descripción fiel de la realidad y, en efecto, todas las fuerzas fundamentales están mediadas por el intercambio de unas partículas llamadas bosones, entonces fuerza gravitatoria no debería ser una manifestación de la distorsión del tejido espacio-tiempo, como postuló Einstein, sino que también debería existir una partícula que llevara la gravedad de un lado a otro. A estas partículas hipotéticas se las conoce con el nombre de gravitones.
Y si estas partículas existieran tenemos el problema de que la fuerza gravitatoria es increíblemente débil en comparación con las demás. De hecho, para detectar la interacción de algún gravitón con la materia se necesitaría un detector del tamaño de Júpiter colocado en órbita alrededor de una estrella de neutrones. E, incluso a esta escala, tan sólo se detectaría un gravitón cada diez años.
Por esta razón mucha gente considera el Modelo Estándar como una “teoría de casi todo”: es capaz de explicar satisfactoriamente las interacciones que ocurren a nivel subatómico, pero no incorpora la gravedad, que está mucho mejor descrita según la interpretación de la teoría de la relatividad de Einstein. O sea que, de momento, el Modelo Estándar y la teoría de la relatividad son los modelos que utilizamos para describir lo que ocurre a nuestro alrededor.
Aunque los dos modelos son extremadamente precisos en sus respectivos campos de aplicación, durante el siglo xx muchos científicos empezaron a buscar otras interpretaciones de la realidad que permitieran explicar la gravedad y las demás fuerzas a través de una causa común. Una de estas interpretaciones es la famosa teoría de cuerdas, una idea que se empezó a fraguar en los años sesenta, cuando la comunidad científica se estaba dando cuenta de que una de las teorías que intentaba explicar el mecanismo tras las interacciones nucleares, la teoría de Matrices S, era mucho menos precisa que la cromodinámica cuántica, la parte del Modelo Estándar que describe cómo funciona la fuerza de color que mantiene el núcleo unido.
Pero, entre 1968 y 1973, los científicos que estaban trabajando en el marco teórico de esta teoría notaron que sus fórmulas estaban describiendo en realidad las interacciones entre unos objetos unidimensionales mucho más pequeños que las partículas fundamentales a los que llamaron cuerdas, así que concluyeron que esta interpretación parecía ofrecer una descripción de la realidad a un nivel aún más fundamental del que se había considerado hasta la fecha. Con el tiempo, la idea evolucionó hasta convertirse en la teoría de cuerdas que conocemos hoy en día, en la que se postula que los bloques fundamentales que componen la realidad no son las distintas partículas fundamentales conocidas, sino unos objetos aún más pequeños, las cuerdas, filamentos energéticos unidimensionales que, en función de la frecuencia con la que vibren, adoptan las propiedades de una partícula u otra. Y, por supuesto, según esta interpretación, todo lo que ocurre a nuestro alrededor sería el resultado de la interacción entre estas cuerdas vibrantes. Sin embargo, la única manera de comprobar si una teoría se ajusta o no a la realidad es mediante la experimentación. Y aquí es donde, según sus críticos, la teoría de cuerdas se encuentra en terreno pantanoso.
Por ejemplo, esta teoría predice que el tamaño de las cuerdas en las que está basada es del orden de la longitud de Planck (10^-35 metros) o, lo que es lo mismo, 22 órdenes de magnitud menor que los protones o los neutrones que ya son tremendamente pequeños de por sí. La tecnología actual no puede detectar objetos que tienen una longitud menor a 10^-16 metros, así que necesitaríamos mejorar un trillón de veces su resolución para corroborar si la materia está realmente compuesta o no por cuerdas en su nivel más fundamental. Otra de las propiedades de la teoría de cuerdas es que sólo tiene validez en un universo donde existen 11 dimensiones espaciales algo que, como habréis comprobado, no parece ser el caso a primera vista. Los científicos que estudian esta teoría afirman que este concepto no es incompatible con nuestra percepción del universo y que estas dimensiones adicionales podrían estar limitadas a escalas microscópicas pero, de nuevo, no hay manera de verificar esta suposición con la tecnología actual. En definitiva, los críticos de la teoría de cuerdas sostienen que, aunque su planteamiento matemático es muy elegante, en sus cincuenta años de historia no ha ofrecido ninguna predicción que se pueda poner a prueba experimentalmente para confirmar su validez por encima de la de otros modelos. Por ejemplo, como hemos visto, Einstein demostró que su teoría describía mejor el universo que la física newtoniana porque predijo que, si estaba en lo cierto, un rayo de luz debería curvarse en presencia de un campo gravitatorio. Entonces se observó cómo se comportaba la luz de las estrellas cercanas al Sol durante un eclipse y se pudo comprobar que, en efecto, las ideas de Einstein explicaban mejor la naturaleza de la gravedad que las de Newton.
Es posible que la alternativa más realista a la teoría de cuerdas como candidata a Teoría del Todo sea la llamada gravedad cuántica de bucles.
Esta otra conjetura surgió en 1986 cuando al físico Abhay Ashtekar se le ocurrió expresar la teoría de la relatividad de Einstein de una manera distinta, asumiendo que el espacio está dividido en unas unidades mínimas del tamaño de la longitud de Planck, como si fueran “partículas fundamentales de espacio”. Aunque la intención inicial de este modelo era modelar el efecto de la gravedad a nivel cuántico, con el tiempo ha ido ganando inercia como otra posible Teoría del Todo porque, entre otras cosas, hay quien ha sugerido que la forma de los lazos que unirían estas unidades mínimas de espacio podría dar lugar a las propiedades que presentan las partículas fundamentales. Pero, aunque esta teoría ha cosechado algún logro, como el cálculo de la entropía de los agujeros negros, le ocurre lo mismo que a la teoría de cuerdas: nuestra tecnología aún está muy lejos de poder distinguir esas unidades fundamentales en las que estaría dividido el espacio.
De momento, incluso aunque describan fenómenos que actúan a escalas diferentes, el Modelo Estándar y la teoría de la relatividad son las mejores herramientas de las que disponemos para describir las interacciones fundamentales que dan forma al universo. Dado el estado actual de la física, el concepto de una Teoría del Todo aún es una idea lejana e incierta. Es posible que en las próximas décadas se haga algún descubrimiento que permita ir un poco más allá y unificar los gluones que median la fuerza nuclear fuerte con la teoría electrodébil convirtiendo el Modelo Estándar en una interpretación que explicaría todos los fenómenos que ocurren a nivel subatómico a través de una única interacción fundamental. Pero, aunque esto ocurriera, no se espera que en un futuro cercano aparezca ninguna evidencia que favorezca la existencia de los gravitones y, por tanto, no hay señal de que la fuerza gravitatoria se vaya a poder explicar a través del Modelo Estándar. Por otro lado, la teoría de cuerdas y la gravedad cuántica de bucles aún no se encuentran en su forma final, así que no hay manera de decir si alguna de ellas conseguirá unificar todas las fuerzas fundamentales en un futuro. Aunque, por supuesto, también está la posibilidad de que no exista ninguna Teoría del Todo y que la gravedad y el resto de fuerzas fundamentales simplemente se rijan por principios totalmente distintos. Sin embargo, como siempre en la ciencia, para poder avanzar será necesario la realización de más experimentos que desafíen lo que creemos saber