domingo, 4 de octubre de 2009

Malentendidos sobre teleportación. [Extracto de "Teleportación Cuántica", Curso de Verano: "Introducción a la teoría cuántica de la información"]

No cabe duda de que el término teleportación puede resultar muy atractivo a un elevado número de personas. Y más teniendo en cuenta la visión difusa que buena parte de la sociedad (española por ejemplo) parece poseer de la línea que separa la ciencia de la ciencia-ficción (no siempre clara ni para el más experto).

No voy a entrar a valorar con detenimiento lo adecuado o no de la tendencia existente en numerosos medios de comunicación, de confundir (casi siempre de forma inconsciente, pero irresponsable al fin) ambas disciplinas. Hasta cierto punto, esa visión mágica que pretenden aportar en ocasiones, (algunas veces de forma justificada) de determinados logros científicos, puede servir para que un número mayor de personas se interesen por la ciencia.

Estoy realmente convencido, por ejemplo, de que el impacto de las cabeceras de los informativos, avisando sobre la posibilidad de que un agujero negro generado en el LHC se trague la Tierra en pocos minutos, repercutirán positivamente en el número de estudiantes de primer año en las carreras de física (en una medida mucho mayor que los fundamentales, y, para algunos, emocionantes, objetivos reales del acelerador).

Una forma de pensar (bastante criticable, reconozco) sería la siguiente: imaginemos que se permite e incluso fomenta una visión de la física tal que cuando la gente piensa en ella evoca viajes al pasado, máquinas superinteligentes humanicidas, agujeros negros devora planetas, etc., creándose en esas personas una visión atractiva y una actitud curiosa (por parte de algunos) hacia la misma. Cuando los curiosos se acercaran a profundizar, sería el momento de separar lo que es física de lo que no. Mientras tanto, los abstemios permanecerían en la misma posición que ahora, si acaso con cierta predisposición más favorable.

Opino, sin embargo, que el fomento de la ignorancia no puede de ninguna manera ir de la mano del avance de la ciencia, a pesar de que tal impulso no suela llevarse a cabo desde el propio ámbito científico, y sí frecuentemente desde los altavoces utilizados para hacer llegar tales avances a la sociedad. Es obligación de los científicos intentar evitar la propagación de informaciones (deliberadamente o no), erróneas, por fantasiosas, exageradas, o en definitiva, por ausentes de rigor.

De esta manera, creo conveniente analizar hasta qué punto se ha pervertido el término teleportación desde que en 1993, C.H. Bennett, G. Brassard, C. Crépeau, R. Jozsa, A. Peres y W.K. Wootters designaran así al protocolo antes explicado. No cabe duda de que los autores tomaron parte del omnipresente concepto del teletransporte (palabra inventada por el escritor Charles Fort en la década de los años 30 del siglo XX) para nombrar a su protocolo, haciendo que este incitase a pensar en la posibilidad real de teletransportar materia. [El término teleportación excluye acertadamente la palabra “transporte”, dando a entender que no hay envío instantáneo de materia en el proceso].

A pesar de los avances llevados a cabo desde 1993, como la posibilidad de teleportar estados cuánticos entre luz y materia, no parece que exista camino alguno (al menos de momento) hacia el teletransporte de materia, que, en principio supondría una violación del 2º Postulado de la Relatividad Especial. [No ocurre esto con la teleportación cuántica, ya que ninguna información en el protocolo viaja más rápido que el límite impuesto por la velocidad de transmisión del canal clásico (c)].

No se trata de ser aguafiestas al negar la existencia de perspectivas para el teletransporte de materia, sólo se pretende evitar informaciones falsas y situar las cosas en el estado en el que realmente se encuentran actualmente. Y es que es suficiente con escribir “teletransporte” en un buscador de internet para encontrar frases como “El teletransporte ya es una realidad”, o “¿Teletransporte? Muy posible, lo siguiente: el viaje en el tiempo” o informaciones en revistas, digitales o no, de diversa índole, en las que se indica que se ha conseguido teletransportar fotones refiriéndose a los experimentos de teleportación de sus estados de polarización. U otras en las que se asegura que pronto será posible teleportar átomos, moléculas, y hasta cervezas bien frescas, desde la nevera, directas a la mano del entusiasmado lector.

Las aplicaciones previsibles de la teleportación cuántica, entre las que se incluyen la teleportación de estados desde partículas inestables hasta otras que no lo sean o la construcción de repetidores cuánticos, parecen algo más modestas que el crucial asunto de la cerveza. Al menos en principio.

viernes, 1 de mayo de 2009

Aviso a navegantes.

Tras un largo periodo de reflexión y después de la conclusión de la asignatura F.C.F., regreso a la escritura en este blog con la intención (quizás inútil) de lanzar un aviso (totalmente innecesario en algunos casos, y obligatorio en la mayoría) a todos los blogueros (anglicismo que me horripila) del mundo, y más concretamente a todos los autores de blogs cuyo tema principal es la "ciencia", y en particular, a los que tratan asuntos relacionados con esa ciencia llamada "física".

Me siento en la obligación de hacerlo, y aunque sea de un modo un tanto ilegítimo, no puedo evitarlo, así que no lo haré.

Algunos dirán que sólo veo la paja en el ojo ajeno, y que a las vigas del mío las trato como a vulgares legañas. Sin embargo, he de decir que este mensaje también es para mí, en tanto que modestísimo "difusor de la ciencia" (bonito nombre, tantas veces vacío [de significado y de contenido]).

Pues bien, ahí va:

Querido bloguero:...

Bueno, tal vez sería más sencillo establecer una especie de leyes básicas que debería de cumplir toda entrada escrita en un blog autodenominado científico (muchas veces con gran bombo y platillo).

1) En el mundo hay más de 6.000 lenguas vivas. Utiliza alguna de ellas para escribir. Si crees hablar castellano, vives en España, y pretendes escribir un blog científico, no tienes excusa para no utilizar de forma más o menos correcta las más básicas reglas que para tal idioma están establecidas. Y si no lo haces, ni se te ocurra clamar por la falta de rigor de los demás, o intentar dar lecciones sobre el "método científico" (¿qué será eso?).

En pocas palabras: aprende a escribir correctamente, que la educación secundaria es gratuita, y las herramientas proporcionadas suficientes como para distinguir "ahí", "ay", y "hay", por ejemplo.


2) Asegúrate de que tus conocimientos son suficientes antes de emitir juicios sobre cualquier asunto, mucho más cuando este no admita visiones subjetivas (como en el caso de las matemáticas y, en ocasiones, la física).


3) El plagio es un delito, así que publica tus fuentes si las hubiere. Esto nos lleva a la cuarta ley...


4) ¡Contrasta tus fuentes! Al igual que tú, muchos otros podrían dedicarse a llenar la red de entradas "extremadamente" científicas (diciendo toda clase de tonterías extremadamente grandes). Así pues, antes de escribir nada, asegúrate de que lo que escribes es correcto (siempre que pueda no serlo).


5) Hay cosas que no son opinables, y personas que no deberían de poder opinar sobre determinados temas. Si estudias química (y no eres un autodidacta), no trates de adoctrinar sobre topología, y si sabes física (eso habría que verlo), no intentes explicar la estructura del ADN.
Realmente hay muy poca gente que pueda hablar sobre algo con absoluta seguridad, y que pueda "considerarse en posesión de la verdad" con cierta legitimidad y en la mayoría de los casos, esto se limita a un campo muy reducido del "saber".


6) Existe un compromiso con los lectores de tu blog, ellos confían en ti (o no), y en algunos casos podrían creerse una parte de las cosas que escribes. Así pues, procura engañarles lo menos posible (y procura no engañarte a ti mismo). ¡Admite tus limitaciones!, y déjaselas claras.

Y finalmente:

7) Si toda la "comunidad científica internacional" opina justo lo contrario que tú sobre un asunto, tal vez deberías de revisar tus tesis, ya que quizás sean erróneas.

jueves, 29 de enero de 2009

A vueltas con la flecha del tiempo. Paradojas del viaje al pasado. (2)(F.C.F.)

Nos habíamos quedado el otro día, hablando sobre las paradojas que podrían surgir como consecuencia de un posible viaje al pasado. Vamos a tratar hoy algunas soluciones que se han propuesto como formas de evitar que se produzcan tales paradojas.

La naturaleza de estas soluciones es, como veremos, de lo más variopinta.

La más conocida es, probablemente, la de los universos paralelos. Según esta, a la vez que el nuestro, existirían otros con sus correspondientes historias diferentes. [La existencia de tales universos fue propuesta por Hugh Everett como posible alternativa a la interpretación de Copenhague de la mecánica cuántica, que supone que cuando se produce el colapso de una función de onda como consecuencia de la observación de un sistema, el resto de estados, no observados, desaparecen. La interpretación de Everett es la de que cada una de las otras posibilidades se materializa en otro universo "paralelo" al nuestro.]

Aplicada al asunto de los viajes al pasado, la idea de los universos paralelos posibilitaría impedir la paradoja que supondría matar a tu propio abuelo impiendo que tú mismo hubieras sido engendrado. En este caso, al viajar al pasado, cambiarías de universo, por lo que al matar a tu abuelo, "tu yo" de ese universo nunca llegaría a nacer, no ocurriéndote nada a ti, procedente de otro universo en el que sí existirías.

Otra posibilidad similar sería la de suponer que al matar a tu abuelo, simplemente no ocurriría nada extraño. Tu yo del futuro no nacería, pero tú sí habrías nacido. Esto supone la no existencia de una línea temporal absoluta. La idea es muy similar a la de los universos paralelos, con la diferencia de que en este caso, el ingrediente especial no serían otros mundos, sino una especie de propiedad "elástica" del tiempo.



Aquí os dejo uno de mis gloriosos dibujos en el que se puede apreciar la idea de las historias relativas aplicada al viajero abuelicida.

Otra posibilidad es la del concocido como "Principio de consistencia de Novikov" o "Conjetura de consistencia de Novikov".
Este "principio", a mi modo de ver metido con calzador en el asunto de las paradojas temporales, asegura que en el caso de un viaje en el tiempo, la naturaleza actuaría de tal forma que cualquier evento que pudiese producir una paradoja tendría probabilidad nula de ocurrir. En mi modesta opinión, este argumento no se sostiene ni con pinzas. Si ya es discutible la viabilidad de viajar en el tiempo, no te digo nada la existencia de alguna fuerza cósmica reguladora de paradojas...

Por último, e igual de graciosa que la anterior, está la posibilidad de que un supuesto viajero al pasado no pudiese interactuar con nada en su viaje, limitándose a ser un mero espectador.

Una última posibilidad, no mucho más racional que las dos anteriores, sería la propuesta por Robert Silverberg en su obra de ficción Por el tiempo, según la cual, en el momento en que el viajero hubiese matado a su abuelo, no ocurriría nada extraño, sino que sería al regreso al presente, cuando todos los cambios producidos en el pasado se materializarían de golpe, provocando la desaparición instantánea del abuelicida.

[Es muy posible que esta haya sido mi última entrada antes del día D, aunque puede que a partir de ahora haga caso al anónimo que me sugería entradas en el idioma de Shakespeare. Le vendría de perlas a mi oxidado inglés].

Veremos.


martes, 27 de enero de 2009

A vueltas con la flecha del tiempo. Paradojas del viaje al pasado. (1)(F.C.F.)

Tenía pensado realizar una entrada sobre el concepto de "tiempo", y es posible que todavía lo haga. [Téngase en cuenta, no obstante, que el parcial de física cuántica empieza a vislumbrarse amenazador en el horizonte].

He preferido, sin embargo, inclinarme por un asunto más divertido y menos complicado conceptualmente (¡y un rábano!), el de las posibles paradojas de los viajes al pasado.

Quiero dejar claro que para ello trataré al tiempo con bastante descortesía, suponiendo la existencia de un pasado, un presente y un futuro (el concepto de simultaneidad carece, "en realidad", de sentido estricto). [La no existencia de pasado, presente y futuro como tales no implica la inexistencia de una flecha del tiempo, sino que más bien sería esta una asimetría entre lo que conocemos como pasado y lo que tratamos como futuro en virtud de ciertas características físicas como el aumento de entropía (argumento por otra parte inconsistente por sí mismo debido a su propia simetría temporal (es tan probable que haya más entropía en el futuro, como que la haya habido en el pasado)), o la irreversibilidad de los colapsos de las funciones de onda de las partículas según la interpretación de Copenhague].

Como bien dijo Albert Einstein:
"Pasado, presente y futuro son sólo ilusiones, aunque sean ilusiones pertinaces"

Vamos, en esta entrada, a suavizar la rigurosidad con la que trataremos un concepto de tal complejidad y abstracción.

Metámonos, pues en la cuestión que nos ocupa en esta ocasión, la de los viajes al pasado, y sus paradojas.

Si bien fue H.G. Wells quién pareció inaugurar el asunto de los viajes en el tiempo con su célebre La máquina del tiempo (1895), no fue hasta 1943 cuando fue formulada por primera vez las más famosa paradoja temporal. Hablamos de la paradoja del abuelo, que aparece descrita en la obra del escritor francés René Barjavel: Le voyageur imprudent (El viajero imprudente).

Existen, no obstante, otras paradojas, a cada cual más ocurrente, y otras tantas posibles explicaciones de las mismas a través de argumentos más o menos rebuscados. Trataremos aquí de hacer un pequeño resumen de algunas de ellas.

Empecemos, por supuesto, por la anteriormente mencionada y archiconocida Paradoja del abuelo.
La idea es bien sencilla. Supongamos que un sujeto logra viajar al pasado y se le ocurre la estúpida idea de matar a su abuelo (mira que hay que ser burro) antes de que este haya conocido a su abuela. Pues bien, si esto se produjese, el viajero nunca habría nacido, por lo que no habría podido viajar al pasado para matar a su abuelo, con lo que este sí habría podido conocer a su abuela y él podría haber nacido, con lo que sí podría haber viajado al pasado matando a su abuelo provocando así la imposibilidad de su nacimiento, permitiendo de este modo que su abuelo conociese a su abuela y posibilitando que el futuro abuelicida viajase al pasado para matarlo antes de que sedujese a su abuela y bla bla bla...

Como vemos, el bucle es infinito.

Existe otra paradoja, conocida como la Paradoja de las bolas de billar, que utiliza la presunta capacidad de los agujeros de gusano para servir como máquinas del tiempo (y acepta su también presunta existencia).

La idea es muy simple. Supongamos una bola de billar que entra por la boca de un agujero de gusano de suerte tal que sale por la otra en un instante de tiempo anterior al de entrada, colisionando con su yo que se dirige hacia la boca de entrada, e impidiendo que este entre. Pero si no entra, ¿cómo pudo haber salido?, y si no sale ¿cómo pudo haber desviado a su yo que entraba?...

Posteriormente trataremos algunas soluciones para la paradoja del abuelo. No obstante, diremos que la solución más común para esta, es la de suponer que la bola de billar no puede hacer nada que contradiga la lógica, es decir, que no será posible ningún choque cuyo resultado sea algo diferente a la entrada de la bola en el agujero.

Voy a comentar, antes de pasar a las posibles soluciones, aquella que es mi paradoja favorita: La Paradoja del pintor, (también conocida en otras versiones análogas como la Paradoja del libro nunca escrito).

Supongamos a un turista temporal que viaja al pasado provisto de un libro de arte en el que se muestran algunas de las obras cumbre de la pintura del futuro. Supongamos que tal individuo conoce a otro durante ese viaje, y le deja como recuerdo el libro, regresando al futuro sin él. Supongamos ahora que al segundo individuo se le ocurre la idea de copiar las obras del libro, poniéndolas sobre lienzo y convirtiéndose en un pintor famoso cuyas obras acaban siendo dignas de aparecer en un catálogo de arte que acaba en manos del turista temporal que viaja al pasado con las fotos de las obras del individuo del pasado, al que se le ocurre la idea de plagiar tales obras haciéndose famoso, etc...

Es decir, el pintor se plagia a sí mismo una y otra vez en un bucle infinito. Sin embargo, surge una pregunta evidente, ¿de quién fue originalmente la idea de los cuadros?. Es como si la información hubiese llegado desde algún lugar externo, o como si hubiese estado ahí siempre, ya que la creatividad del pintor es nula, siendo su única virtud la de copiar los cuadros del libro. Libro basado en los cuadros que él mismo ha pintado copiándose a sí mismo y bla bla bla...

[En época de exámenes, entradas breves pero concisas. Pronto volveré con la segunda parte, en la que trataré las posibles soluciones a estas y tal vez otras paradojas...]


jueves, 22 de enero de 2009

Agujeros negros o el Santo Grial de la ciencia ficción. (2) (F.C.F.)

Nos habíamos quedado comentando los distintos tipos de agujeros negros que se han descrito teóricamente hasta el momento. Sólo habíamos hablado de "los más sencillos", aquellos definidos por un sólo parámetro (su masa), y conocidos como agujeros negros de Schwartzschild.

Los agujeros negros de Kerr están definidos, a diferencia de los primeros, por dos parámetros: su masa, y su momento angular, ya que se encontrarían en estado de rotación. Este modelo es el que debería ajustarse con mayor precisión a los agujeros negros reales, ya que estos, debido a la conservación del momento angular, deberían de estar girando de la misma manera que lo habría hecho el cuerpo que los hubo generado.

Este tipo de agujeros presenta una nueva región además del horizonte de sucesos. Se trata de la ergosfera, una región próxima a este horizonte, exterior a él (excepto en sus polos [definidos por el eje de rotación], donde es tangente al mismo), y con la simpática propiedad de hacer girar el espacio-tiempo con todo lo que en él se encuentre.

Algunas especulaciones aseguran que dentro de la ergosfera se podrían producir viajes en el tiempo, debido al movimiento producido sobre el propio espacio (no es lo mismo moverse en el espacio, que que el espacio se mueva contigo dentro). A la velocidad relativa entre un cuerpo externo a la ergosfera, y uno situado en su interior, habría que sumar el movimiento del segundo producido por la rotación del espacio-tiempo, pudiendo darse una velocidad relativa total entre ambos, mayor que c. [De todas maneras no tengo muy claro de dónde sacan lo de los viajes en el tiempo. No sé qué pasaría si se pudiese superar la velocidad de la luz (relativa a otro observador), pero, por lo de pronto, las transformaciones de Lorentz nos darían tiempos imaginarios].

Pasemos ahora a los agujeros negros de Reissner-Nordström. A diferencia de los agujeros de Kerr, los de R-N serían, al igual que los de Schwartzschild, estáticos, pero presentarían la tercera propiedad que habíamos comentado en la entrada anterior, i.e., carga eléctrica.

Este tercer tipo de agujero negro no posee ergosfera, ya que permanece estático, pero presenta dos horizontes de sucesos: uno externo, y otro interno, conocido como Horizonte de Cauchy.

[Nota: me estoy dando cuenta de que me estoy metiendo en camisas de once varas, ya que prácticamente no tengo ni repajolera idea de lo que estoy hablando. No obstante, una vez comenzado el trabajo, he de terminarlo].

Nos falta hablar, en último lugar, de los agujeros negros más guays que existen (o no). Se trata de los agujeros negros de Kerr-Newman, que tienen carga eléctrica, masa (evidentemente), y se encuentran en estado de rotación. Estos, poseerían ergosfera, horizonte de sucesos interno, horizonte de sucesos externo, y la singularidad tendría forma de toroide, en lugar de ser esférica como en los casos anteriores.

Existe un fenómeno producido por todo cuerpo con masa sobre otro, como consecuencia de las fuerzas de marea, y que se hace especialmente importante en el caso de los agujeros negros. Este es el de la espaguettificación (nombre debido al siempre mediático Stephen Hawking).

Como bien sabemos, la fuerza gravitatoria (volvemos a la aproximación clásica), aumenta con el inverso del cuadrado de la distancia, es decir, cuanto más próximo esté el objeto a la masa generadora del campo, mayor será la fuerza, y mayor por tanto la aceleración. Además, cuanto mayor sea la masa de los objetos más intensa será esa fuerza. Sabemos también que la fuerza gravitatoria es una fueza central, es decir, que se produce en la dirección que une los centros de masas de los objetos implicados. De esta forma, si suponemos, por ejemplo, a un astronauta en las proximidades de un agujero negro, podemos entender fácilmente que la aceleración que sentirían sus piernas podría ser significativamente mayor que la de su cabeza, y que sus hombros tenderían a juntarse como consecuencia de la naturaleza central de la fuerza. Cuanto más cerca se encontrase del agujero, mayor sería el efecto, pudiendo llegar a convertirlo en un espaguetti espacial.

[En la imagen podemos observar a una civilización de perros espaciales suicidas verificando la certeza de tal efecto.]

A continuación os dejo un vídeo en el que tres astrofísicos explican este fenómeno (en la lengua de Shakespeare, eso sí), y muestran una simulación del efecto espaguettificador.


Espaguettificación.

La conclusión a la que se llega es que el intento de atravesar el horizonte de sucesos de un agujero negro de una pieza dista bastante de ser verosímil.

Os diré, para terminar, que a pesar de la imagen de destrucción que tenemos de los agujeros negros, algunas observaciones recientes apuntan hacia la posibilidad de que la formación de todas las galaxias se podría haber producido gracias a su presencia, en concreto, a su capacidad de atracción.

En efecto, un agujero negro cuatro millones de veces más pesado que el Sol parece encontrarse en el centro de la Vía Láctea, chupando materia como un condenado (hasta tal punto que algunas observaciones aseguran que su actividad actual es pequeña debido a que habría consumido la mayor parte de la materia bariónica (materia no oscura, ni exótica) de sus proximidades. Afortunadamente, su distancia a la Tierra es de unos 27.000 años-luz y todavía le queda mucho por chupar antes de fijarse en nosotros...

domingo, 18 de enero de 2009

Agujeros negros o el Santo Grial de la ciencia ficción. (1) (F.C.F.)

Como habréis podido observar a lo largo de todo este tiempo, siento una especial predilección por la astrofísica y la mecánica. Debido a que no puedo evitarlo, no lo intentaré siquiera.

El tema de hoy es el de los archifamosos agujeros negros.

Casi tan mal entendidos como frecuentemente usados, los agujeros negros han servido de inspiración a escritores, científicos y público en general. ¿Quién no ha pensado nunca en los agujeros negros? [Tal vez soy yo muy rarito].

Sin embargo, ¿Sabemos realmente qué es un agujero negro?, ¿Existen los agujeros negros?, ¿Podemos alcanzar otros universos o lugares distantes de este, atravesando un agujero negro?...

Trataré de contestar, dentro de mis modestos conocimientos sobre Gravitación, a estas y otras cuestiones. [Siempre dentro de los límites de la ciencia. Quiero decir que, si por ejemplo hay algo inverificado, entonces, no lo daré por seguro)].

Como el título de la entrada indica, los agujeros negros han sido utilizados en numerosísimas ocasiones por los escritores de ciencia-ficción. Tal es el caso de Frederik Pohl y su Saga de los Heechees, donde, entre otros acontecimientos, se narra como la novia del protagonista es atrapada por un agujero negro y posteriormente liberada. Otro ejemplo es el de Charles Sheffield y Las Crónicas de McAndrew, donde el protagonista (McAndrew), genio de la física en el siglo XXII es capaz de utilizar minúsculos agujeros negros como fuentes de energía. Hemos de decir también, que algunos autores de ciencia-ficción dura han utilizado este concepto. Gregory Benford, físico, astrónomo, y escritor de este género, narra, en su saga del Centro Galáctico, las características de un agujero negro situado en el centro de la Vía Láctea, utilizando los conocimientos más actuales que sobre estos cuerpos se tienen.

Vamos a remontarnos unos cuantos siglos antes del señor McAndrew, para empezar a tratar el concepto de agujero negro.
A pesar de que estos cuerpos son consecuencia de ciertas soluciones particulares de las ecuaciones de la Relatividad General, podemos hacer un simple tratamiento del asunto mediante la Teoría de Gravitación newtoniana. [Hasta ciertos límites].

Definamos, en primer lugar, el sencillo concepto de velocidad de escape. Esta velocidad sería la necesaria para que cualquier objeto, e independientemente de su masa, escapase de la atracción gravitatoria de otro cuerpo, hasta colocarlo a una distancia infinita del primero (recordemos que la gravedad es una fuerza de alcance ilimitado (que sepamos)), y con una velocidad nula.
Puede obtenerse fácilmente su expresión utilizando el principio de conservación de la Energía (sistema autónomo), y la expresión para la energía potencial gravitatoria de la que se deriva la Ley de Gravitación Universal:


Así pues, la velocidad necesaria para escapar de un cuerpo esférico depende de la Constante de Cavendish, la masa de tal objeto, y su radio.
Puede, no obstante, escribirse una expresión en función de su densidad, que será también útil para lo que nos ocupa:


De estas dos expresiones pueden deducirse dos cosas: Por un lado, vemos que de entre dos cuerpos con la misma masa, el de mayor velocidad de escape será aquel cuyo radio sea menor, mientras que de entre dos con igual densidad, tal honor corresponderá al de mayor radio.

Si metemos los numeritos en la ecuación, comprobaremos que se obtienen los siguientes valores para algunos cuerpos conocidos:

Es decir, para escapar de la superficie de la Tierra se necesita una velocidad de 11.000m/s, para escapar de la del Sol unos 618.000m/s, y para escapar de la superficie de un balón de fútbol reglamentario... unas 16,3 micras por segundo (a esa distancia ya habría otras interacciones más importantes que la gravedad).

La idea de un objeto capaz de evitar que hasta la mismísima luz escapara de su atracción, fue, en primera instancia, de un astrónomo aficionado llamado John Mitchell, en el año 1783. Comprobó que un objeto de la misma densidad del Sol, pero con un radio 500 veces mayor, tendría una velocidad de escape superior a la de la luz, por lo que nada podría escapar de su atracción.
Otra posibilidad, sería la de un objeto que con la masa del Sol tuviese un radio 250.000 veces menor.

Este último punto da idea de que dada la masa de un objeto esférico, se podría calcular un radio máximo a partir del cual, cualquier radio menor que tuviese ese objeto impediría que nada escapase de su atracción.

A pesar de la tentanción que supone sustituir v por la velocidad de la luz y despejar ese radio crítico, resulta que ni la energía cinética de la luz es 1/2mc^2 [fácilmente calculable mediante la relatividad especial], ni la energía potencial de un agujero negro es la que se deduce de la Ley de Gravitación de Newton. Curiosamente, sucede sin embargo, que realizando tal sustitución se llega a la expresión correcta, puesto que los dos errores se cancelan. [Del mismo modo que cuando Planck utilizó la estadística de Maxwell-Boltzmann y la suposición de que E=nhf, en lugar de la de Bose-Einstein y E=(n+1/2)hf, obtuvo el resultado correcto para la radiación del cuerpo negro].

De esta forma, el radio crítico, llamado Radio de Schwarzschild en honor a su descubridor, se corresponde con la siguiente expresión:

Todo objeto que se encuentre a una distancia menor que Rs del agujero negro, quedará atrapado. La superficie de la esfera con este radio se denomina horizonte de sucesos.
Esto es lo máximo que se puede exprimir la mecánica newtoniana en referencia a este asunto, así que ahora vamos a pasar a la Relatividad General (con mucho cuidadito para no decir tonterías)...

Los agujeros negros, tal y como se entienden hoy en día (tal y como los entienden los que los entienden, que no son muchos), tienen una historia bastante reciente. Poco después de la presentación en sociedad de la Relatividad General, allá por 1915, y de que se "demostrase" que los mismos fotones sentían la atracción gravitatoria, Karl Schwartzschild halló una solución para las ecuaciones de Einstein (la métrica de Schwarzschild), que poseía el caso particular de una singularidad gravitatoria que provocaría una curvatura infinita en el espacio-tiempo. Aunque en principio pensó que se trataba de una curiosidad matemática, el tiempo acabó por negar tal suposición.

Métrica de Schwartzschild (En coordenadas de Schwartzschild)

[Nota: no trataré de explicar el significado de la expresión anterior, sin embargo, prometo que algún día lograré comprenderla].

Aportaciones posteriores de Subrahmanyan Chandrasekhar y Robert Oppenheimer [Para descubrir algo relacionado con los agujeros negros hay que tener un nombre complicado, o eso parece inducirse], quien predijo la posibilidad de que tales objetos existiesen en la realidad como resultado del colapso gravitatorio de algunas estrellas muy masivas. Estos resultados, producidos a finales de los años 40, se mantuvieron sin continuación hasta los 60, cuando Roy Kerr demostró que en un espacio-tiempo de cuatro dimensiones, todos los agujeros negros debían de tener una geometría cuasi-esférica determinada por tres parámetros: masa, carga y momento angular [Como veremos, la clasificación de los distintos tipos de agujeros se realiza en función a estas propiedades]. En 1970, Stephen Hawking (el físico más sobrevalorado de la Historia en mi opinión), y Roger Penrose, probaron que los agujeros negros eran soluciones de las ecuaciones de la Relatividad General, y su inevitabilidad en ciertos casos. El término "agujero negro" es debido a John Wheeler, que lo utilizó por primera vez en 1967.

Después de esta breve historia, veamos los distintos tipos de agujeros negros que se conocen (en la teoría).
El primer tipo, cómo no, es el agujero negro de Schwarzschild. Este tipo de agujero es estático, y está definido por un único parámetro: su masa M. El horizonte de sucesos queda delimitado por la superficie esférica de radio Rs y según la expresión anteriormente mostrada. Este agujero es el más sencillo de todos, aunque su comprensión fenomenológica dentro de la Teoría de la Relatividad no es moco de pavo...




Continuaré próximamente con el resto de tipos de agujeros, algunos fenómenos muy divertidos como el de la espaguetificación, y todo el resto de cosillas que se me pasen por la cabeza [o que encuentre en la Wikipedia]. (Dios salve a la Wikipedia. [No obstante recomiendo contrastar fuentes])...

sábado, 17 de enero de 2009

¡Hasta el infinito y más allá!... Cuestiones de la propulsión interestelar. (F.C.F.)

En esta ocasión, vamos a tratar el asunto de los posibles medios de propulsión en el espacio, en el ámbito de los viajes interestelares. Es decir, aquellos que pudieren realizarse con destino a lugares externos al Sistema Solar, pero dentro de las proximidades de nuestra estrella en la Vía Láctea.

[Para escribir el relato de ciencia-ficción de la Asignatura, tuve que documentarme sobre este tema, por lo que voy a aprovechar la coyuntura].

Como bien es conocido, los viajes espaciales suelen dividirse en tres clases, de entre las cuales, la ciencia-ficción casi siempre se ha decantado por las dos que (por el momento) no han podido ser llevadas a la práctica (como también es lógico). Nos referimos a los viajes interplanetarios, los viajes interestelares, y los viajes intergalácticos.

Vamos a comparar las ideas propuestas por los autores de ciencia-ficción, con la situación actual de la propulsión interestelar. [No trataré aquí otros asuntos como los del soporte vital de los viajeros, los posibles problemas sociológicos, éticos, ni otros referentes a la tecnología de las naves, a menos que estén directamente relacionados con el tratado].

Existe una cierta tendencia a hablar, por parte de la ciencia-ficción, de igual forma sobre los viajes intergalácticos y los interestelares. Sin embargo, la diferencia resulta sustancial, habida cuenta de que mientras que en unos tratamos con distancias del orden de los años-luz (interestelares), en los otros hablamos de millones de años-luz (intergalácticas).

Ambos asuntos requieren por tanto análisis diferentes en principio (no es lo mismo ir a la habitación de al lado que ir a Australia).

Vamos, así pues, a eliminar los viajes interplanetarios por demasiado sencillos (ja), y los intergalácticos por demasiado utópicos (al menos por el momento, aunque yo no sería excesivamente optimista), y quedarnos con los interestelares.

Un claro ejemplo de comunicación interestelar es el presentado por Isaac Asimov en su Saga de la fundación, una serie de novelas en las que desarrolla la colonización de la Vía Láctea por parte de los humanos, desde la aparición de los primeros robots con capacidad para el lenguaje, y los viajes interplanetarios, hasta el asentamiento en toda la Galaxia, y mucho tiempo más allá. Los viajes se realizan merced a la tecnología del "motor hiperatómico".

Otro caso es el de Star Wars, en el que la historia transcurre siempre dentro de los límites de "la Galaxia", por lo que los viajes realizados son siempre entre estrellas de la misma, y no intergalácticos. [Aquí, sin embargo, se utiliza el famoso y recurrente hiperespacio para los desplazamientos a largas distancias].

Los autores de ciencia-ficción dura (aquel género en el que la ciencia juega un papel fundamental) han utilizado en muchas ocasiones, sin embargo, conceptos creados previamente por físicos o ingenieros para sus obras, a la hora de tratar el asunto de los viajes interestelares, [Caso de Arthur C. Clarke o Gregory Benford] en lugar de proponer nuevas ideas sin base teórica alguna.

Volviendo al tema que nos ocupa, diremos que los principales candidatos a futuros propulsores interestelares son: los cohetes de fusión, la propulsión nuclear de pulso (fisión), el motor de antimateria, la Bussard ramjet o estatocolectora, y los veleros solares. De entre estos, sólo los dos primeros han sido estudiados en proyectos individuales cuyo objetivo era el estudio de este tipo de viajes, aunque todos han sido desarrollados en mayor o menor medida a través de otras investigaciones y proyectos relacionados.

Veamos ahora cada uno de ellos por separado.

Teóricamente, el motor de antimateria es la mejor opción, siendo la más energética, y la que tendría un rendimiento mayor en el sentido de la cantidad de combustible necesario. Este motor utilizaría la gran cantidad de energía liberada en la aniquilación que se produce, en contacto con la materia, por parte de las dos, y según la ecuación de Einstein: E=mc^2, para propulsar la nave.

[En la imagen vemos un Diagrama de Feynman de un electrón y un positrón que se aniquilan formando un fotón, que luego decae para formar otro electrón y otro positrón].

Tiene, sin embargo, un problema fundamental, y es que la antimateria es difícil de conseguir. La creación artificial de dos miligramos tendría un coste actualmente similar al del plan de reactivación de la economía estadounidense que tiene pensado llevar a cabo Barack Obama, de más de 700.000 millones de $.

Se piensa, que sería suficiente con 10 de estos miligramos para llegar a Marte, aunque no creo que sea a nivel interplanetario donde se le puede sacar mayor rendimiento.

Otro de sus problemas es el del almacenamiento. Este asunto está siendo estudiado, aunque el confinamiento se produciría esencialmente por medio de campos magnéticos [recordemos que cualquier contacto con la materia y catapum...]. De este modo, la forma de propulsar la nave sería por medio de sucesivas aniquilaciones, al modo del motor de propulsión nuclear de pulso, del que hablaremos después.

La NASA parece estar estudiando la posibilidad de recolectar la antimateria que se crea de forma natural en los Cinturones de Van Allen, por medio de campos magnéticos, para evitar los costes de su producción.

Nave propulsada por antimateria. [NASA]

Este tipo de motor, o su principio de funcionamiento, ha sido utilizado en ocasiones por la ciencia ficción, como en el caso de la Enterprise de Star Trek (aunque con resultados un poco sospechosos).

Pasemos ahora a los Veleros Solares. Normalmente, este tipo de "motor" estaría pensado como complemento a alguna otra forma de propulsión de tipo reactivo, aunque como concepto sería válido por sí mismo.

No hablaremos mucho aquí de los veleros solares, puesto que es un asunto que ya ha sido tratado con éxito por algunos de mis compañeros en fechas anteriores. Diremos, no obstante, que su principio de funcionamiento es el de la presión de radiación, es decir, el de utilizar el empuje generado por la luz (visible o no) que incidiría sobre una enorme superficie (vela).

Este sistema tiene algunas ventajas, como son la no necesidad de portar combustible alguno para su funcionamiento, al margen de las enormes velas, así como el de estar basada en tecnologías perfectamente conocidas. Sin embargo, necesitarían una fuente de luz que emitiese en el mismo sentido en que se quisiera realizar el trayecto, por lo que se complicaría un posible viaje de vuelta. Además, su capacidad de maniobra sería escasa, y sus tiempos de aceleración y decelaración muy lentos, aunque continuos (siempre que la fuente de luz incidiese sobre la vela).

Existen algunos proyectos como el Cosmos-1 para estudiar la viabilidad de los veleros solares.

Pasemos ahora, a mi medio de propulsión interestelar favorito: la estatocolectora o Bussard ramjet.
El primer diseño fue presentado en el año 1960 por Robert W. Busard, consistiendo este, en un enorme recolector del hidrógeno espacial, que sería utilizado como combustible para la nave expulsándolo a gran velocidad a modo de impulso (por medio de descargas puntuales (pulsante), o continuadamente). Sin embargo, sus dimensiones habrían de ser gigantescas, debido a que el espacio vacío está bastante vacío (qué simpático), y la cantidad de átomos de hidrógeno que podría captar por unidad de volumen sería muy pequeña.

Estatocolectora

De hecho, algunos físicos e ingenieros aeroespaciales como Robert Zubrin afirman haber demostrado que la levísima fuerza de rozamiento contra los átomos del espacio que sufriría la nave, sería mayor que el empuje aportado a la estatocolectora por el hidrógeno emitido, debido a sus enormes dimensiones.

A pesar de esta cuestión, las estatocolectoras han sido las favoritas de los escritores de ciencia-ficción dura, que han visto sin embargo en ellas las formas más racionales de viaje interestelar. Así, autores como Poul Anderson en su Tau Cero, o Larry Niven en su saga Mundo Anillo, las han utilizado como principio de movimiento de sus naves.

He dejado para el final, los dos sistemas basados en las reacciones nucleares, ya que han sido los que más seriamente parecen haber sido estudiado hasta ahora. [No obstante, últimamente se empiezan a escuchar noticias sobre proyectos relacionados con las Ramjets o los veleros solares].

Comencemos por los cohetes de fusión.
Cuando dos átomos ligeros se unen para formar uno mayor, se libera en el proceso una gran cantidad de energía (este es el principio de la fusión nuclear). Parte de esta energía se liberaría en forma de neutrones (reacción de fusión de tritio y deuterio) que escaparían proporcionando el impulso a la nave.

Durante los años 70, la Sociedad Interplanetaria Británica desarrolló un proyecto conocido como Project Daedalus cuyo objetivo era el de construir una nave capaz de alcanzar la estrella de Barnard (a 5,9 años-luz) en unos 50 años. El motor de la nave se basaría en un sistema de confinamiento inercial, que haría que el plasma resultante de la reacción de fusión saliese despedido de forma controlada produciendo el impulso.

[En la imagen: Daedalus llegando a la estrella de Barnard (Adrian Mann)].

Daedalus necesitaría contar con una masa de combustible de 50.000 toneladas y su velocidad máxima podría ser de 0,12c.

15 años antes del proyecto Daedalus, la NASA trabajó en el conocido como Project Orion. Este fue el primer intento de diseño de una nave propulsada por fisión nuclear en lugar de reacciones químicas, y tuvo como corolario el Superorion, diseño aplicado a un posible viaje interestelar.

Proyecto Orión [NASA]

Este proyecto se basaba en el último tipo de motor de propulsión que vamos a estudiar: el motor de propulsión nuclear de pulso.
La idea era utilizar miles de pequeñas explosiones nucleares direccionadas, para dar impulso a la nave. Sin embargo, existía un grave problema con el combustible, ya que se calculó para él una masa de 8.000.000 de toneladas (comparado con esto Daedalus es una maravilla).

En la década de los 80, la NASA, en colaboración con la Agencia Naval estadounidense creó el Project Longshot cuyo objetivo era el de valorar la posibilidad de crear una nave no tripulada capaz de llegar a Alfa Centauri en menos de 100 años. Se estudió, en esta ocasión, la combinación de la tecnología de fusión del Daedalus, con el motor pulsante del Orión.
Se construiría en órbita (para evitar los problemas de escape de la gravedad terrestre) en la Estación Espacial Internacional, y contaría con una masa de combustible de "sólo" 264Tm de Helio-3 y Deuterio. Aquí os dejo el paper original con la explicación del Proyecto.

Konstantín Tsiolkovski, uno de los padres de la aeronáutica escribió en una ocasión:

La Tierra es la cuna de la Humanidad, pero no puedes vivir en una cuna eternamente

Esperemos que no nos toque morir en la cuna.

lunes, 12 de enero de 2009

Matrix y los hombres-pila. Los Wachowski contra Caratheodory. (F.C.F.)

Matrix se ha convertido, por derecho propio, en una saga de culto, y, que además, ha trascendido al cine en muchos ámbitos. Uno de ellos ha sido el de la filosofía. Y no sólo por parte de aficionados, sino también por filosófos de profesión [Si no estoy mal informado, en la Facultad de Filosofía de Oviedo se ha leído o está por leer una tesis doctoral cuyo tronco principal es la filosofía de Matrix].

Sin embargo, y a pesar de la gran labor de los hermanos Wachowski, capaces de hacer que dudemos de la mismísima "realidad", su trato hacia la física no ha sido del todo honorable. Y digo esto por no decir otra cosa, ya que se han pasado los dos primeros principios de la Termodinámica por el forro de los cojines [mal pensados].

Me estoy refiriendo, como el título de la entrada indica, a la utilización de los seres humanos como fuentes de energía por parte de las máquinas.

A pesar de que he encontrado varios blogs y páginas donde se comentaba este grave error, he observado que, la mayoría de ellos (en muchas ocasiones plagios unos de los otros) se centraban en establecer una comparación entre las "pilas" [este término se debe a que su creador, Volta, allá por el 1800, utilizó un apilamiento de discos de zinc y cobre (electrodos), intercalados con paños empapados con una disolución salina (electrolito) para generar electricidad, creando la primera "pila"], y los seres humanos en esa misma función, desde el punto de vista literal, es decir, comparando las posibles corrientes generadas en el cuerpo humano y su presunto voltaje, con el de las pilas actuales.

Sin embargo, si bien es cierto que los seres humanos no tienen mucha pinta de hacer bien la función de las pilas Duracell, en el sentido literal, [y eso que existen algunos proyectos de ese estilo en pequeña proporción] vamos a ser un poco menos estrictos, y aceptar que con el término "pilas", Morfeo se refería a que los humanos suministraban energía a las máquinas, y no a que las máquinas conectaban a un par de tíos, uno cabeza arriba, y el otro cabeza abajo, para generar electricidad.

[A veces, y puede servir como autocrítica, cuando uno busca desmontar argumentos deshonestos con la física en el cine de ciencia-ficción, debe preguntarse si los suyos no son tan ridículos como los del director en cuestión, o si su modo de enfocar tal error no ha sido demasiado corto de miras].

Hecha esta pequeña crítica hacia los autores de algunos de los blogs o páginas web que he visitado sobre el tema (la mayoría en inglés, así que es poco probable que vengan a pedirme cuentas), comencemos a tratar el asunto de la supuesta producción de energía aprovechable por parte de los humanos.

Vamos, no obstante, a enunciar antes los dos primeros Principios de la Termodinámica, según los cuales parece regirse el universo. [Como dijo en una ocasión uno de mis profesores: "Si se descubriese que uno de los Principios de la Termodinámica no se cumple, la noticia saldría hasta en el Qué me dices!"] (Se dice el pecado pero no el pecador).

Si hay algo que me gusta de la Termodinámica es la cantidad de formas diferentes de las que se pueden enunciar sus Principios [Es como el quinto postulado de Euclides, que durante los 22 siglos que tardó en ser independizado de los otros cuatro (por el gran Gauss), adquirió numerosísimas formulaciones equivalentes].

De esta forma, vamos a quedarnos con un par de definiciones de cada uno de los dos Primeros Principios, la más conocida, y la que nos será de más utilidad:

Primer Principio de la Termodinámica:
1-(Helmholtz, 1847)
"La energía total de un sistema aislado se conserva"

Donde Q es el calor aportado o cedido por el sistema, y W el trabajo realizado (bien sea mecánico, químico, etc.). [Utilizando el criterio de signos: W>0 si el sistema recibe el trabajo y W<0 si lo realiza]. [La reformulación axiomática de la Termodinámica no incluye este principio ya que se considera general en toda la Física]

2- "No existe el móvil perpetuo de primera especie" Es decir, un dispositivo cíclico que pueda realizar un trabajo sin aporte de calor, [capaz de crear energía]. (1 -> 2 ya que dU=0 -> si Q=0 -> W=0).


Segundo Principio de la Termodinámica:
1-(Caratheodory, 1925)
"Existen estados de equilibrio arbitrariamente próximos a uno dado y que no pueden alcanzarse desde éste, mediante procesos adiabáticos".

De aquí se puede deducir la formulación tradicional:

2-(Prigogine, 1950)
"Para un sistema cerrado existe una función extensiva: S de los parámetros de estado tal que su variación entre t1 y t2>t1 es igual a:

con:

"

Donde S es la famosa entropía, dQ la variación de calor (la delta se corresponde con la notación utilizada para expresar diferenciales no exactas), y Screada un término que sólo puede ser positivo o cero (cuando el proceso es reversible).

3-(Kelvin/Planck)
"No existe el móvil perpetuo de segunda especie".
Es decir, aquel capaz de transformar con un rendimiento del 100%, calor, en trabajo.

Os dejo aquí una imagen del móvil "perpetuo" de K. Kail, y otra del creado por Lisa Simpson, con el consiguiente enfado de su padre...

"¡En esta casa obedecemos las leyes de la Termodinámica!"

[Por cierto, ya Leonardo Da Vinci, en el siglo XV aseguraba que el hombre no podría contruir máquinas de este tipo].

Bien, dicho esto, la verosimilitud de utilizar a los seres humanos como fuentes de energía se cae por sí misma. Voy a poner un ejemplo que creo, será muy gráfico. Sin embargo, vamos a comentar algunas cosas antes.

Una persona normal, a lo largo de un día, consume entre 1000 y 12.000 kcal [Nunca he oído hablar de una dieta más calórica que la de Michael Phelps (14Oros y 2Bronces Olímpicos)], es decir, entre unos 4MJ y unos 48MJ. Cantidades nada despreciables.

Resulta bastante evidente, que a la hora de "producir" energía, lo más conveniente es utilizar recursos de fácil acceso, para cuya extracción no sea necesario un gasto extra de la misma, sino que el balance sea positivo [al punto en el que la energía producida es igual a la necesaria para hacer funcionar los sistemas de producción se le conoce como "break even" ó "energy gain factor", los físicos de fusión llevan decenios buscándolo y todavía no lo han encontrado (esperamos noticias del ITER), sin embargo, en una turbina movida por el agua de un río, apenas es necesario aportar alguna energía extra a la cinética del agua para generar electricidad].

La diferencia entre los humanos y el agua del río es fundamental. Mientras que el agua que cae de la montaña sólo cae una vez, pasando por la turbina y generando electricidad, las pilas humanas requerirían que tras cada aporte de energía, los humanos fuesen recargados, de la misma manera que las pilas recargables (en esto sí se parecen). Y aquí viene el gran problema, ya que el balance energía aportada - energía aprovechable sólo puede ser deficitario a menos que arranques masa de los propios seres humanos, algo que acabaría por matarlos, o que violes el Primer Principio de la Termodinámica, algo poco probable.

En otras palabras, o a los humanos los trae la cigüeña para que las máquinas los expriman (tal vez literalmente), o su rentabilidad manteniéndolos vivos hace aguas.

Veamos, una persona gasta entre el 50% y el 80% de la energía que consume en mantenerse viva (básicamente), por lo que sólo nos queda entre el 20% y el 50% para aprovechar, y eso que aquí se incluyen toda clase de movimientos externos como parpadear, hablar, caminar, etc.

Voy a concluir con el ejemplo prometido. Una de las formas más lógicas para la producción de energía por parte de un ser humano sería la de la utilización de la energía mecánica generada por el movimiento de los pedales de una bicicleta.

Pues bien, imaginemos a un ciclista de la talla de Miguel Induráin [ni Armstrong, ni nada] pedaleando para las máquinas. Un fuera de serie como él podía desarrollar potencias de hasta 500W durante periodos no demasiado largos de tiempo.

¿Qué clase de poderosísimo artilugio eléctrico podría hacer funcionar?

Pues... una batidora, un exprimidor o cinco bombillas incandescentes.
Es decir, al acabar el pedaleo Miguel tendría tres opciones para no desaprovechar más energía de la generada: prepararse un batido de frutas (energía aportada) con la luz apagada, tomarse un zumo de naranjas exprimidas (energía aportada por las naranjas) a oscuras, o contemplar a palo seco la luz de las bombillas.

O matamos a Miguel de hambre y nos quedamos sin batidora, o le damos de comer y gastamos más energía en prepararle batidos de la que produce pedaleando...



jueves, 8 de enero de 2009

Excursión al campo..., de fuerza, claro. (F.C.F.)

[Nota: El acercamiento del periodo de exámenes ha provocado un aumento notable de la densidad de entradas en los últimos días. Quiero aclarar que no me he vuelto majareta, sino que pretendo producir una buena base de ellas (o sistema generador compuesto por vectores linealmente independientes) para los tiempos difíciles que vienen, por si las moscas.]

Se acerca la parte de la asignatura que más ansiosamente espero desde el inicio, la de los viajes en el tiempo. Pienso dedicar, como ya creo haber comentado, varias entradas al asunto, sin embargo, quería tocar antes algunos temas que me he dejado en el tintero. Uno de ellos es el de los famosos campos de fuerza, de los que trataré a continuación.

Un campo de fuerza, definido según sus connotaciones derivadas de la ciencia-ficción, sería una barrera inmaterial capaz de frenar ataques enemigos de diversa índole, aunque también podría utilizarse como herramienta a la hora de realizar toda clase de tareas.

Ahora, en mecánica, un campo es una construcción abstracta que asocia a cada punto del espacio (de un espacio) un valor numérico, un vector, o un tensor principalmente (dependiendo de si el campo es escalar, vectorial o tensorial [este último tipo agrupa a los otros dos]). De este forma, y a grosso modo, podemos decir que un campo de fuerzas es un campo vectorial que representa el conjunto de fuerzas (vectores) que actúan sobre un cuerpo.

Una vez expresada la diferencia entre ambos conceptos, vamos a estudiar la verosimilitud de la existencia real de los campos de fuerza en el sentido de la ciencia-ficción.

Parece que la capacidad para crear campos de fuerza corresponde principalmente a las féminas, siendo Violeta Parr (de los Increíbles), y la Mujer Invisible (Susan Storm de los 4 fantásticos), las más conocidas (las únicas que yo conozco al menos). También podría atribuírsele esta propiedad al temible Magneto, de los X-men, capaz de modificar a su antojo los campos eléctrico y magnético [en "realidad" son una misma cosa] con maravillosas aplicaciones como "manipular el hierro de la sangre de alguien llevando el flujo hacia su cerebro causándole aneurisma o pérdida del conocimiento". [No está mal.]

En el mundo real encontramos algunos ejemplos de campos de fuerza en el sentido de la ciencia -ficción, principalmente en la naturaleza. Un buen ejemplo sería el del campo magnético terrestre, que actúa a modo de escudo frente al viento solar y los rayos cósmicos [que no cómicos].

Sin embargo, existen limitaciones a la hora de pensar en los campos de fuerza a modo de escudos manejables capaces de evitar toda clase de ataques. Estas limitaciones no son otras que las asociadas a la naturaleza de las fuerzas presentes "el universo", que, a día de hoy, se clasifican en cuatro, (luego hablaremos de las unificaciones): la fuerza gravitatoria, la fuerza electromagnética, y las fuerzas nucleares fuerte y débil.

En esencia, toda la física (entendida como ciencia, no como realidad) se sustenta en estas cuatro fuerzas, descritas por la Relatividad Especial, General, la mecánica cuántica, la física estadística y el electromagnetismo de Maxwell [y otros desarrollos posteriores de estas como la electrodinámica cuántica o la cromodinámica cuántica].

Voy a intentar, dentro de mis modestos conocimientos (más modestos si cabe ante estas obras abrumadoramente colosales de la Ciencia), explicar el "funcionamiento" de estas fuerzas, (siempre, y obviamente, desde el punto de vista de las teorías físicas mayoritariamente aceptadas en la actualidad).

Comencemos, cómo no, por la Fuerza Gravitatoria.

La Fuerza Gravitatoria fue descrita con "éxito"por primera vez por el gran Sir Isaac Newton en su archifamosa Ley de la Gravitación Universal, que explica que cualquier objeto con masa (la naturaleza de esta magnitud aún se desconoce hoy en día) atrae a cualquier otro con tal propiedad, con una fuerza proporcional al producto de estas, e inversamente proporcional al cuadrado de la distancia que las separa, y en la dirección de la línea que une los centros de masas de ambos objetos. A la constante de proporcionalidad se la denota por la letra G, y se la conoce como "Constante de Cavendish", o "Constante de gravitación universal".

Esta Fuerza tendría alcance infinito, y sería responsable principal de la dinámica actual del universo (ejem, eso no se lo cree ni ella). Es decir, describiría el movimiento de los planetas, de las estrellas, de las galaxias, etc.

A principios del siglo XX, Albert Einstein cambió la concepción que de la gravedad se tenía desde los tiempos de Sir Isaac con su gran Teoría de la Relatividad General. Después del problema que suponía la no invariancia de la Ley de Gravitación de Newton bajo transformaciones de Lorentz (algo que sí ocurría con las ecuaciones de Maxwell), de su famosa "idea más feliz de mi vida "[Véase Principio de Equivalencia en este mismo blog], y de algunos palos de ciego, Einstein, tras ser formado por su amigo Grossman en el cálculo tensorial de Ricci, Riemann, y Levi-Civita , formuló de forma incorrecta su primera teoría gravitatoria en 1914, siendo localizados los fallos por Hilbert, y él mismo, poco después. [Esta primera versión fue suficiente para explicar los 43' de arco de precesión de la órbita de Mercurio].

El 20 de Noviembre de 1915, David Hilbert publicó, en un artículo llamado Las Bases de la Física, las ecuaciones de campo correctas de la Relatividad General, 5 días antes de la publicación de Einstein. [No obstante, el mérito de la Teoría corresponde a Einstein].

"La" ecuación de campo de Einstein puede escribirse así:

Donde Eik es el tensor de curvatura de Einstein, c la velocidad de la luz, G la constante de Cavendish, y Tik el tensor de energía-impulso.

Los resultados de Einstein cambiaron la concepción de la gravedad (y otras muchas cosas), pasando a considerarse esta como una deformación del "espacio-tiempo" producida por los objetos con masa o energía sobre la propia geometría del universo.

Este comentario sobre la Teoría einsteniana no sería necesario para lo que nos ocupa, ya que sólo necesitaremos quedarnos con un par de apuntes sobre la gravedad (clásica): que tiene alcance aparentemente infinito, y que es producida por objetos con masa.

Pasemos ahora a la Fuerza Electromagnética.

La interacción entre cargas eléctricas y la creación de campos eléctricos y magnéticos y sus interacciones fue estudiada a lo largo del siglo XIX por físicos de la talla de Oersted, Ampère, Faraday, Ohm o Henry. Estas contribuciones unidas a las anteriores de (entre otros) Coulomb y el gran Gauss, permitieron a James Clerk Maxwell establecer su teoría del electromagnetismo en la que se unificaban ambos campos en una serie de ecuaciones que, tras ser revisadas por Oliver Heaviside quedaron en cuatro: las famosas "Ecuaciones de Maxwell". [Ha de notarse que la Fuerza de Lorentz no está incluida en estas expresiones, sino que las complementa].

Las cuatro Ecuaciones de Maxwell, más la Fuerza de Lorentz, toman la siguiente forma en notación vectorial (y según el SI de unidades):

Siendo E el campo eléctrico, D el vector desplazamiento eléctrico, B el vector inducción magnética, H el vector campo magnético, e0 la permitividad del vacío, p la densidad volumétrica de carga eléctrica, J la densidad de corriente libre, y v la velocidad de la carga sobre la que actúa la fuerza de Lorentz como consecuencia de la aplicación de un campo eléctrico y uno magnético.

La primera ecuación, la Ley de Gauss para el campo eléctrico aplicada al campo eléctrico creado por una carga puntual es equivalente a la Ley de Coulomb, que determina que, de forma similar a lo que ocurre con la masa en la Ley de Gravitación Universal de Newton, dos partículas con carga se atraerán o se repelerán (importante diferencia) en una proporción igual al producto de sus cargas e inversamente proporcional al cuadrado de la distancia que las separa.

Observamos, además, que la existencia de una fuerza asociada al campo magnético depende de que se encuentre en movimiento, y de que lo haga moviéndose a una velocidad que no sea paralela a la dirección del campo magnético aplicado.

Vamos a quedarnos con los siguientes apuntes sobre la Fuerza Electromagnética: requiere la presencia de cargas netas de signos opuestos para que se atraigan, y de cargas del mismo signo para que la Fuerza sea repulsiva (iba a poner "repelente"), así mismo, para que la Fuerza sea de naturaleza magnética necesitamos cargas en movimiento, y finalmente: la materia, en general, es neutra y no ferromagnética ni ferroeléctrica, y por tanto, difícilmente imanable o polarizable.

Dicho esto, viendo que me enrollo más que las persianas, que estas dos interacciones son las únicas a larga "distancia", y que de las Fuerzas Débil y Fuerte sé bastante poco (por no decir nada), creo que podemos empezar el análisis sobre la posibilidad de crear campos de fuerza (gravitatoria, o electromagnética).

Existe un problema esencial a la hora de construir campos de fuerza electromagnéticos, y es que, su poder se reduciría a actuar sobre materiales ferromagnéticos o ferroeléctricos, o sobre partículas con carga eléctrica no nula.

Un magnífico ejemplo de este hecho, es el que nos brinda el campo magnético externo de la Tierra. Capaz de frenar el viento solar, no podría evitar ni siquiera que el más pequeño de los asteroides penetrase a través de tal escudo.

De este modo, y dejando al margen el problema de la creación del campo de fuerzas (que trataremos conjuntamente con el de la gravedad), diremos que un campo de fuerza electromagnético tiene problemas bastante significativos...

Si pasamos ahora a los campos de fuerza gravitatorios, nos encontramos con el problema de la naturaleza atractiva de esta fuerza (al menos, hasta lo que sabemos). No sería deseable un escudo que en lugar de frenar un misil, lo acelerase aún más contra nosotros.

De todas maneras, aún cuando lográsemos de alguna ingeniosa forma, teorizar un campo de fuerza como escudo contra el enemigo ("el enemigo", así, en general, bien sea el vecino de puerta, o una raza extraterrestre), nos quedaría aún un problema bastante insalvable para mi gusto. Este problema no es ni más ni menos que la ingente cantidad de masa que se necesitaría para crear un campo gravitatorio tan considerable, como para frenar los ataques del invasor. Traducido al lenguaje del electromagnetismo, la cantidad de carga necesaria, o la intensidad que se necesitaría sería brutal, y siempre con el problema de su actuación sólo sobre objetos cargados.

[Serían, no obstante, fácilmente explicables los efectos atractivos de Jessica Alba sobre toda clase de homínidos heterosexuales y machos (con machos quiero decir "no-hembras", y no en el sentido de: ¡qué macho soy!)].

martes, 6 de enero de 2009

¿Invisible?. Bueno, a medias...(F.C.F.)

Jules Verne y H.G. Wells han sido (con el permiso de Mary Shelley y su Frankenstein) los dos padres de la ciencia ficción. (Al menos de la ciencia ficción moderna).

Sin embargo, sólo el primero de ellos parece haber pasado a la Historia como un visionario de la ciencia futura, una especie de adivino cuyos argumentos novelísticos han ido convirtiéndose en realidades (más o menos ajustadas a esos guiones en cada caso) de forma lenta pero incesante. [Y no sólo a nivel científico y tecnológico, sino que algunos le atribuyen predicciones sobre geografía, sociología, política, economía, ecología, etc. Por ejemplo, algunos ven un vaticinio del nazismo en su obra "Los 500 millones de la Begún".]

De este modo, hay quien otorga a Verne la predicción de los siguientes ingenios científicos y tecnológicos: "De la Tierra a la Luna": consecución de un viaje a la Luna, acierto en las medidas y peso de la nave (aunque no en el sistema de propulsión) así como en los lugares de lanzamiento, observación y caída de la misma a su regreso; "Ante la bandera": las armas de destrucción masiva; "Robur el conquistador": los helicópteros; "20.000 leguas de viaje submarino": las bombonas de oxígeno de los buzos, la propulsión eléctrica de submarinos [curiosamente, a diferencia de lo que se cree popularmente, el primer prototipo de submarino es anterior a esta obra]; "El castillo de los Cárpatos": la reproducción audiovisual; "La asombrosa aventura de la misión Barsac": el láser, la lluvia artificial, el control remoto, la tortura mediante descargas eléctricas; y en otras obras menos conocidas: el fax, el teléfono, la calculadora, los ordenadores, e incluso Internet...

El propio Verne hablando sobre sus novelas declaraba: "En mis novelas siempre he tratado de apoyar mis pretendidas invenciones sobre una base de hechos reales y utilizar, para su puesta en escena, métodos y materiales que no sobrepasen los límites del saber hacer y de los conocimientos técnicos contemporáneos."

Sin embargo, había algo que no toleraba, y era que se comparasen sus novelas con las de Wells: "Las creaciones del señor Wells, pertenecen a una edad y grado de conocimiento científico bastante lejano del presente, por no decir que completamente más allá de los límites de lo posible."

En efecto, hoy en día, gran parte de los ingenios incluidos por Verne en sus novelas han ido siendo desarrollados por la ciencia de manera más o menos divergente respecto a las conjeturas del escritor. Sin embargo, no ocurre lo mismo con Wells, cuyo nombre no ha pasado a la Historia por ser un visionario de la ciencia moderna, sino por su obra novelística. [Sí se le atribuyen unas pocas predicciones, sobre todo en el ámbito militar: aviones, tanques, misiles, bombas, etc.].

Tal vez, y sólo tal vez, lo que ocurre es que la ciencia todavía no ha llegado a los niveles necesarios para estudiar algunas de las propuestas fictíceas (en principio) del escritor inglés. Y con esto me refiero principalmente a dos cosas: la invisibilidad ("El hombre invisible"), y los viajes en el tiempo ("La máquina del tiempo"). [Que quede claro que en ningún caso pongo las de Wells al nivel de las descripciones minuciosas del francés]

Estos dos asuntos van a ser el objeto de estudio de dos de mis próximas entradas. Una de ellas, esta.

En muchas ocasiones se ha estudiado la dificultad de convertir a un ser humano en invisible. [Véase la entrada de Agosto de 2006 de la página web de la asignatura] obteniendo como resultado su práctica imposibilidad, al menos de forma literal. Puede verse fácilmente, además, como, en caso de que se pudiera lograr tal hazaña, los seres humanos invisibles estarían ciegos, ya que la luz no se proyectaría en sus retinas.

Por eso, voy a dedicar esta entrada a un sistema inventado en Japón, y cuyo fin es crear ropa "invisibilizante" [o invisibilizadora, no sé]. Se trata de una gabardina con la propiedad de que al mirarla, los objetos situados detrás de la persona con tal prenda, pueden verse a través de ella. De este modo se crea el efecto de invisibilidad.

Sin embargo, no es oro todo lo que reluce, ni muchísimo menos. Explicaremos en qué se basa este ingenioso sistema, pero no sin antes contemplar una simpática demostración que nos traen unos japoneses muy simpáticos que no paran de bailar ante la cámara con sus gabardinas de invisibilidad:


Japoneses "invisibles".

No me dirán que no son tan tiernos como el peluche del anuncio de Mimosín.

Antes de contarles el funcionamiento de este ingenioso (pero desilusionante al fin) sistema, debemos estudiar una propiedad física bien conocida: la reflexión.

La reflexión es el cambio de dirección de un rayo (u onda) producido en la superficie de separación de dos medios, de tal forma que es devuelto al medio inicial, es decir, no penetra en el segundo medio.
Existen tres tipos fundamentales de reflexión, la "especular", producida en aquellos materiales en que se cumple la Ley de la reflexión [Que establece que el ángulo de incidencia es igual al de reflexión medidos desde la normal a la superficie, uno a un lado, y el otro al opuesto],; la "difusa", aquella que se produce en superficies irregulares que reflejan rayos en todas direcciones, no cumpliéndose dicha Ley; y finalmente, la "retrorreflexión", que será la que nos ocupe.

Como se puede ver en el dibujo, la retrorreflexión consiste en que los rayos reflejados vuelven por el mismo camino que los incidentes, sin importar el ángulo de incidencia. Hoy en día, existen muchas aplicaciones para materiales con esta propiedad, como los reflectores de las bicicletas, las señales de tráfico, las pantallas de cine, y la que nos concierne: ¡gabardinas de invisibilidad!.

Resulta evidente que las gabardinas retrorreflectantes no vuelven a nadie invisible, sino que por el contrario son totalmente opacas, y tan visibles o más que cualesquiera otras. Por ello, necesitaremos algunos artilugios más para crear la ilusión de invisibilidad. [Empieza la desilusión].

Una cámara de vídeo situada detrás del sujeto con la gabardina, filmará los objetos situados detrás de él, pasando dichas imágenes al ordenador, que corregirá la perspectiva en la medida de lo posible.

Estas imágenes serán dirigidas a un proyector situado justo delante del observador. Este aparato proyectará las imágenes sobre la gabardina retrorreflectante, que las devolverá creando el efecto de que no hay nada interponiéndose entre el que mira, y los objetos tras el sujeto con gabardina.

Como es natural, este sistema tiene bastante problemas, siendo, para mi gusto, el del proyector el más importante de ellos.

Supongamos que se quisiera utilizar esta tecnología con fines militares y que se consiguiesen integrar la cámara y el ordenador dentro de la gabardina. Se necesitaría que el enemigo caminase con el proyector apuntando hacia el sujeto de la gabardina para que no pudiese verlo.

Algo un tanto ridículo, ¿no creen?.

[Si no he escrito "gabardina" 50 veces, no lo he escrito ninguna]

domingo, 4 de enero de 2009

"Cuando los mundos chocan." (2) (F.C.F.)

Como ya había comentado, nos faltaban dos puntos por estudiar referentes a la posible colisión de un NEO contra la Tierra: los mayores peligros conocidos que acechan actualmente, y los medios disponibles para eliminarlos.

He de deciros, para vuestro regocijo y tranquilidad, que a 4 de Enero de 2009, sólo hay un NEO (registrado) con un nivel en la escala de Turín superior a 0. Se trata del 2007 VK184, un pedrusco de 130m de diámetro, con capacidad para generar una explosión de 150Megatones, es decir, 3 veces más que la mayor bomba H jamás lanzada por el ser humano, la Bomba del Zar, probada por los rusos en el 61, que creó una bola de fuego de 5Km de diámetro, y que generó una potencia equivalente al 1,38% de la radiada por el Sol.

2007 VK184 tiene un nivel 1 en la escala de Turín [menuda birria], y un P=-1,83 en la de Palermo.
Y lo que es más importante, una probabilidad entre 2.940 de impactar contra la Tierra en el 2048.

No cabe duda de que comparado con el asteroide del tamaño de Texas que se cernía sobre la Tierra en Armageddon, y que un puñado de héroes americanos sin entrenamiento espacial partían a la mitad con una bombita nuclear depositada en un agujerito de su superficie, 2007 VK184 es una ridiculez.

[También es verdad que si yo fuera asteroide y viese venir a Ben Affleck en un cohete me desviaría de mi órbita para no verlo actuar].

Hecho este comentario, y con todos mis respetos hacia 2007 VK184, he de decir que el NEO más famoso y presuntamente peligroso en su momento fue 2004 MN4, posteriormente bautizado como 99942 Apophis. Este meteorito, de 270m de diámetro, y una energía de impacto estimada en 510MT fue descubierto en junio de 2004, y se convirtió en el NEO con el mayor nivel en la escala de Turín y la de Palermo hasta hoy en día.

Tras las primeras observaciones, Apophis llegó a tener unas presuntas posibilidades de impacto de una entre 37 para 2029, colocándolo en un nivel 4 en Turín, y con un P=1,10.

Paso de Apophis en 2029. [NASA]

Observaciones posteriores han descartado su impacto para 2029, pero se mantiene en segunda posición del ranking de peligrosidad, tras 2007 VK184, ya con Turín 0 y P=-2,41, por un posible impacto en 2036, y con una posibilidad entre 43.000.

[Respecto a la trayectoria de Apophis, circuló durante un tiempo el bulo de que un niño alemán había corregido los cálculos de la NASA con un telescopio casero, un chicle de Boomer y un clip (esto último es una licencia), pero la NASA pronto negó tal historia tachándola de absurda].

Vamos ahora a comparar la forma de proceder que aparece en la ciencia ficción contra este tipo de amenazas, con las posibles soluciones reales al problema.

Es evidente que la solución nuclear es la que más mola. ¿Qué mejor que mandar a cuatro sudorosos cachas de los Estados Unidos de América [pronunciado con énfasis] a colocar unas cabezas nucleares que manden el meteorito a tomar por el saco?. ¡Nada mejor!, debieron pensar la práctica totalidad de guionistas de cine catastrófico.
Es patriótico, divertido, y de paso les damos uso a unas armas que de otra manera tendríamos muertas de risa en algún cajón.

Sin embargo, este método resulta tener algunos incovenientes bastante molestos. A su favor diremos, que, en caso de que el impacto con la Tierra estuviese fechado para dentro de unos cuantos años, podría ser viable tratarlo con armas de este tipo, ya que, aún cuando sólo lograsen desviarlo unos milímetros por segundo de su trayectoria original, podrían ser suficientes al cabo de unos años para evitar el choque.

Existen, no obstante, dos problemas que se superponen. Por un lado, resultaría muy difícil explotar una bomba nuclear en la superficie o el interior de un asteroide, sin provocar un desprendimiento de "pequeños" [o grandes] fragmentos del mismo en todas direcciones, con la posibilidad de que estos alcanzasen la Tierra. De la misma manera, tales fragmentos podrían haber quedado contaminados con los restos radiactivos de las bombas, en el caso de que los hubiese...

La Agencia Espacial Europea (ESA) se encuentra trabajando actualmente en una nueva y "precursora" misión de desviación de PHAs conocida como Don Quijote [Ahora veréis el porqué del nombre].

Don Quijote consistiría en dos naves espaciales, llamadas Sancho e Hidalgo, que tendrían objetivos diferentes.

Sancho debería posarse en el asteroide y moverse con él durante un tiempo, determinando su masa, tamaño, y su órbita de la forma más precisa posible. Mientras tanto, Hidalgo, una vez conocidos los datos aportados por la otra nave, se estamparía [literalmente] contra el pedrusco desviándolo de su trayectoria maligna:


Misión Don Quijote.


¿A qué conclusiones se llegan?. Primero: lo más representativo del Quijote para la ESA es que se tiraba de cabeza contra los molinos. Dos: les gustó la idea.
Tecnología punta, no cabe duda...

Otra opción menos espectacular sería aquella en la que se enviaría una nave lo más pesada posible a viajar próxima al asteroide modificando poco a poco su trayectoria por efecto de la gravedad. Sin embargo, esta opción es muy lenta, y requeriría varios años.

Aunque existen otras propuestas, me quedaré finalmente con una que me ha llamado especialmente la atención. Esta consistiría en atarle una vela solar al asteroide, a modo de paracaídas, con la que alterar su trayectoria a través de la presión de radiación producida por los fotones emitidos por el Astro Rey.

He de decir que me decanto por Don Quijote. ¿Quién habrá sido el listo al que se le ocurrió estampar una nave de millones de euros contra un asteroide asesino?, estoy seguro de que sus coleguis de la ESA se rieron de él un buen rato.

Claro que también hacían caricaturas de Darwin con cuerpo de mono...