Archive for the 'Uncategorized' Category

01
Feb
09

La Cibernética y el nacimiento de la Inteligencia Artificial. Por Jipifeliz.

robot

En nuestros dias la Cibernética no debe verse ni como una ciencia, ni como una disciplina; sino como un movimiento de ideas, que trató de romper con la estrechez de conocimientos propios de cada disciplina. El movimiento cibernético permitió que científicos de ramas muy diferentes se agruparan en colectivos de investigación y por primera vez, matemáticos, fisiólogos y especialistas en electrónica se integraran en equipos multidisciplinarios. Su creador Norbert Wiener después de estar años trabajando en las teorías matemáticas y de agregar alguna fórmula más al gran aparato matemático, comenzó a trabajar en cuestiones técnicas como el control de los disparos de la artillería antiaérea y la transmisión más eficiente de mensajes codificados a través de sistemas de comunicaciones. Escribió un libro sobre cibernética y el control en los animales y las máquinas que se convirtió en un éxito. Las condiciones estaban dadas para una nueva revolución dentro de la ciencia.

La cibernética se basa en el estudio de las máquinas (objetos artificiales) y su aplicación, lo que promovió una nueva revolución científica sobre la base de la interrelación de los humanos con las máquinas a un ritmo tecnológico de crecimiento jamás visto y de carácter impredecible. Este ritmo ya se hace sentir y podemos afirmar, por ejemplo, que un hombre del siglo XVI pudiese muy bien, haber vivido sin mucho sobresalto en el siglo XVII en cambio uno del siglo XIX tendría grandes problemas para adaptarse al XX y todo indica que esta aceleración seguirá aumentando, lo cual hará que una persona en su vejez tenga que vivir en un mundo totalmente diferente al de su infancia.

Con la cibernética el concepto de máquina ha ido cambiando a lo largo de los años. Luego de aquellas primeras máquinas mecánicas donde se pretendía reemplazar completa o parcialmente el trabajo físico del hombre y de los animales, han seguido otras, cuyo fin, es la mecanización del trabajo intelectual. Hoy las máquinas realizan
funciones que antes se consideraban propias del intelecto humano. Pero quizás el aporte más importante de la cibernética fue fundamentarse sobre las analogías, de ahí su característica de ciencia exógena, la cual está dada por la interrelación con otras ramas del conocimiento y su asimilación interna, pero sobre todo por la propuesta de teorías
generales que expliquen fenómenos propios de las otras ciencias. Por ejemplo, la cibernética ha preferido basarse en la teoría de los modelos, que hace más hincapié en la representación funcional de los organismos que en su estructura en el sentido vertical o jerárquico. Esto, unido a la búsqueda de analogías entre los fenómenos y no a la
reducción de uno en otro la llevó a convertirse en una ideología científica para la comprensión del mundo.

Otro de los aportes de la cibernética, es la utilización del aparato matemático, que hasta ese momento era de uso casi exclusivo de lafísica y como la cibernética a su vez era una disciplina común a varios sectores de investigación, trajo como consecuencia que ramas como la psicología, la sociología y la biología, pudieran de alguna manera formalizar sus teorías, y aún fue más lejos, ya que les proporcionó métodos de experimentación mediante la creación de máquinas que permitieran estudiar conductas, reacciones, reflejos, aprendizaje, etc.

Cuando los cibernéticos intentaban modelar la estructura de un objeto, más que la estructura lo que tenían en cuenta era la reproducción desu funcionamiento sobre otra estructura y se aspiraba a que ese modelo u objeto artificial exhibiera una conducta similar a la del original. Digo similar porque en realidad la conducta mostrada por los modelos siempre ha estado supeditada a la interpretación del investigador. Estos intentos de modelación llevaron a los científicos a la construcción de máquinas con conducta como las tortugas de Grey Walter y los zorros de Albert Ducrocq, que no eran más que pequeñas máquinas dotadas de movimiento y que se orientaban por la luz, otras se orientaban por el sonido o poseían alguna forma de radar. Pero lo más interesante era la interpretación que se le daba al comportamiento de estos ciberanimalitos. Para Grey Walter las tortugas podían pasar de un comportamiento flemático a otro irascible. Para Ducrocq, sus zorros eran capaces de manifestar sentimientos de afecto entre si. Sé que
esto a los racionalistas les puede parecer infantil, pero ¿no es interesante por no decir válido que el ser humano siga recurriendo a su fantasía para interpretar los fenómenos y que mantenga viva, en estos tiempos de determinismo científico, su capacidad de
“sorprenderse”?.

Hoy nadie habla de las experiencias emocionales con tortugas, zorros, ratones… Las ideas eran demasiado simples: cualquier aparato podía mostrar alguna forma de conducta humana. Ese era el gran sueño de los cibernéticos: reproducir la vida en todas sus manifestaciones y no sólo la inteligencia, como pretende en estos tiempos la Inteligencia Artificial. Y es que la Cibernética no basó su investigación sobre la base de que la máquina sustituiría al hombre, ya que siempre vio a ambos como sistemas con analogías funcionales, que a la vez que tenían grandes diferencias por ser organismos con estructura y organización propias poseian a su vez, muchas similitudes; De ahi que los ciberneticos le dieran, siempre, mayor importancia a la influencia de la estructura sobre la mente, pero ambos vistos como un sistema capaz de funcionar como un todo.

Vivimos en un mundo de crisis tanto social como espiritual, y el hombre desesperado vuelve sus ojos a la ciencia y espera de ella la solución a los grandes problemas que lo agobian y ve en la ideología cibernética un nuevo enfoque. Veamos algunos de los problemas que se están retomando: El sistema educativo, la salud (las prótesis), la muerte, la creatividad, la producción de bienes de consumo, el desarrollo, la comprensión de la mente humana, la felicidad, la evolución (convergencia hombres y máquinas), nuevas formas de organización social (posthumanidad), mejoramiento humano (conexión hombre máquinas).

Es por eso que la Cibernética al pasar de los años se ha ido transformando en una de las ideologías de la ciencias más influyentes, y al igual que la Física y la Biología, engendra grandes promesas y para muchos se convierte en la nueva salvadora del mundo, gracias a que ha aportado una de las metáforas más ricas y poderosas: la llamada metáfora computacional o cibernética, que ofrece una nueva óptica de la sociedad y abre las puertas hacia una nueva era post-industrial. Hoy en día son muchos los que piensan que la máquina sustituirá al hombre, o los que creen que la mente humana se puede simular a través de una computadora, o los que sueñan con crear una vida artificial.

Nacimiento de la Inteligencia Artificial:

La Inteligencia Artificial (IA) nace en un congreso celebrado en 1956, cuando un grupo de científicos reunidos en el Colegio de Dartmouth, convocados por el investigador John McCarthy del Instituto Tecnológico de Massachusetts (MIT), discutieron acerca del potencial de la computadora para simular la inteligencia humana y sentaron las bases de trabajo para las investigaciones en la IA. En ella participaron cuatro de los que mas tarde influirían grandemente en el desarrollo de la IA, McCarthy, Marvin Minsky, Allen Newell y Herbert Simon.

La IA surge como una reacción ante la Cibernética. Los pioneros del nuevo enfoque investigativo, se proponen la creación de una ciencia en si misma, sustentada sobre sus propias leyes, y se plantearon como objetivo principal el desarrollo de programas por computadoras capaces de exhibir una conducta inteligente. Muchos investigadores estaban convencidos de que los complicados procesos que componen la inteligencia serian desentrañados, que podrían elaborarse modelos matemáticos que los representaran y las computadoras podrían emular dichos procesos eficazmente.

La IA continuó con los intentos cibernéticos de formalizar sus teorías y con la creación de un aparato matemático propio. A nivel experimental se propuso la utilización de las computadoras como laboratorio donde poder comprobar la eficacia de sus hipótesis. Pero en su afán de convertirse en una ciencia endógena, no dependiente de leyes externas, abandonó la analogía como método de investigación y tuvo inexorablemente que recurrir al reduccionismo que en su versión fuerte fue el intento de reproducir la mente humana en una computadora.

Anuncios
26
Ene
09

¡Las constantes de la naturaleza! Por Emilio Silvera.

Dan al universo su carácter distintivo y lo hace singular, distinto a otros que podría nuestra imaginación inventar. Estos números misteriosos, a la vez que dejan al descubierto nuestros conocimientos, también dejan al desnudo nuestra enorme ignorancia sobre el universo que nos acoge. Las medimos con una precisión cada vez mayor y modelamos nuestros patrones fundamentales de masa y tiempo alrededor de su invariabilidad; no podemos explicar sus valores.

Nunca nadie ha explicado el valor numérico de ninguna de las constantes de la naturaleza. ¿Recordáis el 137? Ese número puro, adimensional, que guarda los secretos del electrón (e), de la luz (c) y del cuanto de acción (h). Hemos descubierto otros nuevos, hemos relacionado los viejos y hemos entendido su papel crucial para hacer que las cosas sean como son, pero la razón de sus valores sigue siendo un secreto profundamente escondido.

Buscar esos secretos ocultos implica que necesitamos desentrañar la teoría más profunda de todas y la más fundamental de las leyes de la naturaleza: descubrir si las constantes de la naturaleza que las definen están determinadas y conformadas por alguna consistencia lógica superior o si, por el contrario, sigue existiendo un papel para el azar.

Si estudiamos atentamente las constantes de la naturaleza nos encontramos con una situación muy peculiar. Mientras parece que ciertas constantes estuvieran fijadas, otras tienen espacio para ser distintas de las que son, y algunas no parecen afectadas por ninguna otra cosa del –o en el– universo.

¿Llegaron estos valores al azar?

¿Podrían ser realmente distintos?

¿Cuán diferentes podrían ser para seguir albergando la existencia de seres vivos en el universo?

En 1.986, el libro The Anthropic Cosmological Principle exploraba las diez maneras conocidas en que la vida en el universo era sensible a los valores de las constantes universales. Universos con constantes ligeramente alteradas nacerían muertos, privados del potencial para desarrollar y sostener la complejidad que llamamos vida.

En la literatura científica puede encontrarse todo tipo de coincidencias numéricas que involucran a los valores de las constantes de la naturaleza. He aquí algunas de las fórmulas propuestas (ninguna tomada en serio) para la constante de estructura fina.

Valor experimental: 1/α = 137’035989561…

  • Lewis y Adams: 1/α = 8π (8π5 / 15)1/3 = 137’384
  • Eddington: 1/α = (162 – 16) / 2 + 16 – 1 = 137
  • Wiler: 1/α = (8π4 / 9)(245! / π5)1/4 = 137’036082
  • Aspden y Eagles: 1/α = 108π (8 / 1.843)1/6 = 137’035915

Por supuesto, si la teoría M da al fin con una determinación del valor de 1/α podría parecerse perfectamente a una de estas fórmulas especulativas. Sin embargo ofrecería un amplio y constante edificio teórico del que seguiría la predicción.

También tendría que haber, o mejor, que hacer, algunas predicciones de cosas que todavía no hemos medido; por ejemplo, las siguientes cifras decimales de 1/α, que los futuros experimentadores podrían buscar y comprobar con medios más adelantados que los que ahora tenemos, a todas luces insuficientes en tecnología y potencia.

Todos estos ejercicios de juegos mentales numéricos se acercan de manera impresionante al valor obtenido experimentalmente, pero el premio para el ingeniero persistente le corresponde a Gary Adamson, cuya muestra de 137-logía se mostraron en numerosas publicaciones.

Estos ejemplos tienen al menos la virtud de surgir de algún intento de formular una teoría de electromagnetismo y partículas. Pero hay también matemáticos “puros” que buscan cualquier combinación de potencias de números pequeños y constantes matemáticas importantes, como π, que se aproxime al requerido 137’035989561… He aquí algún ejemplo de este tipo.

  • Robertson: 1/α = 2-19/4 310/3 517/4 π-2 = 137’03594
  • Burger: 1/α = (1372 + π2)1/2 = 137’0360157

Ni siquiera el gran físico teórico Werner Heisenberg pudo resistirse a la ironía o irónica sospecha de que…

“En cuanto al valor numérico, supongo que 1/α = 24 33 / π, pero por supuesto es una broma.”

Arthur Eddington, uno de los más grandes astrofísicos del siglo XX y una notable combinación de lo profundo y lo fantástico, más que cualquier figura moderna, fue el responsable impulsor de poner en marcha los inacabables intentos de explicar las constantes de la naturaleza mediante auténticas proezas de numerología pura. Él también advirtió un aspecto nuevo y especular de las constantes de la naturaleza.

“He tenido una visión muy extraña, he tenido un sueño; supera el ingenio del hombre decir qué sueño era. El hombre no es más que un asno cuando tiene que exponer este sueño. Se llamará el sueño del fondo, porque no tiene fondo.”
S. Eddington

“El conservadurismo recela del pensamiento, porque el pensamiento en general lleva a conclusiones erróneas, a menos que uno piense muy, muy intensamente.”
Roger Scruton

Hay que prestar atención a las coincidencias. Uno de los aspectos más sorprendentes en el estudio del universo astronómico durante el siglo XX, ha sido el papel desempeñado por la coincidencia: que existiera, que fuera despreciada y que fuera recogida. Cuando los físicos empezaron a apreciar el papel de las constantes en el dominio cuántico y a explorar y explorar la nueva teoría de la gravedad de Einstein para describir el universo en conjunto, las circunstancias eran las adecuadas para que alguien tratara de unirlas.

Entró en escena Arthur Eddington; un extraordinario científico que había sido el primero en descubrir cómo se alimentaban las estrellas a partir de reacciones nucleares. También hizo importantes contribuciones a nuestra comprensión de la galaxia, escribió la primera exposición sistemática de la teoría de la relatividad general de Einstein y fue el responsable de verificar, en una prueba decisiva durante un eclipse de Sol, la veracidad de la teoría de Einstein en cuanto a que el campo gravitatorio del Sol debería desviar la luz estelar que venía hacia la Tierra en aproximadamente 1’75 segmentos de arco cuando pasaba cerca de la superficie solar, y así resultó.

¿Qué haríamos sin la ciencia?

Emilio Silvera

26
Ene
09

Nuestro vecino Venus también tuvo océanos.

venus1

Enviado por Kas.

Una nueva visión a los datos recopilados por la nave Galileo en 1990 revela que Venus, en una época, pudo haber sido habitable, con pruebas de continentes y océanos antiguos.

En un sobrevuelo de Venus en el viaje de la nave hacia Júpiter, un instrumento de cartografía del infrarrojo cercano detectó firmas que los investigadores han interpretado como granito.

Un equipo internacional liderado por el científico planetario George Hashimoto, de la Universidad Okayama en Japón, encontró que las regiones de las tierras altas de Venus emitían menos radiación infrarroja que las tierras bajas.

Una interpretación de esta dicotomía, dice el equipo en un nuevo artículo, es que las tierras altas están compuestas mayormente de rocas “félsicas”, particularmente el granito.

El granito, que en la Tierra se encuentra en la corteza continental, requiere de agua para su formación.
La nave Galileo fue el primer uso de infrarrojos en Venus. Los científicos habían pensado que sólo el radar podría ver a través de las densas nubes de ácido sulfúrico de la atmósfera de Venus hasta la superficie.

“Detectar la superficie en el infrarrojo es un gran avance”, según se cita a Kevin Baines del JPL en un artículo de Nature.

El artículo también cita a otro científico del JPL, David Crisp, que no estuvo implicado en este estudio y dice que estas nuevas conclusiones no están apoyadas por datos disponibles u otros modelos del equipo.

“Entendemos que nuestro artículo no lo resuelve todo”, responde el coautor Seiji Sugita, científico planetario de la Universidad de Tokio.

Sugita dice que el siguiente paso es aplicar sus modelos a datos procedentes de la nave Venus Express de la Agencia Espacial Europea, la cual está actualmente orbitando Venus, y del Orbitador Climático de Venus de la Agencia Espacial Japonesa, previsto para su lanzamiento en 2010.

La posible presencia de granito sugiere que el movimiento de las placas tectónicas y la formación de continentes pudo haber tenido lugar en Venus, así como un reciclado de agua y carbono entre el manto y la atmósfera del planeta.

Venus es ahora un infierno caliente y seco, con una atmósfera de un 96% de dióxido de carbono y una temperatura superficial de alrededor de 460 grados C, pero algunos científicos creen que nuestro planeta vecino pudo alguna vez haber sido más similar a la Tierra.

Otro científico citado en el artículo de Nature, el geofísico Norm Sleep de la Universidad de Stanford en California dijo que Venus podría haber estado alguna vez casi completamente bajo el agua.

“Aunque sin más datos geoquímicos, añade, no sabemos si la temperatura de estos océanos iniciales era de 30 grados C o de 150 grados C”, dijo.

Pero cualquier océano en Venus habría durado sólo unos pocos cientos de millones de años. Conforme el Sol se hacía más cálido y brillante, el planeta experimentaba un efecto invernadero desatado.

“Cualquier vida sobre Venus que no hubiese encontrado la forma de colonizar la parte superior de las nubes mil millones de años después de la formación del planeta habrían estado en un gran problema”, dice Sleep.

Autor: Nancy Atkinson
Traducción: Doctor Kanijo

10
Ene
09

¿Panspermia?

voyager

Enviado por Kas.

Las fases abandonadas de los cohetes que propulsaron cuatro naves espaciales hacia los límites de nuestro Sistema Solar y más allá probablemente llevan bacterias terrestres hacia la galaxia.

Las cuatro fases superiores de los cohetes “STAR”, también conocidos como motores rápidos son los responsables de arrancar a las Voyager 1, Voyager 2 y Pioneer 10 de los límites del Sistema Solar, así como de enviar la nave New Horizons de la NASA a Plutón. Las fases del cohete están ellas mismas en camino, moviéndose más allá de la influencia del Sol en el espacio interestelar.

Aunque sus papeles fueron vitales para sus respectivas misiones, las fases superiores no tuvieron un trato tan generoso como las naves a las que acompañaban.

“Las fases superiores no requerían de esterilización”, dijo John Rummel, científico senior de astrobiología en la NASA. Sólo había una directiva principal: “Sus requisitos eran no chocar contra ninguno de los planetas de nuestro Sistema Solar”, una precaución necesaria debido a que las fases de los cohetes casi con seguridad harían de anfitriones a bacterias terrestres.

Estas bacterias habrían sido colocadas por las manos y el aliento de los ingenieros que construyeron las fases superiores.

Sobrevivir en el espacio

Los viajeros interestelares microscópicos están ahora en camino hacia el exterior de nuestro Sistema Solar a velocidades de entre 11 y 18 kilómetros por segundo, pero ¿están vivas?

“La supervivencia es más probable que la “prosperidad”‘”, dijo Mark Burchell de la Universidad de Kent en el Reino Unido. Las frías temperaturas probablemente sumergirían a los microbios en un estado similar a la hibernación llamado estado de espora.

Hay bacterias que han revivido en la Tierra tras millones de años de letargo y los experimentos que involucran la exposición de bacterias y líquenes al espacio han revelado lo resistentes que son estos simples organismos.

Entonces, ¿cuánto tiempo puede sobrevivir un microbio en el espacio enganchado en un cohete? “Esto aún se está debatiendo”, dijo Burchell. “¿1000 años? ¿100 000 años? No lo sabemos”.

Los cinturones de radiación podrían haber esterilizado las bacterias cuando las fases superiores alcanzaron Júpiter. La fase superior de la Pioneer 10 pasó cerca del planeta gigante y sufrió unos niveles de radiación muchas veces superiores a los que serían letales para los humanos cuando se sumergió en los cinturones de radiación de Júpiter. Pero tal vez algunos hayan sobrevivido.

“Algunas bacterias son bastante más duras que los humanos, por lo que probablemente no haya sido suficiente para acabar con las bacterias protegidas en el interior de la fase superior”, dijo Rummel.

Pocas posibilidades

La fase superior del Voyager 1 ha estad en el espacio durante casi 30 años. Su diminuta carga tiene muchos miles de millones de años de viaje por delante.

En 40 000 años, este caprichoso trozo de metal de 84 kilogramos pasará por la estrella AC+79 3888 a una distancia de 1,64 años luz. AC+79 3888 es una estrella enana y su débil energía es improbable que sirva para revivir a las bacterias durmientes. Debe pasar mucho más tiempo para que las fases superiores encuentren una estrella con un entorno apropiado para los organismos terrestres.

“Salir del Sistema Solar no es en realidad el problema”, dijo Burchell a SPACE.com. “El problema es que entonces entres en otro sistema solar y seas capturado por un planeta. Las opciones de esto son remotamente pequeñas”.

Dada la enorme cantidad de tiempo que queda por delante de estos cuatro cohetes descartados, al menos uno es posible que finalmente encuentre un planeta. Pero incluso si el entorno de este planeta es propicio para la vida, las bacterias no chapotearán suavemente en algún océano exótico. No les espera un aterrizaje suave.

“Llegar a otro sistema solar es una cosa, pero detenerse de una forma no destructiva es otra muy distinta”, dijo Rummel.

Autor: David Powell
Edita: Kanijo

Apunte de Kas sobre organismos capaces de sobrevivir en la superficie lunar:

Una resistente forma de vida conocida como cianobacteria puede crecer en el inhóspito suelo lunar,

Cuando se ponen en un contenedor con agua y suelo lunar simulado, se encontró que las cianobacterias producían ácidos que son sorprendentemente buenos para romper los minerales duros, incluyendo la ilmenita.

Aunque varias especies fueron capaces de crecer en el suelo lunar simulado, una en particular se erigió como la más eficiente en romper los duros minerales que contenía. Esta especie resultó ser nueva para la ciencia, y los investigadores la han llamado JSC-12.

10
Ene
09

¿Será el tiempo reemplazado por otra dimensión?

escher

Enviado por Kas.

¿Qué pasaría si desapareciese el tiempo? Sí, suena a una pregunta estúpida – y si el cosmos se mantiene en las actuales leyes de la física – es una pregunta que nunca necesitaremos contestar más allá de este artículo. Al escribirlo podría haber perdido mi tiempo, si el cosmos fuese así de simple. Pero hice mi apuesta y continué escribiendo, dado que creo que sólo hemos raspado la superficie de las leyes universales de la física; el universo puede ser muchas cosas excepto simple. Puede, de hecho, haber algo en esta loca idea de la naturaleza del universo que dé una vuelta quedando la cantidad fundamental de tiempo transformada en otra dimensión del espacio. Una idea como esta cae fuera del dominio del pensamiento clásico, y dentro de los dominios de las “mundobranas”, una visión que encapsula el universo de cuatro dimensiones que conocemos y abraza a supercuerdas entrelazadas a través del mismo…

La teoría de branas es una idea rara. Para resumir, una brana (abreviatura de “membrana”) puede verse como una lámina flotando en una quinta dimensión. Como sólo podemos experimentar un espacio tridimensional a lo largo de una dimensión del tiempo (espacio-tiempo de cuatro dimensiones, también conocido como universo Lorentziano), no podemos comprender cómo sería esta quinta dimensión, pero afortunadamente tenemos matemáticas que nos ayudan. Los matemáticos pueden usarlas para describir tantas dimensiones como queramos. Viene bien, dado que las branas describen los efectos acumulativos de las “cuerdas” que se entrelazan a lo largo de muchas dimensiones y las fuerzas que interactúan para crear el universo que observamos en nuestro aburrido espacio de tres dimensiones. De acuerdo con la visión de “mundobrana”, nuestro cosmos de cuatro dimensiones puede en realidad estar embebido dentro de un universo multidimensional – nuestra versión cósmica sólo usa cuatro de estas posibles dimensiones.

Los teóricos que contemplan los mundobranas, como Marc Mars de la Universidad de Salamanca en España, creen ahora que han tropezado con una implicación que podría, literalmente, detener a los cosmólogos en su pista. La dimensión del tiempo podría pronto desaparecer para ser reemplazada por una cuarta dimensión del espacio. Nuestro familiar universo Lorentziano podría volverse Euclidiano (es decir, cuatro dimensiones espaciales, sin tiempo) y Mars cree que las pruebas para este cambio pueden estar justo delante de nuestras narices.

“Una de las interesantes, e intrigantes, propiedades de esta branas de firma cambiante es que, incluso aunque el cambio de la firma pueda concebirse como un evento drástico dentro de la brana, tanto el volumen como la brana pueden ser totalmente suaves. En particular, los observadores que viven en la brana que suponen que su universo es Lorentziano pueden interpretar incorrectamente que una curvatura de singularidad surge precisamente en el cambio de firma” – Marc Mars, de Is the accelerated expansion evidence of a forthcoming change of signature on the brane?.

La expansión del universo observada (descubierta por Edwin Hubble en 1925) puede, de ehcho, ser un síntoma de una brana de “firma cambiante”. Si nuestra brana están mutando de temporal a espacial, los observadores del universo Lorentziano deberían observar un universo en expansión acelerada, exactamente lo que observamos actualmente. Mars entra en detalles sobre esta teoría que puede explicar esta expansión cada vez mayor, mientras que mantiene las características físicas del cosmos que observamos hoy, sin suponer ninguna forma de materia oscura o energía oscura como responsables.

Es dudoso que podamos percibir alguna vez un cosmos sin tiempo, y lo que sucedería al universo que pase a espacial está más allá de nuestra comprensión. Por lo que, disfruta tus cuatro dimensiones mientras duren, el tiempo podría pronto acabarse.

Artículo original de Arxiv.
Autor: Ian O’Neill
Publicado: Kanijo

06
Ene
09

Nebulosa planetaria NGC 2371 o Nebulosa Gemini.

ngc_2371

NGC 2371 es una nebulosa planetaria en la constelación de Géminis. Tiene doble entrada en el Nuevo Catálogo General, por lo que lo tanto NGC 2371 como NGC 2372 se refieren a ella. También recibe el nombre de Nebulosa Gemini. Fue descubierta en 1785 por William Herschel e identificada como una nebulosa por Don Pease en 1917.

La estrella remanente visible en el centro de NGC 2371, de magnitud aparente 14,8, es el núcleo súpercaliente de una ex gigante roja, ahora despojada de sus capas exteriores. La superficie de este núcleo estelar se encuentra a una temperatura de unos 133 000 ºC.

Explorando esta brillante burbuja de polvo y gas, el Telescopio Espacial Hubble ha revelado todo un conjunto de intrincadas estructuras dignas de estudio.

Unos detalles muy prominentes son esas nubes rosas de gas frío y denso visibles en los lados opuestos de la estrella central. Se denominan FLIER, por Fast Low-Ionization Emission Regions, es decir, regiones de emisión de baja ionización. Se trata de burbujas de material que forman un diseño simétrico en algunas nebulosas planetarias. El color rosa indica que son relativamente frías y densas en comparación al resto del gas de la nebulosa. La dirección de estos jets ha ido cambiando a lo largo del tiempo desde hace unos miles de años. La razón de este comportamiento no es del todo comprendida, pero se supone que está relacionado con la posible presencia de una segunda estrella que orbita la estrella central visible en la imagen.

También llaman la atención los numerosos y diminutos puntitos de color rosa, marcando relativamente densos y pequeños nudos de gas, que también se encuentran en lados diametralmente opuestos de la estrella.

La nebulosa planetaria no durará más de unos miles de años, poco a poco se irá disipando, diseminándose. La estrella central se enfriará gradualmente hasta transformarse en una enana blanca, la fase final de la evolución de un gran número de estrellas.

La imagen en falso color se obtuvo utilizando cuatro filtros que detectan un rango estrecho de longitudes de onda correspondientes a la luz emitida por elementos químicos específicos: azufre, nitrógeno, hidrógeno y oxígeno. Se ha asignado un color para representar cada imagen monocromática: rojo para el azufre y el nitrógeno, verde para la emisión H alpha del hidrógeno, y azul para el oxígeno. De este modo es posible resaltar al máximo todos los detalles del objeto.

04
Ene
09

¡El universo! ¡La física! Por Emilio Silvera.

Cuando me sumerjo en los misterios y maravillas que encierra el universo, no puedo dejar de sorprenderme por sus complejas y bellas formaciones, la inmensidad, la diversidad, las fuerzas que están presentes, los objetos que lo pueblan, etc.

Pensemos por ejemplo que un átomo tiene aproximadamente 10-8 centímetros de diámetro. En los sólidos y líquidos ordinarios los átomos están muy juntos, casi en contacto mutuo. La densidad de los sólidos y líquidos ordinarios depende por tanto del tamaño exacto de los átomos, del grado de empaquetamiento y del peso de los distintos átomos.

De los sólidos ordinarios, el menos denso es el hidrógeno solidificado, con una densidad de 0’076 gramos por cm3. El más denso es un metal raro, el osmio, con una densidad de 22’48 gramos/cm3.

Si los átomos fuesen bolas macizas e incompresibles, el osmio sería el material más denso posible, y un centímetro cúbico de materia jamás podría pesar ni un kilogramo, y mucho menos toneladas.

Pero los átomos no son macizos. El físico neozelandés experimentador por excelencia, Ernest Ruthertord, demostró en 1.909 que los átomos eran en su mayor parte espacio vacío. La corteza exterior de los átomos contiene sólo electrones ligerísimos, mientras que el 99’9% de la masa del átomo está concentrada en una estructura diminuta situada en el centro: el núcleo atómico.

El núcleo atómico tiene un diámetro de unos 10-15 cm. (aproximadamente 1/100.000 del propio átomo). Si los átomos de una esfera de materia se pudieran estrujar hasta el punto de desplazar todos los electrones y dejar a los núcleos atómicos en contacto mutuo, el diámetro de la esfera disminuiría hasta un nivel de 1/100.000 de su tamaño original.

De manera análoga, si se pudiera comprimir la Tierra hasta dejarla reducida a un balón de núcleos atómicos, toda su materia quedaría reducida a una esfera de unos 130 metros de diámetro. En esas mismas condiciones, el Sol mediría 13’7 km. de diámetro en lugar de los 1.392.530 km. que realmente mide. Y si pudiéramos convertir toda la materia conocida del universo en núcleos atómicos en contacto, obtendríamos una esfera de sólo algunos cientos de miles de km. de diámetro, que cabría cómodamente dentro del cinturón de asteroides del Sistema Solar.

El calor y la presión que reinan en el centro de las estrellas rompen la estructura atómica y permiten que los núcleos atómicos empiecen a empaquetarse unos junto a otros. Las densidades en el centro del Sol son mucho más altas que la del osmio, pero como los núcleos atómicos se mueven de un lado a otros sin impedimento alguno, el material sigue siendo un gas.  Hay estrellas que se componen casi por entero de tales átomos destrozados.  La compañera de la estrella Sirio es una “enana blanca” no mayor que el planeta Urano, y sin embargo tiene una masa parecida a la del Sol.

Los núcleos atómicos se componen de protones y neutrones. Ya hemos dicho antes que todos los protones tienen carga eléctrica positiva y se repelen entre sí, de modo que en un lugar dado no se pueden reunir más de un centenar de ellos. Los neutrones, por el contrario, no tienen carga eléctrica y en condiciones adecuadas pueden estar juntos y empaquetados un enorme número de ellos para formar una “estrella de neutrones”. Los púlsares, según se cree, son estrellas de neutrones en rápida rotación.

Estas estrellas se forman cuando las estrellas de 2 – 3 masas solares, agotado el combustible nuclear, no pueden continuar fusionando el hidrógeno en helio, el helio en oxígeno, el oxigeno en carbono, etc, y explotan en supernovas. Las capas exteriores se volatilizan y son expulsados al espacio; el resto de la estrella (su mayor parte), al quedar a merced de la fuerza gravitatoria, es literalmente aplastada bajo su propio peso hasta tal punto que los electrones se funden con los protones y se forman neutrones que se comprimen de manera increíble hasta que se degeneran y emiten una fuerza que contrarresta la gravedad, quedándose estabilizada como estrella de neutrones.

Si el Sol se convirtiera en una estrella de neutrones, toda su masa quedaría concentrada en una pelota cuyo diámetro sería de 1/100.000 del actual, y su volumen (1/100.000)3, o lo que es lo mismo 1/1.000.000.000.000.000 (una milmillonésima) del actual. Su densidad sería, por tanto, 1.000.000.000.000.000 (mil billones) de veces superior a la que tiene ahora.

La densidad global del Sol hoy día es de 1’4 gramos/cm3. Una estrella de neutrones a partir del Sol tendría una densidad que se reflejaría mediante 1.400.000.000.000.000 gramos por cm3. Es decir, un centímetro cúbico de una estrella de neutrones puede llegar a pesar 1.400.000.000 (mil cuatrocientos millones de toneladas). ¡Qué barbaridad!

Objetos como estos pueblan el universo, e incluso más sorprendentes todavía, como es el caso de los agujeros negros explicado en páginas anteriores de este mismo trabajo.

Cuando hablamos de las cosas del universo estamos hablando de cosas muy grandes. Cualquiera se podría preguntar, por ejemplo: ¿hasta cuándo podrá mantener el Sol la vida en la Tierra?

Está claro que podrá hacerlo mientras radie energía y nos envíe luz y calor que la haga posible tal como la conocemos.

Como ya explicamos antes, la radiación del Sol proviene de la fusión del hidrógeno en helio. Para producir la radiación vertida por el sol se necesita una cantidad ingente de fusión: cada segundo tienen que fusionarse 654.600.000 toneladas de hidrógeno en 650.000.000 toneladas de helio  (las 4.600.000 toneladas restantes se convierten en energía de radiación y las pierde el Sol para siempre. La ínfima porción de esta energía que incide sobre la Tierra basta para mantener toda la vida en nuestro planeta).

Nadie diría que con este consumo tan alto de hidrógeno por segundo, el Sol pudiera durar mucho tiempo, pero es que ese cálculo no tiene en cuenta el enorme tamaño del Sol. Su masa totaliza 2.200.000.000.000.000. 000.000.000.000 (más de dos mil cuatrillones) de toneladas. Un 53% de esta masa es hidrógeno, lo cual significa que el Sol contiene en la actualidad una cantidad de 1.166.000.000.000.000.000.0000.0000.000 toneladas.

Para completar datos diré que el resto de la masa del Sol es casi todo helio. Menos del 0’1 por 100 de su masa está constituido por átomos más complicados que el helio. El helio es más compacto que el hidrógeno. En condiciones idénticas, un número dado de átomos de helio tiene una masa cuatro veces mayor el mismo número de átomos de hidrógeno. O dicho de otra manera: una masa dada de helio ocupa menos espacio que la misma masa de hidrógeno. En función del volumen –el espacio ocupado–, el Sol es hidrógeno en un 80 por ciento.

Si suponemos que el Sol fue en origen todo hidrógeno, que siempre ha convertido hidrógeno en helio al ritmo dicho de 654 millones de toneladas  por segundo y que lo seguirá haciendo hasta el final, se calcula que ha estado radiando desde hace unos 4.000 millones de años y que seguirá haciéndolo durante otros cinco mil millones de años más.

Pero las cosas no son tan simples. El Sol es una estrella de segunda generación, constituida a partir de gas y polvo cósmico desperdigado por estrellas que se habían quemado y explotado miles de millones de años atrás.  Así pues, la materia prima del Sol contenía ya mucho helio desde el principio, lo que nos lleva a pensar que el final puede estar algo más cercano.

Por otra parte, el Sol no continuará radiando exactamente al mismo ritmo que ahora. El hidrógeno y el helio no están perfectamente entremezclados. El helio está concentrado en el núcleo central y la reacción de fusión se produce en la superficie del núcleo.

A medida que el Sol siga radiando, irá adquiriendo una masa cada vez mayor ese núcleo de helio y la temperatura en el centro aumentará. En última instancia, la temperatura sube lo suficiente como para transformar los átomos de helio en átomos más complicados. Hasta entonces el Sol radiará más o menos como ahora, pero una vez que comience la fusión del helio, empezará a expandirse y a convertirse poco a poco en una gigante roja. El calor se hará insoportable en la Tierra, los océanos se evaporarán y el planeta dejará de albergar vida en la forma que la conocemos.

La esfera del Sol, antes de explotar para convertirse en una enana blanca, aumentará engullendo a Mercurio y a Venus y quedará cerca del planeta Tierra, que para entonces será un planeta yermo.

Los astrónomos estiman que el Sol entrará en esta nueva fase en unos 5 ó 6 mil millones de años. Así que el tiempo que nos queda por delante es como para no alarmarse todavía. Sin embargo, el no pensar en ello… no parece conveniente.

Espero que al lector de este trabajo, encargado por la Asociación Cultural “Amigos de la Física 137, e/hc”, les esté entreteniendo y sobre todo interesando los temas que aquí hemos tratado, siempre con las miras puestas en difundir el conocimiento científico de temas de la naturaleza como la astronomía y la física. Tratamos de elegir temas de interés y aquellos que han llamado la atención del público en general, explicándolos y respondiendo a preguntas que seguramente les gustaría conocer, tales como: ¿por qué la Luna muestra siempre la misma cara hacia la Tierra?

La atracción gravitatoria de la Luna sobre la Tierra hace subir el nivel de los océanos a ambos lados de nuestro planeta y crea así dos abultamientos. A medida que la Tierra gira de oeste a este, estos dos bultos – de los cuales uno mira hacia la Luna y el otro en dirección contraria – se desplazan de este a oeste alrededor de la Tierra.

Al efectuar este desplazamiento, los dos bultos rozan contra el fondo de los mares poco profundos, como el de Bering o el de Irlanda. Tal rozamiento convierte energía de rotación en calor, y este consumo de la energía de rotación terrestre hace que el movimiento de rotación de la Tierra alrededor de su eje vaya disminuyendo poco a poco. Las mareas actúan como freno sobre la rotación de la Tierra, y como consecuencia de ello, los días terrestres se van alargando un segundo cada mil años.

Pero no es sólo el agua del océano lo que sube de nivel en respuesta a la gravedad lunar. La corteza sólida de la Tierra también acusa el efecto, aunque en medida menos notable. El resultado son dos pequeños abultamientos rocosos que van girando alrededor de la Tierra, el uno mirando hacia la Luna y el otro en la cara opuesta de nuestro planeta. Durante ese desplazamiento, el rozamiento de una capa rocosa contra otra va minando también la energía de rotación terrestre. (Los bultos, claro está, no se mueven físicamente alrededor del planeta, sino que a medida que el planeta gira, remiten en un lugar y se forman en otro, según qué porciones de la superficie pasen por debajo de la Luna y sean atraídas por su fuerza de gravedad).

La Luna no tiene mares ni mareas en el sentido corriente. Sin embargo, la corteza sólida de la luna acusa la fuerte atracción gravitacional de la Tierra, y no hay que olvidar que ésta es 80 veces más grande que la Luna. El abultamiento provocado en la superficie lunar es mucho mayor que el de la superficie terrestre. Por tanto, si la Luna rotase en un periodo de 24 horas, estaría sometida a un rozamiento muchísimo mayor que la Tierra. Además, como nuestro satélite tiene una masa mucho menor que la Tierra, su energía total de rotación sería, ya de entrada, para periodos de rotación iguales, mucho menor.

Así pues, la Luna, con una reserva inicial de energía muy pequeña, socavada rápidamente por los grandes bultos provocados por la Tierra, tuvo que sufrir una disminución relativamente rápida de su periodo de rotación.  Hace seguramente muchos millones de años debió de decelerarse hasta el punto de que el día lunar se igualó con el mes lunar. De ahí en adelante, la Luna siempre mostraría la misma cara hacia el planeta Tierra.

Esto, a su vez, congela los abultamientos en un aposición fija. Unos de ellos miran hacia la Tierra desde el centro mismo de la cara lunar que nosotros vemos, mientras que el otro está apuntando en dirección contraria desde el centro mismo de la cara lunar que no podemos ver. Puesto que las dos caras no cambian de posición a medida que la Luna gira alrededor de la Tierra, los bultos no experimentan ningún nuevo cambio ni tampoco se produce rozamiento alguno que altere el periodo de rotación del satélite. La luna continuará mostrándonos la misma cara indefinidamente; lo cual, como veis, no es ninguna coincidencia, sino la consecuencia inevitable de la gravitación y del rozamiento.

La Luna es un caso relativamente simple. En ciertas condiciones, el rozamiento debido a las mareas puede dar lugar a condiciones de estabilidad más complicadas.

Durante unos ochenta años, por ejemplo, se pensó que Mercurio (el planeta más cercan al Sol y el más afectado por la fuerza gravitatoria solar) ofrecía siempre la misma cara al Sol, por el mismo motivo que la Luna ofrece siempre la misma cara a la Tierra. Pero se ha comprobado que, en el caso de este planeta, los efectos del rozamiento producen un periodo estable de rotación de 58 días, que es justamente dos tercios de los 88 días que constituyen el período de revolución de Mercurio alrededor del Sol.

Hay tantas cosas que aprender que el corto tiempo que se nos permite estar aquí es totalmente insuficiente para conocer todo lo que nos gustaría. ¿Hay algo más penoso que la ignorancia?

Continuemos pues aprendiendo cosas nuevas.

En la página 283 dejé una reseña de lo que se entiende por entropía y así sabemos que la energía sólo puede ser convertida en trabajo cuando    dentro del sistema concreto que se esté utilizando, la concentración de energía no es uniforme. La energía tiende entonces a fluir desde el punto de mayor concentración al de menor concentración, hasta establecer la uniformidad. La obtención de trabajo a partir de energía consiste precisamente en aprovechar este flujo.

El agua de un río está más alta y tiene más energía gravitatoria en el manantial del que mana en lo alto de la montaña y menos energía en el llano en la desembocadura, donde fluye suave y tranquila. Por eso fluye el agua río abajo hasta el mar (si no fuese por la lluvia, todas las aguas continentales fluirían montaña abajo hasta el mar y el nivel del océano subiría ligeramente. La energía gravitatoria total permanecería igual, pero estaría distribuida con mayor uniformidad).

Una rueda hidráulica gira gracias al agua que corre ladera abajo: ese agua puede realizar un trabajo. El agua sobre una superficie horizontal no puede realizar trabajo, aunque esté sobre una meseta muy alta y posea una energía gravitatoria excepcional. El factor crucial es la diferencia en la concentración de energía y el flujo hacia la uniformidad.

Y lo mismo reza para cualquier clase de energía. En las máquinas de vapor hay un depósito de calor que convierte el agua en vapor, y otro depósito frío que vuelve a condensar el vapor en agua. El factor decisivo es esta diferencia de temperatura. Trabajando a un mismo y único nivel de temperatura no se puede extraer ningún trabajo, por muy alta que sea aquella.

El término “entropía” lo introdujo el físico alemán Rudolf J. E. Clausius en 1.849 para representar el grado de uniformidad con que está distribuida la energía, sea de la clase que sea. Cuanto más uniforme, mayor la entropía. Cuando la energía está distribuida de manera perfectamente uniforme, la entropía es máxima para el sistema en cuestión.

Clausius observó que cualquier diferencia de energía dentro de un sistema tiende siempre a igualarse por sí sola. Si colocamos un objeto caliente junto a otro frío, el calor fluye de manera que se transmite del caliente al frío hasta que se igualan las temperaturas de ambos cuerpos. Si tenemos dos depósitos de agua comunicados entre sí y el nivel de uno de ellos es más alto que el otro, la atracción gravitatoria hará que el primero baje y el segundo suba, hasta que ambos niveles se igualen y la energía gravitatoria quede distribuida uniformemente.

Clausius afirmó, por tanto, que en la naturaleza era regla general que las diferencias en las concentraciones de energía tendían a igualarse. O dicho de otra manera: que la entropía aumenta con el tiempo.

El estudio del flujo de energía desde puntos de alta concentración a otros de baja concentración se llevó a cabo de modo especialmente complejo en relación con la energía térmica. Por eso, el estudio del flujo de energía y de los intercambios de energía y trabajo recibió el nombre de “termodinámica”, que en griego significa “movimiento de calor”.

Con anterioridad se había llegado ya a la conclusión de que la energía no podía ser destruida ni creada. Esta regla es tan fundamental que se la denomina “primer principio de la termodinámica”.

La idea sugerida por Clausius de que la entropía aumenta con el tiempo es una regla general no menos básica, y que denomina “segundo principio de la termodinámica.”

Según este segundo principio, la entropía aumenta constantemente, lo cual significa que las diferencias en la concentración de energía también van despareciendo. Cuando todas las diferencias en la concentración de energía se han igualado por completo, no se puede extraer más trabajo, ni pueden producirse cambios.

¿Está degradándose el universo?

emilio silvera