Un trabajo con participación del Consejo Superior de Investigaciones Científicas desarrolla un método para medir y controlar la temperatura en nanopartículas magnéticas que podría usarse para liberar fármacos de manera controlada dentro del organismo en terapias antitumorales.
Un equipo internacional formado por investigadores del Consejo Superior de Investigaciones Científicas (CSIC) y del Instituto Italiano de Tecnología ha desarrollado un método para medir y controlar la temperatura en el entorno de nanopartículas magnéticas. El sistema descrito en el estudio, publicado en la revista Nano Letters, podría emplearse para liberar fármacos de manera controlada dentro del organismo.
“Las partículas magnéticas tienen la propiedad de que al ser sometidas a un campo magnético alterno se calientan y disipan calor en su entorno. Sin embargo, un aspecto no resuelto hasta ahora era determinar la distribución de la temperatura en el entorno de la partícula cuando esta se calienta. Para superar ese problema hemos desarrollado un nuevo método que consiste en emplear una molécula termosensible que se degrada en función de la temperatura”, explica el investigador el CSIC Miguel Ángel García, del Instituto de Cerámica y Vidrio.
Científicos de la Universidad Autónoma de Madrid y de la Universidad de Michigan (EEUU) han logrado establecer los principios fundamentales que gobiernan la disipación de calor en los circuitos eléctricos de tamaño atómico. El descubrimiento abre la puerta a la posibilidad de superar uno de los grandes retos actuales de la nanociencia: la refrigiración in situ de circuitos compuestos por átomos y moléculas individuales.
La fabricación de circuitos compuestos por átomos y moléculas individuales –el objetivo final de la miniaturización de los circuitos eléctricos– es una realidad reciente. Sin embargo, hasta el momento su diseño tan sólo se lleva a cabo en laboratorios de investigación, ya que el desconocimiento de cómo se disipa el calor en ellos supone un obstáculo para su implementación en aplicaciones tecnológicas.
En un artículo publicado esta semana en la revista Nature, Juan Carlos Cuevas y Linda Angela Zotti, investigadores del Departamento de Física Teórica de la Materia Condensada de la Universidad Autónoma de Madrid (UAM), han contribuido a esclarecer, junto a científicos de la Universidad de Michigan (EEUU), el enigma de la disipación del calor en circuitos eléctricos de tamaño atómico.
Según constata el artículo, los investigadores utilizaron nuevos termómetros a escala nanométrica para medir la cantidad de calor disipado en una serie de nanocircuitos formados por átomos y moléculas individuales.
Los científicos además pudieron identificar cómo y donde se producía el fenómeno. “Con el desarrollo de una teoría cuántica de la conducción térmica —explica Cuevas—fue posible establecer que el lugar en el que se disipa el calor viene determinado por la estructura electrónica de los átomos y las moléculas que componen estos circuitos”.
Según expresan los investigadores de la UAM, “este descubrimiento permitirá comprender cómo se disipa el calor en numerosos dispositivos de tamaño nanométrico que deben constituir la base de la futura nanoelectrónica".
"Por otro lado –añaden– este trabajo abre la puerta a la posibilidad de usar circuitos atómicos o moleculares para refrigerar in situ nanodispositivos, en estos momentos uno de los grandes retos de la nanociencia”.
En los últimos años, se han usado compuestos avanzados de fibra de carbono para aligerar el peso de los aviones. Estos materiales pueden igualar al aluminio y al titanio en fortaleza, pero con una fracción del peso de estos, y están presentes en aviones como el Boeing 787 y el Airbus A380, reduciendo el peso de estos en un 20 por ciento.
Para la próxima generación de aviones comerciales a reacción, los investigadores están buscando materiales aún más fuertes y ligeros, como por ejemplo los compuestos hechos con fibras de carbono recubiertas con nanotubos de carbono (tubos diminutos de carbono cristalino). Cuando se les coloca en determinadas configuraciones, los nanotubos pueden ser cientos de veces más fuertes que el acero, pero con una sexta parte del peso de éste, lo cual hace que estos compuestos sean atractivos para su uso en aviones, automóviles, trenes, y naves espaciales.
Sin embargo, existe a escala nanométrica un obstáculo importante para fabricar en cantidades industriales dichos compuestos: Los científicos que han tratado de hacer crecer nanotubos de carbono sobre fibras de carbono han encontrado que, al hacerlo, se degradan significativamente las fibras subyacentes, despojándolas de su fuerza inherente.
A finales del siglo XIX se sabía experimentalmente que cuando un haz de luz (en la región visible o ultravioleta del espectro) incidía sobre una superficie metálica, dicha superficie emitía electrones en un proceso conocido comoefecto fotoeléctrico. A los electrones emitidos se les llama fotoelectrones. Hertz fue el primer científico en observar este fenómeno en 1887.
El fenómeno en sí no sorprendía a los científicos, puesto que si la luz es radiación electromagnética, es natural que el campo electromagnético generado por la onda luminosa ejerza una fuerza sobre los electrones del metal provocando el desprendimiento de alguno de ellos. Lo realmente misterioso de este fenómeno fue descubrir que la Energía Cinética (K) del electrón emitido era independiente de la intensidad de la luz, pero dependía de la frecuencia, aumentando linealmente con ella. Con la física clásica conocida entonces, no podía explicarse este fenómeno.
Una nueva investigación ha mostrado que el movimiento de una molécula de pirrol, de forma similar a un anillo, sobre una superficie metálica, va en contra de las leyes de la física "clásica" que gobiernan nuestro mundo cotidiano.
Usando técnicas experimentales singularmente sensibles, unos científicos han descubierto que las leyes de la física cuántica, que mayormente se pensaba que actuaban sólo a escala subatómica, en realidad pueden actuar a escala molecular.
Los investigadores, de la Universidad de Cambridge en el Reino Unido, y la Universidad Rutgers de Nueva Jersey en Estados Unidos, han obtenido evidencias de que, en el caso del pirrol, las leyes cuánticas que afectan los movimientos internos de la molécula, modifican la naturaleza de su mapa energético. Así pues, este "movimiento cuántico" es esencial para comprender en su totalidad la distribución energética de la molécula completa.
Basándose en experimentos llevados a cabo por Barbara Lechner en el Laboratorio Cavendish de la Universidad de Cambridge, Reino Unido, con el objetivo de determinar la energía requerida para el movimiento del pirrol por una superficie de cobre, el equipo descubrió una discrepancia que los condujo por una "pista cuántica" hasta un hallazgo inusual.
En un trabajo previo con moléculas más simples, los científicos pudieron calcular con precisión la "barrera de activación" (la energía necesaria para romper el enlace de una molécula con una superficie y permitir que se mueva).
Sorprendentemente, las "barreras de activación" predichas para el pirrol resultaron no concordar con otros datos. Después de darle muchas vueltas al enigma, sin encontrar ningún error, los científicos comenzaron a considerar el posible papel de un fenómeno exclusivamente cuántico, la Energía del Punto Cero.
Experimentos realizados en el CERN por un equipo internacional de científicos han constatado que los núcleos atómicos de algunos elementos tienen forma periforme. Estos resultados, además de su valor para refinar las teorías sobre la estructura nuclear, pueden ayudar a establecer el dominio de la materia sobre la antimateria, e incluso la validez del modelo estándar de la física de partículas.
Un equipo internacional del Laboratorio Europeo de Física de Partículas (CERN), en la frontera franco-suiza, ha demostrado que algunos núcleos atómicos pueden adquirir formas periformes exóticas más allá de las tradicionales.
Ya se sabía que la mayoría de los núcleos que existen en la naturaleza tienen forma 'de pelota de rugby' en su estado fundamental. Según un nuevo estudio, publicado esta semana en la revista Nature, algunos otros –con números de protones y neutrones concretos– logran adquirir forma 'de pera'. Aunque esto había sido predicho teóricamente, hasta el momento no se contaba con evidencia experimental suficiente.
De acuerdo con las teorías modernas que describen la dinámica nuclear, la forma del núcleo atómico está determinada por el número de protones y neutrones que lo componen, así como por las interacciones entre estas partículas. En su estado fundamental, los núcleos tienden a ser esféricos cuando el numero de protones y/o neutrones esta cerca de los denominados 'números mágicos'.
Para los demás, lo habitual es un estado fundamental con forma elipsoidal mayoritariamente de tipo 'prolado' –con forma de balón de rugby–. Cuando el número de protones y neutrones toma ciertos valores, el efecto de cierto tipo de interacciones nucleares se magnifica dando lugar a formas más exóticas.
“La principal característica de estas formas es que no respetan la simetría de reflexión”, explica Luis Robledo, profesor del departamento de Física Teórica de la Universidad Autónoma de Madrid y uno de los firmantes del trabajo.
“La observación experimental de núcleos con forma de pera no solo es importante para la comprensión teórica de la estructura nuclear, donde se conjugan los intrincados efectos de la interacción nuclear y la dinámica de muchos cuerpos –añade–, también puede ser de gran ayuda para la búsqueda experimental de momentos dipolares eléctricos en átomos”.
Científicos de la colaboración ALPHA del CERN han presentado la primera evidencia directa de cómo los átomos de antimateria interactúan con la gravedad. El estudio, que publica Nature Communications, se ha centrado en medir la masa gravitacional del antihidrógeno.
En 2010 los miembros del experimento ALPHA del CERN ya consiguieron atrapar antihidrógeno, el átomo de antimateria neutra más simple. Ahora han medido por primera vez su masa gravitacional –fuerza de atracción en un campo gravitatorio– y ver su proporción respecto a su masa inercial –resistencia al cambio de velocidad–.
Los resultados revelan que si un átomo de antihidrógeno cae hacia abajo, su masa gravitacional es no más de 110 veces mayor que su masa inercial. Pero si cayera hacia arriba, su masa gravitacional es a lo sumo 65 veces mayor. Los datos permiten establecer estos límites.
En cualquier caso lo que demuestra el estudio es que se puede medir la gravedad de la antimateria. La técnica para hacerlo se publica ahora en la revista Nature Communications , y el equipo confía en que vaya adquiriendo cada vez más precisión. “Uno de los grandes interrogantes sobre la antimateria neutra es cómo se comporta cuando interactúa gravitacionalmente con la materia”, Marcelo Baquero-Ruiz, de la Universidad de California en Berkeley (EE.UU.) y coautor del trabajo.
“Hay muchos argumentos que sugieren que ambas se debería atraer y comportarse de la misma manera –prosigue–. Sin embargo, nunca nadie ha tenido la posibilidad de poner a prueba experimentalmente esta afirmación hasta ahora. Pero quedan preguntas sin resolver: ¿Se caerá la antimateria hacia arriba o hacia abajo? ¿O tal vez es atraída hacia la materia pero con una aceleración diferente?”
Estas cuestiones siguen intrigando a los físicos, añade Joel Fajans, otro miembro de la colaboración en la Universidad de California-Berkeley, ya que "en el caso improbable de que la antimateria se cayera hacia arriba, tendríamos que revisar radicalmente nuestra visión de la física y repensar cómo funciona el universo".
Pero los argumentos teóricos actuales predicen que los átomos de hidrógeno y antihidrógeno tienen la misma masa y deben interactuar ante la gravedad de la misma manera. Si se libera un átomo, debería experimentar una fuerza hacia abajo tanto si está hecho de materia o antimateria.
El catedrático Luis Ibáñez de la Universidad Autónoma de Madrid, miembro
del Instituto de Física Teórica (UAM-CSIC), recibió hace unos meses
una Advanced Grants del Consejo Europeo de Investigación. Con
esta prestigiosa beca y el apoyo de su equipo estudiará durante cinco
años qué información sobre la teoría de cuerdas pueden facilitar los
datos del LHC del CERN. Esta teoría puede ayudar a unificar la mecánica
cuántica y la teoría de la relatividad.
¿Por qué cree que es necesaria una teoría única?
En
realidad los físicos no insistimos en buscar teorías unificadas. Es la
naturaleza la que parece insistir en que esa dirección es la correcta.
Hasta mediados del siglo XIX se pensaba que la electricidad, el
magnetismo y la luz eran fenómenos totalmente diferentes, pero en el
siglo XIX se vio que eran tres aspectos de una sola teoría, el
electromagnetismo clásico. La historia se ha vuelto a repetir a finales
del siglo XX con la comprobación de que el electromagnetismo y las
llamadas interacciones débiles –las causantes de la radioactividad
natural– son dos aspectos de una sola teoría, la teoría electro-débil.
Hoy en día hay indicaciones que apuntan a que todas las fuerzas
fundamentales de la naturaleza, incluida la gravitación, son parte de
una sola teoría unificada. La teoría de cuerdas es la candidata más
seria.
¿Y por qué es la mejor candidata?
La
mayoría de la comunidad científica lo considera así porque la teoría de
cuerdas no solo hace consistente los dos paradigmas de la mecánica
cuántica y la relatividad general, sino que en el mismo paquete te
ofrece una teoría que contiene el resto de las interacciones
fundamentales de la naturaleza. Es una teoría cuántica y relativista,
los dos pilares siguen intocables. La principal novedad es que todas las
partículas fundamentales corresponden a diferentes modos de vibración
de cuerdas extremadamente diminutas.
¿Qué quiere decir que las partículas fundamentales no son puntuales, sino modos de vibración?
Hay
cosas que, miradas de lejos, parecen un punto. Esto puede ocurrir por
ejemplo con una hormiga, pero cuando te acercas ves que tiene una
estructura más complicada. Hasta la aparición de la teoría de cuerdas se
pensaba que toda la materia estaba hecha de partículas puntuales que no
contenían nada dentro de sí. La teoría de cuerdas nos dice que las
partículas elementales son en realidad modos de vibración de cuerdas
diminutas. La razón por la que hasta ahora no las hemos detectado se
debe a que trabajamos con un régimen de energías muy bajo, que solo nos
permite ver partículas puntuales.
Si tuviéramos un acelerador de
partículas muchísimo más potente que el que tenemos ahora en el CERN,
podríamos ver que las partículas puntuales en realidad corresponden a
las vibraciones de cuerdas extendidas entre dos puntos. Este cambio de
paradigma permite resolver el problema fundamental de hacer compatible
teoría cuántica con gravitación.
El cometa Shoemaker-Levy 9, que impactó contra Júpiter en 1994, es el
responsable de que aparezca agua en la atmósfera de este planeta
gigante. El descubrimiento ha sido posible gracias a las observaciones
infrarrojas del telescopio espacial Herschel de la Agencia Espacial
Europea (ESA).
El misterio sobre el origen del agua presente en
las capas más altas de la atmósfera de Júpiter ha sido resuelto con las
observaciones de Herschel. Este observatorio espacial de la ESA ha
aportado pruebas concluyentes que indican su origen por el impacto del
cometa Shoemaker-Levy 9 en julio de 1994.
“Sólo
Herschel ha sido capaz de proporcionar la resolución espectral
necesaria para encontrar el eslabón perdido entre la presencia de agua
en Júpiter y el impacto del cometa Shoemaker-Levy 9”, explica Thibault
Cavalié, del Laboratorio de Astrofísica de Burdeos y autor principal del
estudio que publica Astronomy and Astrophysics.
Durante
la colisión, una cadena de 21 fragmentos del cometa se precipitaron
sobre el hemisferio sur de Júpiter a lo largo de toda una semana,
dejando unas oscuras cicatrices en la atmósfera del planeta que fueron
visibles durante varias semanas.
El Observatorio
Espacial Infrarrojo de la ESA, lanzado en 1995, fue el primero en
detectar y estudiar la presencia de agua en las capas más altas de la
atmósfera de Júpiter. Por aquel entonces ya se presentó la hipótesis de
que el agua podría proceder del cometa Shoemaker-Levy 9, pero faltaban
pruebas que la respaldasen.
Los científicos
fueron capaces de excluir un origen interno, como por ejemplo vapor de
agua procedente de capas más bajas de la atmósfera del planeta, ya que
el vapor no es capaz de atravesar la ‘trampa fría’ que separa la
estratosfera de la capa visible de nubes en la troposfera de Júpiter.
Algunos especialistas en física de partículas piensan que puede existir
una quinta fuerza de la naturaleza, aunque nunca ha sido detectada. Esta
quinta fuerza se sumaría a la gravedad, las fuerzas nucleares fuerte y
débil y el electromagnetismo.
A esta hipotética quinta fuerza se
la describe como interacción espín-espín de largo alcance. En teoría, la
quinta fuerza dependería de que los elementos constituyentes de los
átomos (electrones, protones y neutrones), separados por distancias
enormes, "perciban" la presencia unos de otros.
Si existe, esta
nueva y exótica fuerza conectaría a la materia en la superficie
terrestre con la materia a cientos o incluso miles de kilómetros de
profundidad dentro del manto de la Tierra, y podría proporcionar nuevos
datos sobre la composición y las características del interior de la
Tierra, del cual se sabe poco debido a su inaccesibilidad.
Los
investigadores, del Amherst College en Massachusetts y la Universidad de
Texas en Austin, y financiados por la Fundación Nacional de Ciencia
(NSF), en Estados Unidos todas estas instituciones, han ideado y
descrito una nueva técnica basada en esa cualidad de la hipotética
quinta fuerza.
Stephen Hawking triunfó esta semana en Pasadena (cerca de los Los ángeles) al impartir una conferencia sobre El origen del universo en el Instituto de Tecnología de California (Caltech).
Mucha gente hizo cola durante 12 horas para lograr entrar. Y el célebre
físico británico fue contundente: “Nuestro universo no necesitó ninguna
ayuda divina para formarse”, según informa Space.com.
Abordó cuestiones fundamentales como “¿Por qué estamos aquí?” y recordó
que mucha gente todavía busca una solución divina para contrarrestar
las teorías los físicos curiosos que investigan el cosmos. “¿Qué estaba
haciendo Dios antes de la divina creación? ¿Estaba preparando el
infierno para la gente que hiciese tales preguntas?”, bromeó.
En su charla popular, Hawking repasó el debate teológico sobre la
creación del cosmos y las teorías cosmológicas científicas (incluida la
alternativa al Big Bang del universo estacionario, de Fred Hoyle) antes
de entrar en la física relativista y la cosmología con sus teorías,
incluidas las más avanzadas Volviendo al asunto religioso contó que, en
los años ochenta, cuando él publicó un artículo científico sobre el
momento inicial del universo, el papa Juan Pablo II advirtió a la
comunidad científica contra el estudio del momento de la creación, dado
que era sagrado. “Me alegró no ser arrojado a la inquisición”, bromeó.
La conferencia concluyó con un llamamiento del célebre físico teórico
por continuar la exploración del cosmos y del espacio, como una
necesidad humana. “No creo que sobrevivamos otros mil años sin escapar
de nuestro frágil planeta”, dijo. Hawking ha pasado un mes en Caltech,
como suele hace todos los años, para discutir problemas de física con
sus colegas, como su amigo Kip Thorne, señala Space.com.
El casquete de hielo continental antártico surgió por primera vez
durante el Oligoceno hace 33,6 millones de años, según demuestran los
datos de una expedición internacional liderada por el Consejo Superior
de Investigaciones Científicas.
La expedición internacional Integrated Ocean Drilling Program
coordinada Consejo Superior de Investigaciones Científicas (CSIC) ha
obtenido información de los sedimentos de las profundidades del hielo
antártico hasta determinar que el casquete polar de esta región tiene
33,6 millones de años. El hallazgo acaba de ser publicado en la revista Science.
Antes
de que el hielo se asentara sobre el continente antártico, la Tierra
era un lugar cálido de clima tropical. En esta región, el plancton
gozaba de gran diversidad hasta que la glaciación redujo estas
poblaciones a solo aquellas capaces de sobrevivir en el nuevo clima.
La
expedición internacional ha obtenido esta información gracias a la
historia paleoclimática que se conserva en los estratos de sedimento de
las profundidades antárticas.
La investigadora del CSIC en el
Instituto Andaluz de Ciencias de la Tierra (centro mixto del CSIC y la
Universidad de Granada) Carlota Escutia, que ha liderado la expedición,
explica: “El registro fósil de las comunidades de organismos
dinoflagelados refleja una gran disminución y especialización de dichas
especies que tuvo lugar al establecerse el casquete de hielos y con el
las estaciones marcadas por la formación y desaparición de la banquisa
de hielos”.
El origen del casquete polar continental antártico
marca el inicio del funcionamiento de sus comunidades planctónicas que
aún perdura en la actualidad. Dicha capa de hielo se asocia a su
banquisa, que es la parte helada que desaparece y reaparece en función
de la estacionalidad del clima.
Estos coloridos espectáculos se producen cuando las partículas del
viento solar, con carga eléctrica, son canalizadas por las líneas del
campo magnético terrestre hasta chocar con los átomos de las capas más
altas de nuestra atmósfera. Cuando impactan con átomos de oxígeno se
produce un resplandor verde, como el de esta imagen.
Hace siglos que se conoce la relación entre las auroras y la actividad
solar, pero los satélites han permitido a los científicos empezar a
descifrar los mecanismos físicos que las provocan.
El cuarteto de satélites Clúster de la ESA vuela en formación en órbita a
la Tierra, surcando su entorno magnético para estudiar la conexión
entre el Sol y nuestro planeta.
En un nuevo estudio, Clúster
ha analizado unos violentos fenómenos magnéticos conocidos como
subtormentas, que provocan variaciones en la corriente de viento solar
que colisiona con el escudo magnético de la Tierra – la magnetosfera.
Durante una subtormenta, la cola de la magnetosfera terrestre se
comprime y emite potentes chorros de plasma de alta energía hacia el
planeta, a una velocidad que puede alcanzar varios kilómetros por
segundo. Este fenómeno ayuda a las partículas de plasma a infiltrarse en
las capas superiores de la atmósfera, generando auroras.
Estas ráfagas de plasma, conocidas como BBFs (siglas en inglés de
‘bursty bulk flows’), duran muy poco, de 10 a 20 minutos. El estudio
realizado con Clúster descubrió que, a pesar de su brevedad, las BBFs
transportan mucha más energía de la que se pensaba – casi un tercio del
total que termina llegando a la Tierra durante una aurora.
Hasta ahora se pensaba que su contribución era algo marginal, apenas un 5%.
Los nuevos datos demuestran que se había subestimado la importancia de
las BBFs, y nos podrían ayudar a comprender mejor los efectos de la
meteorología espacial sobre nuestro planeta.
La misión Swarm de
la ESA, que se lanzará en junio de este año, estudiará en detalle la
complejidad del campo magnético de la Tierra y su relación con el Sol.
Investigadores de la Universidad del País Vasco han desarrollado modelos
matemáticos con el fin de perfeccionar una simulación que muestra la
evolución del sistema solar a través del tiempo. Los métodos propuestos
permiten realizar cálculos de simulación de manera más rápida y precisa.
Un equipo de investigadores de la Facultad de Informática de la
Universidad del País Vasco (UPV/EHU) ha desarrollado modelos matemáticos
con el objetivo de perfeccionar una simulación que muestra la evolución
del sistema solar a través del tiempo.
Según los científicos, los nuevos métodos propuestos, que han sido publicados en la revista Applied Numerical Mathematics, permiten realizar cálculos de simulación de manera más rápida y precisa.
Los
responsables del proyecto señalan que la metodología seguida es un
claro ejemplo de interdisciplinariedad y de colaboración, ya que han
participado matemáticos, informáticos, físicos y astrónomos, y, aunque
gran parte del trabajo se ha realizado en la UPV/EHU, también han tomado
parte las universidades de Valencia y Castellón y el Observatorio de
París.
El matemático Ander Murua explica que en el Observatorio de
París, el reconocido astrónomo Jacques Laskar está estudiando la
evolución del sistema solar. Entre otras cuestiones, ha elaborado
precisos modelos matemáticos del sistema solar, y, mediante métodos
numéricos desarrollados por potentes ordenadores, ha realizado cálculos
que permiten conocer su evolución durante millones de años.
Cambios de órbita
Contrastando
la información astronómica obtenida por Laskar en dichos cálculos y
simulaciones con datos geológicos, se puede conocer la relación
existente entre los cambios de órbita de la Tierra y las glaciaciones y
los calentamientos. Estos datos pueden ser de utilidad para prever
acontecimientos futuros. Para las simulaciones, son importantes tanto el
modelo matemático del sistema solar como los métodos numéricos
empleados, dice Murua.
La última simulación fue efectuada por el equipo de Laskar hace
aproximadamente tres años, y se remontó hasta hace 250 millones de años.
Los ordenadores trabajaron un año entero en la simulación. No obstante,
aunque Laskar considera que los datos obtenidos sobre los últimos 50
millones de años son fiables, al remontarse más atrás en el tiempo los
datos pierden rápidamente su fiabilidad, a causa del comportamiento
caótico del sistema. Según Murua, “al parecer, Laskar se propondrá en la
próxima simulación retroceder, con resultados fiables, 70 millones de
años, perfeccionando el modelo matemático y los métodos numéricos para
hacer los cálculos. “
A lo largo del tiempo, las naciones de la Tierra que cuentan con
tecnología espacial han enviado docenas de sondas y vehículos
exploradores a Marte. Hoy en día, hay tres satélites activos circulando
alrededor del Planeta Rojo mientras dos vehículos exploradores,
Opportunity (Oportunidad, en idioma español) y Curiosity (Curiosidad, en
idioma español), se desplazan debajo de ellos, sobre las rojas arenas.
Marte es seco, desierto y aparentemente carece de vida.
Pronto, estos dispositivos podrían hallarse explorando un tipo de mundo muy distinto.
"Hay una pequeña pero nada despreciable probabilidad de que el
cometa 2013 A1 se estrelle contra Marte en octubre de 2014", dice Don
Yeomans, del Programa de Objetos Cercanos a la Tierra (Near-Earth Object
Program, en idioma inglés), de la NASA, en el Laboratorio de Propulsión
a Chorro (Jet Propulsion Laboratory o JPL, por su sigla en idioma
inglés). "Las soluciones actuales sugieren que hay una probabilidad en
dos mil de que esto suceda".
El núcleo del cometa tiene probablemente de 1 a 3 kilómetros de
diámetro y se aproxima a gran velocidad, alrededor de 56 km/seg
(aproximadamente 125.000 millas por hora). "Si llegara a chocar contra
Marte, produciría una explosión con una energía equivalente a 35
millones de megatones de dinamita", estima Yeomans.
A modo de comparación, cabe mencionar que el impacto del asteroide
que terminó con los dinosaurios terrestres hace 65 millones de años fue
unas 3 veces más poderoso, produjo una energía equivalente a 100
millones de megatones. Otro punto de comparación es el meteoro que
explotó sobre Chelyabinsk, Rusia, en febrero de 2013, el cual dañó
edificios y arrojó personas al suelo. El cometa de Marte contiene
potencialmente 80 millones de veces más energía que aquel relativamente
exiguo asteroide.
Un impacto no necesariamente sería el fin del programa de la NASA
en Marte, pero sí transformaría el programa, y también al mismo Marte.
"Yo lo veo como un gigantesco experimento sobre el clima", dice
Michael Meyer, quien es el científico principal del Programa de
Exploración de Marte (Mars Exploration Program, en idioma inglés), en
las oficinas centrales de la NASA. "Un impacto como este arrojaría una
gran cantidad de material hacia la atmósfera de Marte: polvo, arena,
agua y otros desechos. El resultado podría ser un planeta Marte más
caliente y húmedo que el que conocemos ahora".
A Meyer le preocupa que el vehículo explorador todo terreno
Opportunity, impulsado por energía solar, pueda tener dificultades para
sobrevivir si la atmósfera se vuelve opaca. En cambio, el vehículo
explorador Curiosity, impulsado por energía nuclear, continuaría su
misión sin problemas. También destaca que los vehículos en órbita
alrededor de Marte tendrían problemas para distinguir la superficie, por
lo menos por un tiempo, mientras los desechos se asientan.
Los astrónomos han sido testigos del despertar de un agujero negro, tras
décadas de inactividad. El agujero negro ha devorado un objeto de baja
masa -una enana marrón o un planeta gigante- que se le acercó demasiado.
Un fenómeno similar ocurrirá pronto con el agujero negro situado en el
centro de nuestra galaxia, la Vía Láctea, que engullirá una nube de gas.
El telescopio espacial de la ESA Integral fue el primero en alertar del
despertar del agujero negro en la galaxia NGC4845, a 47 millones de años
luz de distancia. Los telescopios XMM-Newton, de la ESA; Swift, de la
NASA; y el detector de rayos X japonés MAXI, a bordo de la Estación
Espacial Internacional, también han observado el fenómeno.
Los astrónomos estaban observando otra galaxia con Integral, cuando
detectaron un destello muy brillante en rayos X procedente de otra
región en el mismo campo de visión. XMM-Newton confirmó que la fuente
era NGC4845, una galaxia que nunca había sido detectada en altas
energías.
Junto con Swift y MAXI la emisión fue observada a lo largo de todo el
año 2011, desde su máximo en enero, cuando el brillo de la galaxia se
multiplicó por mil, hasta su desvanecimiento.
“La observación fue completamente inesperada, procedente de una galaxia
que ha permanecido tranquila durante al menos 20 o 30 años”, dice Marek
Nikolajuk de la Universidad de Bialystok, Polonia, y autor principal del
artículo en Astronomy & Astrophysics.
Analizando las características del destello los astrónomos pudieron
determinar que la emisión procedía del halo de material en torno al
agujero central de la galaxia. Este objeto destrozaba y se alimentaba de
otro de una masa entre 14 y 30 veces la de Júpiter, un rango que se
corresponde con el de las enanas marrones –objetos subestelares que
carecen de la masa suficiente como para iniciar la fusión del hidrógeno
en sus núcleos, como hacen las estrellas-.
Sin embargo los autores advierten que este objeto podría tener una masa
incluso menor, de apenas unas cuantas veces superior a la de Júpiter, lo
que lo situaría en el rango de los planetas gigantes.
Estudios recientes han sugerido que los objetos de masa planetaria de
este tipo, que se encuentran flotando libremente en el espacio tras
haber sido expulsados de sus sistemas solares originales por
interacciones gravitatorias, podrían ser muy comunes en muchas
galaxias.
Se estima que el agujero negro en el centro de NGC 4845 tiene una masa
300.000 veces superior a la de nuestro Sol. Y le gusta jugar con su
comida: la forma en que la emisión aumentó y decayó revela que hay un
retraso de entre dos y tres meses entre la descomposición del objeto y
el calentamiento de los residuos en el entorno del agujero negro.
Se presenta un estudio exploratorio para evaluar la influencia en el aprendizaje, de un sitio web de la asignatura Física 1, por competencias, para estudiantes de ingeniería. Se parte de un enfoque socio cultural, considerando las tecnologías de la información como un instrumento de mediación y que su uso, como herramientas mentales, permite que tengan mayor influencia en el proceso de aprendizaje. Se muestran los resultados de la evaluación, con los datos aportados por encuestas realizadas a los estudiantes de dos grupos piloto, de las estadísticas de visitas al sitio y de la comparación de las entregas de las actividades de aprendizaje de otros semestres. Se concluye que la influencia del sitio web en el aprendizaje de los estudiantes fue positiva.
En este trabajo se analizan dos aspectos vinculados a la implementación de simulaciones en la enseñanza. En primer lugar se discute una visión de las simulaciones, como recurso didáctico de gran potencialidad en la construcción de conceptos y modelos en la enseñanza de la Física. Se sostiene que las simulaciones tienen un status propio que trasciende un enfoque de mero complemento de problemas de lápiz y papel o laboratorio y se muestran algunas alternativas de uso. En segundo término, se presenta una síntesis de los resultados de los estudios de caso de cinco profesores que aceptaron compartir y analizar, a través de una investigación participante, el proceso de implementación de una simulación en sus clases de física. En particular, se presenta en detalle el caso de uno de los profesores que con entusiasmo decide incorporar una simulación en la enseñanza de oscilaciones mecánicas, sus dificultades y comentarios. Se interpretan los problemas de los profesores en términos de dos ideas clave que hemos denominado “la ilusión de la interactividad” y “las rutinas del profesor”. Finalmente, se plantea la necesidad de investigaciones que incluyan a los profesores, si se pretende una transformación educativa de la práctica docente que supere rutinas y preconceptos de la práctica tradicional, en relación a las simulaciones