domingo, 28 de octubre de 2007

La tecnología OLED

OLEDLas pantallas están sufriendo desde hace tiempo un proceso de adelgazamiento que parece no tener fin. Los monitores de plasma y LCD no han acabado aún de sustituir plenamente a los voluminosos televisores de tubo y ya tenemos a la vista la próxima revolución, las ultrafinas pantallas OLED. (Sony empezará a comercializar estas navidades una televisión que no supera los tres milímetros de grosor basada en esta tecnología.)
La tecnología OLED, basada en la emisión de luz a partir de un diodo orgánico que reacciona a una corriente eléctrica, es según los expertos más eficiente, y permite construir pantallas más ligeras y delgadas que las actuales. El problema, por ahora, parece ser la fabricación de monitores de gran tamaño, como los que están disponibles en LCD y plasma.
El modelo que Sony empezará a comercializar en navidades en Japón, llamado XEL-1, tendrá un tamaño de 11 pulgadas que se venderá por 200.000 yenes (1.218 euros). Con ella, la compañía japonesa desea recuperar el liderazgo tecnológico del sector. Actualmente es el segundo fabricante de pantallas de cristal líquido por número de ventas, por detrás de la coreana Samsung.
Una de las grandes ventajas de las pantallas OLED es que, a diferencia de las pantallas LCD, no necesitan retroiluminación, lo que permite reducir su tamaño aún más. Además ofrecen mejoras en "calidad de imagen, ángulo de visión, tiempo de respuesta y un mayor ratio de contraste," según un informe de la firma DisplaySearch.
El mismo estudio señala que el mercado de pantallas de diodos orgánicos emisores de luz (OLED por sus siglas en inglés) está floreciendo y se prevé que sus ventas crezcan un 117 por ciento en el próximo año, a medida que más productos clave como teléfonos móviles adoptan la tecnología. Aún así, el problema del tamaño de la pantalla sigue presente y frenará la extensión de OLED. "No creo que vaya a sustituir al LCD de la noche a la mañana", ha declarado el presidente ejecutivo de Sony, Ryoji Chubachi, que no obstante insiste en el "gran potencial de esta tecnología".
Sony no es el único fabricante que trabaja con lo diodos orgánicos aplicados a la televisión. Toshiba ha anunciado que empezará a colocar en las tiendas televisiones OLED en el año 2009.

sábado, 27 de octubre de 2007

Internet de dos niveles

Hay dos notas excelentes que reflejan el problema de la Neutralidad de la Red de forma clara y sencilla: si no se respeta el principio de la Neutralidad de la red Internet va a convertirse en una red de dos niveles, uno para los que tengan los recursos y otro para los emprendedores, los que no tengan recursos o sean competencia de los proveedores de acceso.

Mientras la nota de VNUNET explica bastante clara la idea de que Internet está siendo víctima de su propio éxito, aunque tal vez olvidan mencionar que, es este mismo éxito y los servicios que ofrecen los proveedores de contenidos, los que llevan a los consumidores a contratar cada vez más y más conexiones de banda ancha con la que los ISPs facturan… sin estos servicios no tendría sentido que se actualice la infraestructura.

El editorial en Business Week sobre la neutralidad de la red habla de las consecuencias para los pequeños jugadores y es excelente.


Tiered System Obstructs Smaller Players
Eliminating net neutrality would turn the open system of the Internet on its head. With net neutrality, you can start a business selling widgets online and be assured that consumers can reach your Web site just as easily as Wal-Mart’s (NYSE:WMT - News). But under the tiered system proposed by the phone and cable companies, the level playing field is gone. Wal-Mart will be able to buy a spot in the fast lane on the information superhighway. The little guy will be stuck on dirt roads.

The phone and cable companies say they need to discriminate to generate a new revenue stream — which they claim will be used to improve infrastructure. It’s unclear whether these new tolls would actually generate substantial income. But eliminating net neutrality would allow these companies to use the power of discrimination to favor their own content — that is, they would use their domination of the broadband access market to exert power over the content and applications market.

And there’s no guarantee that they would reinvest the funds from this new revenue stream in faster broadband. In fact, the broadband providers would even gain incentive to delay deployment of faster networks. If the “pipes” were “fatter,” there would be no need for tiering. Thus, the providers have a strong incentive to reduce output — the precise outcome you’d expect in a duopoly market.

Proposed Bill Supports Consumer Preference
The FTC couldn’t deny that the public likes the free and open Internet the way it is. Their report admits: “In the area of broadband Internet access, (consumers) have revealed a strong preference for the current open access to Internet content and applications.”

Nevertheless, the FTC stuck its head in the sand. That leaves it to Congress to take decisive action to protect the free and open Internet and bring the benefits of broadband to everyone. The bipartisan Internet Freedom Preservation Act, introduced by Senators Byron Dorgan (D-N.D.) and Olympia Snowe (R-Me.), is a good start.

Perhaps Congress should keep in mind that those consumers are also voters.

Nada más que agregar ;)

jueves, 25 de octubre de 2007

Venta de links de texto: Google empieza a penalizar

La amenaza de Google empezó a ser una realidad: los sites con links de texto patrocinados están siendo penalizados en su Pagerank.. y yo sigo sosteniendo 2 cosas;

1- es IMPOSIBLE saber que tipo de links patrocinados deben ser penalizados, porque si los links pagos están diferenciados y marcados el lector lo sabe… no debería haber penalización!
2- La obsesión por el pagerank es ridícula, el PR no es el único ni el más importante factor para el posicionamiento de páginas.

Y me pregunto 2 cosas tambien:
1- ¿porque AdSense pide que marquemos lo que es publicidad de lo que no? Si los que están en AdSense Premium Publisher no lo distinguen
2- Si se penaliza a los que usan TLA ¿porque no se penaliza a las redes de blogs que usan el blogroll de sus propios blogs para ganar posicionamiento de forma artificial y que, de esa manera, no solo joden al PR, sino también a todos los rankings habidos y por haber?

Telendro hace un pequeño análisis de la noticia, y de pageranks ca

miércoles, 24 de octubre de 2007

Descubren cómo el oro alivia el dolor de la artritis

DolorCientíficos de la Universidad de Duke podrían haber resuelto el misterio en torno a la propiedades curativas del oro respecto al dolor producido por la artritis reumatoide y otras enfermedades inflamatorias.

Esta técnica ya se utilizó por primera vez a principios de 1900, aplicando inyecciones de sales de oro a los pacientes, pero el tratamiento tuvo un alto precio con efectos secundarios como erupciones en la piel, llagas en la boca, daño renal y, en ocasiones, problemas en la capacidad de la médula ósea para hacer nuevas células sanguíneas. Recientemente, los nuevos tratamientos, como el metotrexato y la ingeniería biológica han reemplazado a las sales de oro como tratamiento preferido.

Pero el doctor David Pisetsky, jefe de la división de inmunología y reumatología en el departamento de medicina de Duke, dice que "no debemos desestimar las sales de oro tan rápidamente, al menos, hasta conocer exactamente cual es su mecanismo curativo.

Pisetsky, en colaboración con colegas en la Universidad de Pittsburgh y el Instituto Karolinska encontraron que el oro bloquea la liberación de la molécula HMGB1 del núcleo, responsable de la inflamación, y cuya presencia es la clave del proceso en que se basa el desarrollo de la artritis reumatoide. Esta molécula es de doble función, lo que significa que se comporta de una manera cuando está en el interior del núcleo de una célula, y de otra muy distinta cuando se libera de la célula.

"Básicamente, manteniendo al HMGB1 acorralado en el interior del núcleo es suficiente, cuando se trata de la artritis", dice Pisetsky. Precisamente el oro inhibe su liberación al interferir en la actividad de dos moléculas (interferón beta y el óxido nítrico) que ayudan a liberar el HMGB1.

El estudio se publicará en enero de 2008 el la revista Journal of Leukocyte Biology, aunque los resultados preliminares ya están en línea en la siguiente web: http://tinyurl.com/3cd957.

lunes, 22 de octubre de 2007

Reciclando casettes?

Lo dudo, porque al menos que hagas un respaldo de tus grabaciones porque seguramente habrá lectores que ni idea tengan de qué es esta imagen (un casette, la antigua forma de grabar audio ya no habían cds y los discos eran de vinilo), pues seguramente tendremos algunos cuantos ejemplares.. Algunos realmente inservibles. Pero seria bueno que los que no sirven se reutilicen como para el uso que le dan a este casette, donde se sustituye la cinta de audio por una cinta adhesiva, pero a lo mejor no se reciclan de esta forma, porque serán escasas las personas que tiren sus cassettes, lo cual sería bueno porque estaríamos reciclando. De todas formas si tienes nostalgia de tus equipos, lo puedes comprar a $21.51 dólares. Y son un éxito porque las carteras hechas con cassettes se venden bien.

domingo, 21 de octubre de 2007

Analizador portátil de ADN

Analizador portátil de ADN

Si creías que estaba todo dicho con respecto al ADN, estabas equivocado, porque la empresa NEC ha desarrollado el primer analizador portátil de ADN del mundo. Esto incluye el material necesario para las 5 etapas del proceso de análisis.

Este nuevo y maravilloso invento podrá analizar una muestra en 25 minutos, tiempo récord, esencial para investigaciones criminales y prevención del crimen como así también, análisis por paternidad. Estará en producción en 2008, lo único que se debe hacer es modificar las leyes para que se permitan este tipo de aparatos.

Tecnología PLC a 400 Mbps

Si bien el intento de Iberdrola y Endesa en hacer funcionar la tecnología PLC no dio los resultados esperados, parece que una nueva iniciativa pretende coger el testigo.

la empresa española DS2 pretende coger el timón del PLC y darle un nuevo impulso. Para ello, van a efectuar una demostración con un equipo capaz de alcanzar los 400 Mbps. Cifra que dobla la capacidad de los modelos que Iberdrola y Endesa pusieron a prueba.”

Aunque en Noviembre se tiene previsto empezar el periodo de pruebas (no se sabe ni dónde ni la fecha exacta), la idea es ofrecer servicio de Internet a partir de 2009.

sábado, 20 de octubre de 2007

Identificado el asteroide causante de la extinción de los dinosaurios

Colisión Baptistina

Recientemente saltó a la palestra una nueva teoría sobre la extinción de los dinosaurios, o más bien sobre el asteroide que la provocó. Se trata de un estudio publicado en la revista Nature por William Bottke, investigador del Instituto de Investigación Southwest de Boulder, en Colorado (Estados Unidos).

Según Bottke y su equipo, hace 160 millones de años se produjo una colisión entre dos rocas, la mayor de ellas de 170 kilómetros de diámetro, formando la familia de asteroides de Baptistina. Eso provocó que entre los últimos 200 y 100 millones de años se produjera una contínua lluvia de meteoritos sobre La Tierra, uno de los cuales fue el culpable de la famosa extinción de los dinosaurios hace unos 65 millones de años. Otros pedazos resultantes de esta colisión habrían formado, según la investigación, el cráter lunar Tycho, de 85 km de diámetro, o el mexicano Chicxulub, de 180 km.

Como dice el propio Bottke:

Es un pensamiento conmovedor que la colisión Baptistina de hace 160 millones de año selló la suerte de los dinosaurios del fin del período Cretáceo, algo que ocurrió mucho antes de que la mayoría de ellos hubiese evolucionado

viernes, 19 de octubre de 2007

Nanotecnología - El mundo a escala atómica

Tanto como millonésimas de milímetro. Ese es el orden de magnitud de los nuevos materiales moleculares de aplicaciones sorprendentes, lo que ha dado origen a palabras como Nanociencia y Nanotecnología. Para hacernos una idea: una hormiga mide alrededor de un cm (10-2 metros), una célula 20 micrometros (10-6 metros), un orgánulo del interior de la célula como el ribosoma mide 25 nanometros (25x10-9 metros). Para apreciar lo pequeño que es un átomo: un átomo es un 1/10.000 del tamaño de una bacteria, a su vez un 1/10.000 del tamaño de un mosquito. En un nanómetro cúbico caben 258 átomos de carbono.
Se ha escrito bastante en los últimos años sobre los denominados nanocompuestos, y es que hay que reconocer que ese término engloba una enorme diversidad de sustancias con un más que prometedor futuro en muy diversas aplicaciones.

Se ha escrito bastante en los últimos años sobre los denominados nanocompuestos, y es que hay que reconocer que ese término engloba una enorme diversidad de sustancias con un más que prometedor futuro en muy diversas aplicaciones.

Actualmente se trabaja intensamente en la preparación y el estudio de nuevos materiales moleculares y supramoleculares que manifiesten propiedades químicas y/o físicas, eléctricas, magnéticas y ópticas, entre otras, para su utilización como dispositivos químicos nanoscópicos. Estos tienen aplicación en la Electrónica Molecular o en Biomedicina como máquinas a escala atómica con funciones de limpieza de arterias dañadas por la arterioesclerosis, reparadores de ADN, re-constructores de células o “vasculocitos para la prevención de ataques cardíacos por obstrucción de las arterias.


Bomba de átomos
Institute for Molecular Manufacturing

Hablamos de moléculas “engranadas”mecánicamente, con las que se han diseñado los motores moleculares, los interruptores nanoscópicos o sistemas de almacenamiento de la información a escala atómica. Se trata, principalmente, de los catenanos, los "nudos" (del inglés knots) y los rotaxanos, formados por anillos o macrociclos entrelazados atravesados por un "hilo" en linea recta y que se pueden "ensamblar" entre sí.

Según David A. Leigh & Aden Murp, de la Universidad de Warwick, Coventry, en su artículo Molecular Tailoring: the made-to-measure properties of rotaxane, publicado en Chemistry & Industry el 1 de Marzo de 1999, el bloque de componentes engarzados puede manifestar un comportamiento distinto al de los “ladrillos” individuales. Incluso puede presentar propiedades totalmente nuevas. Los macrociclos protegen al hilo molecular central como una funda que los preserva de agentes externos. Así, según los mismos autores, se consigue obtener pigmentos fotorresistentes, con la posibilidad adicional de obtener hilos más largos, estables, que pueden usarse como “cables” moleculares.

El proceso de formación del rotaxano es reversible, de modo que es posible recuperar el macrociclo y aislarlo. Esto permitiría la existencia de moléculas “con memoria de forma” que según el ambiente que las rodea, adoptan una configuración u otra, es decir, “recuerdan” la forma preferida. Lo anterior abre la puerta al desarrollo de los interruptores moleculares, de los que hablaremos más adelante.

Cambiando las interacciones entre el hilo y los anillos que lo rodean, pueden variarse selectivamente las propiedades moleculares.

Si lo que se cambia es "la cara" que presentan al ambiente externo, mediante un estímulo adecuado se pueden obtener moléculas "inteligentes", como las "lanzaderas" moleculares: estos rotaxanos presentan dos estaciones o sitios de reconocimiento en el hilo entre los cuales el macrociclo es libre de desplazarse. Manipulando su afinidad por cada sitio pueden así los químicos ejercer un alto grado de control sobre este movimiento submolecular.

Representación generada por ordenador de un rotaxano, un anillo (macrociclo) cerrado en torno a un eje. (Del documento HTML adaptado por el autor Matthew Carroll de su informe 'Towards the Synthesis of a [2]catenane' sobre un trabajo de investigación realizado en la Birmingham University (Julio-Agosto 1998)


El anillo está "contenido" en el eje y no se sale de él gracias a grupos químicos voluminosos, formados generalmente por diez o más anillos bencénicos incorporados a cada extremo. Lo importante a destacar es que no hay interacciones químicas entre el eje y el anillo.

Según el mencionado artículo de David A.Leigh, también se ha comprobado que al irradiar con luz el macrociclo una vez ha sido incorporada al mismo una molécula fotoexcitable [Ru(bipy)2]2+, esta es violentamente expelida de la cavidad, comportándose como una especie de pistón molecular propulsado por la luz.


Representación generada por ordenador de un catenano (dos o más anillos químicos entrelazados) Ver estructuras más adelante.

El catenano se mantiene íntegro porque los dos anillos están entrelazados, como los eslabones de una cadena, y al igual que estos, no pueden ser separados sin romper al menos uno de ellos.

Esto añade un grado de libertad rotacional no asequible a otros sistemas, lo que puede encontrar aplicación en el desarrollo de nano-dispositivos como los nuevos sistemas de almacenaje de información, las computadoras moleculares.

Nanocomputadoras electrónicas químicamente ensambladas (CAEN)

Los científicos de los laboratorios Hewlett-Packard en Palo Alto, California y en la Universidad de California en Los Angeles (UCLA) están desarrollando computadoras muy, muy pequeñas. Tanto como que una de ellas cabría en un grano de arena. Estas nuevas computadoras son, en realidad, moléculas.

¿Pueden ser las computadoras tan diminutas? Todas las computadoras están basadas en un interruptor de encendido-apagado. Los científicos han desarrollado un rotaxano que actúa como tal interruptor:

El rotaxano es "insertado" entre dos cables cruzados. Cuando la molécula está en la posición de "apagado", un electrón puede brincar desde un cable hasta la molécula y luego desde esta hasta el otro cable. Como el viajero que se vale de un puente para cruzar un río. Imaginemos que el puente fuese móvil.: para crear la posición de "encendido" los científicos aplican un campo eléctrico entre los cables. Entonces, el electrón ya no puede brincar tan fácilmente. El puente ya no está allí.

Los científicos también están tratando de crear cables más pequeños para ser usados con estas nuevas moléculas. Han estirado tubos de carbono hasta formar hilos delgados de un nanómetro de ancho. Diez mil veces más finos que un cabello, son el resultado del arrollamiento de capas de átomos de carbono distribuidos en el espacio según la estructura hexagonal típica de su sistema cristalino. Descubiertos en 1991 por un investigador de la NEC, estarían destinados a ser conectores a escala atómica en dispositivos electrónicos.

Los científicos planean introducir capas de moléculas de rotaxano en el interior de computadoras ultra potentes. Las nuevas computadoras serán mucho más pequeñas y 100 billones de veces más rápidas que las que usamos en la actualidad. También serán más económicas. Se llaman "nanocomputadoras electrónicas químicamente ensambladas" y sus siglas en inglés son CAEN (chemically assembled electronic nanocomputers). (Harcourt School publishers)

Se cree que los científicos necesitarán dos años más para fabricar la primera CAEN. Y pocos años después podrían venir ya las primeras CAEN a la venta para todo el público. Quizá algún día dispongamos de una en nuestros hogares.

Uno de los grandes retos a los que se enfrentan los científicos en la actualidad es que cada molécula de rotaxano sólo puede ser usada una vez. Por ello, sirve únicamente para almacenar información en la memoria de sólo lectura o memoria ROM (read-only memory). Un ejemplo de memoria ROM es la utilizada para guardar en soporte CD-ROM una enciclopedia. Puede ser leída pero no modificada.

La molécula de rotaxano no puede ser usada para almacenar datos en la memoria de la computadora que se cambia una y otra vez: la memoria de acceso aleatorio usada en procesadores de texto o memoria RAM (random-access memory). Los científicos están tratando de desarrollar una molécula que pueda utilizarse cuantas veces sea necesario.

Estas computadoras microscópicas, incorporadas por ejemplo al torrente sanguíneo de una persona, podrían identificar bacterias que no son mayores que ellas. Así se conocerían los fármacos específicos para combatir infecciones. Una entre miles de posibilidades.

Phil Kuekes es un arquitecto de computadoras Hewlett-Packard y un investigador de CAEN. "Eventualmente", dice, "las computadoras serán tan pequeñas que ni siquiera las notaremos. La computadora no estará solamente en tu reloj de pulsera; estará en las fibras de tu ropa".

En 1964, Gordon Moore, uno de los socios fundadores de Intel, formuló una ley, la famosa Ley de Moore, aceptada universalmente durante las últimas tres décadas: "El número de transistores que caben en un chip de silicona se dobla cada 18 meses". Dicha ley recibe retoques de cuando en cuando. El coeficiente multiplicador anual de la densidad se mantuvo en el valor 2 desde 1958 hasta 1972, se redujo a 1.6 desde entonces hasta 2010 (estimativo) y se cree que pasará a valer 1.16 desde esta última fecha en adelante, hasta alcanzar los límites de la Física.

La primera necesidad que impulsó la miniaturización de circuitos electrónicos surgió de los programas de cohetes balísticos, debido a su limitada capacidad de carga. La microtecnología fue desarrollándose paulatinamente y se aplicó de forma inmediata a computadoras comerciales, lo que redujo enormemente el tamaño de sus procesadores.

Moore acertó plenamente. Los pasos de gigante dados en el desarrollo de la informática han supuesto un fulgurante avance en la tecnología aplicada a los aparatos electrónicos. En los años 70, los primeros chips contenían unos 2300 circuitos. Actualmente un Pentium 4 contiene más de 42 millones.

Pero al cabo de esos treinta años la microinformática parecía haber tocado fondo. Es probable que en un plazo de tiempo más cercano a nosotros de lo que imaginamos se fabriquen chips de 50 átomos de ancho, si bien las leyes de la física impiden que el método tradicional de impresión del transistor por la luz pueda llegar a operar a escala menor.

La razón: es sabido que los ordenadores sólo entienden la lógica binaria, es decir, los valores 0 ó 1, llamados bits, que no es más que un convenio sobre si pasa o no corriente electrica. Los bits a su vez se agrupan en bytes, y se codifican de manera especial para dar lugar a los lenguajes de programación. Los programadores utilizan estos lenguajes para crear los programas, con los que dan instrucciones al ordenador sobre lo que tiene que hacer. A continuación, dichos programas se traducen al lenguaje binario o código máquina, que es el único que entiende el ordenador.

Desde un punto de vista físico, el valor 0 o 1 de un bit se procesa en el ordenador mediante un interruptor de apagado o encendido. Estos interruptores son los conocidos transistores de tipo MOS (Metal Oxide Semiconductor) donde una corriente de electrones se conduce a través de una "puerta"que permite el paso desde el óxido (aislante) al metal (silicio, semiconductor). Idea clave de los chips: estos transistores se almacenan en circuitos integrados (integran en la misma pieza de semiconductor todos los componentes de un circuito eléctrico: transistores, diodos, resistencias, condensadores, etc...) , los cuales están hechos enteramente de silicio. Hay 100 millones de transistores por chip. Para crearlos, un rayo de luz graba las obleas de silicio, proceso que se conoce con el nombre de fotolitografía. Esto genera un problema si lo que se quiere es alcanzar dimensiones cada vez menores: habría que utilizar una radiación de longitud de onda inferior a la de la luz, es decir los rayos X, los cuales alterarían la materia, la composición de los átomos y el método utilizado.

A pesar de esta evidencia, en 1999 desde la Universidad de California en los Ángeles nos llegó otra luz, la que arrojó el grupo de investigadores mencionado arriba quienes basándose en la física cuántica crearon el rotaxano. En síntesis, se puede decir que los pulsos emitidos por unos imanes actúan sobre las partículas de hidrógeno presentes en el rotaxano, haciéndolas girar e interaccionar con los átomos de carbono. Estos se orientan en ese campo de fuerza "subiendo "o "bajando", lo que representa un 1 ó un 0, comportándose así como un transistor electrónico.

Representación de un pseudo-rotaxano

Despues de "enhebrar" el largo eje-cadena a través de la corona del anillo, los dos extremos de la cadena podrían entonces ser unidos para formar el catenano.La estructura de la corona se muestra en el dibujo siguiente:

La estructura de la cadena larga es la que sigue a continuación:

En los ordenadores "clásicos", el material es un semiconductor como el silicio del cual aprovechamos sus propiedades electricas; en los ordenadores cuánticos se trata de átomos de flúor o iones de calcio, y nos aprovechamos de sus propiedades cuánticas. La multinacional informática IBM ha desarrollado uno de cinco átomos de flúor. "La computación cuántica comienza cuando la ley de Moore llega a su límite. De acuerdo con dicha ley, está previsto que los circuitos continúen una miniaturización progresiva hasta el año 2020, cuando alcanzarán el tamaño de los átomos y las moléculas", explica Isaac L. Chuang, director del equipo de investigadores de IBM y de las universidades de Stanford y Calgary que han trabajado en el proyecto. "De hecho, los elementos básicos de las computadoras cuánticas son los átomos y las moléculas". Recientemente, científicos de las Universidades de Harvard y Cornell presentaron, de forma independiente, transistores electrónicos constituidos por dispositivos formados por una sola molécula compuesta por átomos de cobalto y vanadio, con los que se demostró la capacidad para controlar el flujo de electrones.

El siguiente dibujo es una representación de un complejo cobalto-terpiridinil (cobalt-terpyridinyl) (a la izquierda) y de una molécula divanadio (a la derecha) unidas ambas a electrodos de oro. Sistema de un solo átomo del cobalto en un caso y dos átomos del vanadio en el otro.

Toda una hazaña increíblemente difícil de realizar, construir estos circuitos requirió la fabricación de "moléculas diseñadas" integradas por varios átomos dispuestos a modo de andamio en donde los átomos de cobalto o de vanadio se ubican en forma central.

Dos moléculas usadas por los científicos de la universidad de Cornell, para crear un transistor de un sólo átomo. En cada molécula hay un átomo de cobalto (azul oscuro), retenido por una molécula de piridina (Pyridine, C5H5N) y además hay átomos de azufre(rojo), usados para fijar la molécula a los electrodos de oro. El flujo de electrones de un electrodo al otro se realiza por un salto en el átomo de cobalto

La simultaneidad de estados según la física cuántica, consiste en que los electrones pueden estar a la vez en dos posiciones (el 0 y el 1). Esta particularidad da lugar a elementos (uno por cada átomo) que no se llaman bits, sino qubits (del inglés "quantum bit"). Además, los electrones no tienen por qué estar sólo en 1 y 0, sino que pueden tomar valores intermedios. Esta extraordinaria cualidad abre las puertas al almacenamiento masivo y simultáneo de datos.

El entrelazamiento, como sostiene el físico español José Ignacio Cirac consiste en que si un cuanto de energía, por ejemplo un fotón, cambia de estado, esta variación se refleja inmediatamente en otro, aunque esté separado físicamente de él: es la transmisión más rápida posible.

La capacidad de memoria y la velocidad se potenciarán cuando la simultaneidad de estados y el entrelazamiento se dominen. Así, por ejemplo, los grandes sistemas de cifrado y descifrado de mensajes, basados en operaciones matemáticas sencillas pero muy largas y repetitivas, se verán acortados radicalmente en el tiempo. El microprocesador cuántico reduciría los pasos en el tratamiento de la información, aunque todavía es pronto para cotejar datos tangibles.

Organizar a los átomos entre sí y con su entorno sin errores ni interferencias se intuye que es empresa más que difícil. El ordenador ultrarrápido desarrollado por IBM ha realizado una operación de calculo avanzado a una velocidad exponencialmente superior a la de un ordenador convencional. En http://www.ibm.com/es/press/notas/2000/ agosto/ordenadorcuantico.html se describe el concepto: "Utilizando la molécula de cinco qubits, el equipo de Isaac L. Chuang resolvió de un solo paso un problema matemático que precisa varios ciclos con ordenadores convencionales. El problema, denominado "order-finding" (encontrar el orden), consiste en determinar el periodo de una función particular, lo que constituye el centro de muchos otros problemas matemáticos que se utilizan en aplicaciones importantes tales como la criptografía.

El problema de encontrar el orden puede ser descrito de la siguiente forma: se considera un número elevado de habitaciones y un número igual de pasillos entre ellas en los que se puede circular en un solo sentido; algunos de estos pasillos pueden ser circulares y acabar en la misma habitación de la que salen. Una persona que se moviese por este "laberinto" acabaría tarde o temprano por volver a la habitación de origen. El problema es calcular, con un número bajo de consultas, el número mínimo de pasillos por los que tiene que circular esta persona antes de volver a la habitación inicial. El ordenador cuántico de cinco qubits resuelve cualquier caso de este problema en una sola fase, mientras que con la informática convencional puede ser necesario realizar hasta cuatro pasos."

Pero todavía falta mucho para que se puedan comercializar ordenadores cuánticos. Se calcula que se necesitan 1.000 partículas para realizar cálculos un poco complejos, y que es necesario coordinar unas 100.000 para obtener ordenadores moleculares de cierta capacidad. Algo que Jose Ignacio Cirac cree que no ocurrirá "en los próximos 20 años".

De las computadoras cuánticas se espera que desplacen a la tecnología del silicio, gracias a su velocidad y a su "nanoscópico" tamaño: los expertos consideran que en el volumen que ocupa un grano de arena se podrá albergar un ordenador cuántico cuya capacidad y velocidad equivaldrá a la de 1.000 procesadores como los actuales.

"Un ordenador molecular nos permitirá hacer cosas que todavía no podemos imaginar", dijo James Heath, que ha dirigido las investigaciones de UCLA, en un comunicado oficial. Según noticia diario El Pais ELPAIS.ES | ISABEL PIQUER [19/08/00]. "Será un millón de veces más eficaz que un ordenador basado en chips de silicio". También más económico y fiable. Los qubits no pueden ser clonados o copiados, haciendo prácticamente imposible el hecho de que alguien vulnere un código encriptado con un sistema cuántico.

"Con las moléculas estamos empezando a trabajar a la menor escala posible", dijo Fraser Stoddart, el químico que ha diseñado los interruptores junto con un equipo de investigadores de Hewlett-Packard. El hallazgo abre la puerta hacia un nuevo mundo de circuitos de apenas unos átomos de ancho, una miniaturización que promete cambiar la industria informática tal y como la conocemos. La investigación de Stoddart está en parte financiada por la Agencia de Proyectos de Defensa del Gobierno estadounidense.

Así pues, los dispositivos de memoria molecular podrían ofrecer una capacidad de almacenamiento muy superior a la de los ordenadores actuales y a mucho menor coste. Los actuales dispositivos microeléctricos de silicio tienen un tamaño mínimo de 180 nanómetros, más o menos una milésima del grosor de un cabello. Pero en la electrónica molecular los componentes más pequeños pueden llegar a reducirse a un solo nanómetro, lo que permitiría tener más de mil procesadores en el espacio que ahora ocupa uno solo de los actuales.

El sistema desarrollado en UCLA es relativamente simple, a partir de un catenano: "Imagine dos anillos interconectados, cada uno formado por dos estructuras que interactúan con estímulos electroquímicos", explica Stoddart. Un impulso eléctrico creará un movimiento de los anillos al alterar el orden de los electrones, "encendiendo" así el interruptor al provocar que las dos moléculas se toquen, permitiendo el paso de corriente. Otro impulso restablecerá el orden como si lo "apagara". Anteriormente este mismo equipo logró crear un sistema, basado en el rotaxano, pero que sólo podía funcionar una vez, y se inutilizaba después de un solo uso.

"Este nuevo sistema es muy robusto, se puede utilizar a temperatura ambiente", dice Stoddart. "Además se ve perfectamente cómo actúa el catenano, al principio es verde y luego cambia a marrón". Anteriormente el interruptor sólo funcionaba en una solución líquida, lo que no se podía utilizar para los ordenadores, pero el equipo de UCLA consiguió fijar las moléculas en una película sólida.


Sin embargo, todavía queda mucho camino hasta llegar a ensamblar un micrordenador con estas moléculas. Los científicos de Hewlett Packard ya pueden fabricar cables conductores de un ancho inferior al tamaño de una docena de átomos, pero todavía no han encontrado la fórmula para conectar los interruptores moleculares entre sí.

Supercomputación en una Playstation 3

¿Quién dijo que una consola de videojuegos sólo sirve para matar marcianos? También puede valer para encontrarlos, o para ayudar a resolver otros innumerables problemas científicos. Y es que cuando uno compra una de estas consolas está adquiriendo en realidad un dispositivo de cómputo que representa la punta de lanza tecnológica en procesamiento numérico específico. En su interior se encuentra hardware especializado, optimizado para realizar las complejas simulaciones físicas que subyacen a muchos juegos o para hacer el rendering fotorrealista de las escenas de los mismos. Si a esto añadimos la capacidad de interconexión a través de Internet, tenemos todos los ingredientes para desarrollar una plataforma de cómputo masivo distribuido.

Playstation 3

Lo anterior no es en sí mismo novedoso. Desde el histórico proyecto SETI@home han surgido diferentes iniciativas en computación grid que intentan aprovechar los ciclos libres de millones de equipos conectados a Internet. Lo que sí resulta especialmente interesante es la extrema capacidad de cómputo de las videoconsolas, y cómo éstas se adaptan especialmente a la resolución de este tipo de problemas. Pensemos por ejemplo en una Playstation 3. Esta consola incorpora un procesador Cell de 8 núcleos a 3.2GHz. Uno de ellos es el denominado “Power Processing Element” (PPE), similar a un PowerPC y responsable de ejecutar el sistema operativo y coordinar el funcionamiento del sistema. Los restante siete núcleos son los Synergistic Processing Elements (SPEs), procesadores RISC con registros de 128-bits que se encargan de “machacar números” (aunque uno de ellos está dedicado a otro tipo de labores, tales como seguridad). Si a esto le unimos la unidad de procesamiento de gráficos, el rendimiento combinado del sistema puede alcanzar los 2 teraflops.

Simulations of the villin headpieceEsto no ha pasado desapercibido para los administradores de Folding@home, un proyecto de computación distribuida en el área de la biología molecular que estudia el plegado de las proteínas (algo de capital importancia, ya que la función que desempeña una proteína está determinada por su estructura plegada tridimensional). Para ello es necesario realizar simulaciones físicas del proceso, lo que requiere ingentes recursos computacionales. Desde Folding@home se ha llegado a un acuerdo con Sony que ha facilitado la disponibilidad del software necesario para que quien lo desee pueda contribuir la capacidad de cómputo de su consola al proyecto. El resultado es espectacular, ya que con unas 22,000 consolas activas se están consiguiendo 289 teraflops (recordemos que la capacidad de cómputo sostenido del supercomputador más potente en la actualidad es de 280 teraflops), prácticamente la mitad de la capacidad de cómputo total, que incluye más de 240,000 CPUs. Los administradores del proyecto confían en llegar pronto al petaflop. Hay también planes de extender a la PS3 otros proyectos de computación distribuida (a través de BOINC).

El único inconveniente de momento es que esta aplicación no puede hacerse en background, ya que en el momento en que el usuario empiece a jugar no habrá potencia restante que dedicar a otro tipo de cálculos. En cualquier caso, uno no está jugando las 24h del día, así que ya sabes, hazle un favor a la ciencia, y compra una videoconsola.

¿Qué! pasa con el plasma? Antología del meta-disparate

Hace unos días el diario gratuito Qué! traía como noticia más o menos destacada el poco destacable nivel académico de los estudiantes universitarios en España. La noticia se ilustraba -bastante poco originalmente- en la línea del concurso “¿Sabes más que un niño de Primaria?“. Concretamente, emplean una encuesta sobre 170 alumnos que empiezan sus estudios universitarios y les plantean cuestiones de Educación Primaria, llegando a la conclusión de que sólo sacarían un aprobado raspado. Dejando de lado que el nivel académico general de los estudiantes universitarios es mejorable (y dependiendo de la materia, francamente muy mejorable), parece que los conocimientos puntuales de según qué áreas de Educación Primaria no son el mejor baremo para medir la aptitud académica de un estudiante. Al fin y al cabo, se supone que hay una Educación Secundaria en la que deben reforzarse y ampliarse los conocimientos básicos imprescindibles para afrontar los estudios universitarios. No recordar los afluentes de tal río, o la capital de algún país de África no es algo para congratularse, pero tampoco para darse cabezazos contra la pared.

Con todo y con eso, me quería quedar con un apartado de la noticia. Con tono bastante socarrón presentan algunas respuestas disparatadas a las preguntas que realizaron, y es ahí donde el disparate se torna meta-disparate. A la pregunta de cuáles son los estados de la materia uno de los estudiantes encuestados responde que “son cuatro: sólido, líquido, gaseoso y plasma“. Esto le hace merecedor de la condescendencia del autor del artículo que comenta que “un universitario descubrió el estado plasma“, poniéndolo al mismo nivel que otro que respondió que los estados eran dos: viva y muerta. Más tarde comentan la respuesta correcta, que en este caso era “sólido, líquido y gaseoso“. Incluso si realmente es así como actualmente se explica la cuestión en Primaria (sí lo era al menos en mi época), la guasa a costa de este universitario está injustificada, ya que éste tiene mucha razón. Los estados de la materia más habituales son esos cuatro, y de largo el plasma es el más común en el universo visible. Por supuesto, además de éstos hay otros numerosos estados de la materia más o menos exóticos: plasma de quarks-gluones, condensados de Bose-Einstein, materia extraña, etc. Es más que evidente que un universitario cualquiera no tiene por qué conocer estos últimos estados, y es posible que haya quien argumente que habría que darse con un canto en los dientes para que sepa los tres estados “clásicos”, pero desde luego el universitario que añadió el plasma a la lista demostró que al menos tiene algo de inquietud para ampliar conocimientos por su cuenta (suponiendo que no se explique en Física de Secundaria). Las burlas a su costa retratan más los conocimientos del equipo de redacción del diario que los de el mencionado universitario.

jueves, 18 de octubre de 2007

Riesgos de redes inalámbricas

Investigan los posibles riesgos de las redes inalámbricas

El gobierno británico ha ordenado una amplia investigación de los posibles riesgos que las redes inalámbricas podrían plantear para la salud de millones de escolares y empleados de oficinas.

Durante dos años, la Health Protection Agency (HPA) llevará a cabo pruebas de laboratorio y estudiará los niveles de exposición a las señales inalámbricas en aulas, hogares y oficinas, para elaborar posteriormente un informe de riesgos.

Los temores sobre los posibles riesgos de las redes inalámbricas han llevado a algunos directores de escuelas a ordenar su retirada de las aulas. Y Philip Parkin, secretario general de la Professional Association of Teachers, señaló el mes pasado que se debería suspender su uso en las escuelas hasta que se haya realizado un estudio completo acerca de sus posibles efectos sobre la salud. Sin embargo, miembros de la agencia para la salud han declarado que no existen indicios científicos que sugieran que estas redes puedan ser un peligro para la salud y esperan que los estudios registren unos niveles de exposición "miles de veces por debajo de los límites de seguridad recomendados".

La investigación empezará con modelos informáticos y simulaciones de laboratorio destinados a medir la intensidad de las señales emitidas por los ordenadores y las estaciones de base inalámbricas. Para registrar la exposición en la cabeza y otras partes del cuerpo, se utilizarán maniquíes con medidores de radiación de microondas incorporados.

La investigación se llevará posteriormente a los hogares, oficinas y escuelas. Los investigadores están deseando medir especialmente los niveles de exposición en las aulas, donde decenas de ordenadores pueden estar conectados a una red inalámbrica al mismo tiempo.

Las directrices de seguridad establecidas por la International Commission on Non-Ionising Radiation determinan un límite de exposición de 2 vatios/kg para la cabeza. Las mediciones previas de las señales sugieren unos niveles de energía por lo general 20 veces más débiles que esos, siendo de 0,1 vatios/kg.

Según Michael Clark, portavoz científico de la HPA: "Al igual que la telefonía móvil, las redes Wi-Fi han experimentado una rápida expansión y creemos que debería haber una adecuada base de datos científicos con los verdaderos niveles de exposición, con el fin de poder debatir adecuadamente sobre ellos".

Según Lawrie Challis, presidente del programa Mobile Telecommunications and Health Research (MTHR) responsable de investigar los efectos de los teléfonos móviles sobre la salud, si la exposición de las redes Wi-Fi resulta ser inferior a la de los móviles, no cabe esperar ningún efecto peor para la salud; pero primero es necesario saber cuáles son los niveles reales de exposición y, a continuación, si hay sorpresas con las redes Wi-Fi, pensar qué estudios relacionados con la salud será necesario realizar.

miércoles, 17 de octubre de 2007

Google, líder imbatible de la búsqueda en internet en todo el mundo

El motor de búsqueda Google fue utilizado por el 60% de los 61.000 millones de buscadores en internet en agosto en todo el mundo, según un estudio publicado por la agencia Comscore, que a su vez registra el crecimiento del buscador chino Baidu, por delante de Microsoft.

Unos 754 millones de internautas mayores de 15 años realizaron sus búsquedas en internet en agosto utilizando una o varias palabras clave en los motores de búsqueda, es decir el 95% de los internautas mundiales: a un promedio de 80 búsquedas por persona, lo que se traduce en los 61.000 millones totales, según Comscore.

Los más numerosos se encontraron en Asia (258 millones de internautas que realizaron búsquedas), por delante de los europeos (299,7) y los norteamericanos (206,3). En América del Sur, sólo 50.000 y en Oriente Medio 30.000.

Unos 37.000 millones de búsquedas, sobre el 60% del total, fueron efectuadas en las páginas multilingües del grupo estadounidense Google, donde 5.000 millones son de su filial de vídeos You Tube. Lejos, detrás se ubica el también estadounidense Yahoo!, número dos, utilizado por 8.500 millones de buscadores, siendo el 14% de las demandas. Enseguida viene el sitio chino Baidu -bautizado con el sobrenombre de 'Google chino', que registró 3.300 millones de demandas (5,4% del total).

Luego aparece el líder mundial de software, Microsoft, que con su motor Live Search convocó 2.100 millones de buscadores (3,4%). Es seguido de cerca por el motor coreano Naver (Grupo NHN), con 2.000 millones. Comscore ubica también en su lista el sitio de ventas eBay, que registró 1.300 millones de búsquedas.

El estudio registra únicamente las búsquedas en internet desde el domicilio o el trabajo, excluyendo los lugares públicos tipo cibercafés, lo que disminuye particularmente la cifra de internautas registrados en América del Sur

Google, líder imbatible de la búsqueda en internet en todo el mundo

El motor de búsqueda Google fue utilizado por el 60% de los 61.000 millones de buscadores en internet en agosto en todo el mundo, según un estudio publicado por la agencia Comscore, que a su vez registra el crecimiento del buscador chino Baidu, por delante de Microsoft.

Unos 754 millones de internautas mayores de 15 años realizaron sus búsquedas en internet en agosto utilizando una o varias palabras clave en los motores de búsqueda, es decir el 95% de los internautas mundiales: a un promedio de 80 búsquedas por persona, lo que se traduce en los 61.000 millones totales, según Comscore.

Los más numerosos se encontraron en Asia (258 millones de internautas que realizaron búsquedas), por delante de los europeos (299,7) y los norteamericanos (206,3). En América del Sur, sólo 50.000 y en Oriente Medio 30.000.

Unos 37.000 millones de búsquedas, sobre el 60% del total, fueron efectuadas en las páginas multilingües del grupo estadounidense Google, donde 5.000 millones son de su filial de vídeos You Tube. Lejos, detrás se ubica el también estadounidense Yahoo!, número dos, utilizado por 8.500 millones de buscadores, siendo el 14% de las demandas. Enseguida viene el sitio chino Baidu -bautizado con el sobrenombre de 'Google chino', que registró 3.300 millones de demandas (5,4% del total).

Luego aparece el líder mundial de software, Microsoft, que con su motor Live Search convocó 2.100 millones de buscadores (3,4%). Es seguido de cerca por el motor coreano Naver (Grupo NHN), con 2.000 millones. Comscore ubica también en su lista el sitio de ventas eBay, que registró 1.300 millones de búsquedas.

El estudio registra únicamente las búsquedas en internet desde el domicilio o el trabajo, excluyendo los lugares públicos tipo cibercafés, lo que disminuye particularmente la cifra de internautas registrados en América del Sur

martes, 16 de octubre de 2007

Un test sanguíneo podría predecir el riesgo de Alzheimer

Un grupo de investigadores desarrolló un test sanguíneo simple que podría predecir si los pequeños deslices de memoria son una señal temprana de la enfermedad de Alzheimer.


En un estudio publicado en la revista Nature Medicine, un equipo internacional de científicos describió 18 proteínas que se encuentran en la sangre que predijeron con un 90 por ciento de exactitud si una persona desarrollaría Alzheimer.

Los expertos señalaron que las pruebas para detectar cambios en esas proteínas podrían utilizarse para vaticinar la enfermedad entre dos y seis años antes de que se manifieste y que serían útiles en la búsqueda de tratamientos.

"Esto es muy emocionante", dijo el doctor Tony Wyss-Coray, de la Stanford University y jefe de investigación geriátrica del Sistema de Salud de Asuntos Veteranos de Palo Alto, en California.

"Demostramos que se producen cambios muy interesantes en los pacientes con enfermedad de Alzheimer. Estas modificaciones surgen al comienzo del proceso patológico", expresó Wyss-Coray en una entrevista telefónica.

La enfermedad de Alzheimer es una condición degenerativa progresiva que deteriora la memoria y la capacidad de razonar y de comunicarse de las personas.

Según la Organización Mundial de la Salud (OMS), alrededor de 18 millones de personas de todo el mundo padecen este problema.

Actualmente, los médicos diagnostican la dolencia excluyendo otras causas potenciales de pérdida de memoria, como los accidentes cerebrovasculares (ACV), los tumores y el alcoholismo.

También se usan pruebas de escritura y controles cerebrales, pero el único diagnóstico definitivo es una autopsia.

/Por Julie Steenhuysen/.*.

jueves, 11 de octubre de 2007

Samsung WEP 430 un headset deportivo

Samsung acaba de presentar un nuevo headset bluetooth, el WEP 430 que está orientado a los que hacen deportes y, aunque no entiendo muy bien esa segmentacion de mercado, su distintivo es el aro de goma que “ata” el auricular alrededor de la oreja.

Headset Bluetooth Samsung WEP 430

Aunque la idea no es mala, de hecho eso es algo genial para que el headeset no se te caiga mientras corrés, le veo un detalle bastante molesto ¿van a tener talles? Porque no todas las orejas son iguales y, la verdad, tener un aro de goma que te la aplaste no es muy cómodo…

Por otro lado, el accesorio es bastante completo; dos microfonos para captar mejor tu voz y filtrar los ruidos externos, dos botones de volumen y uno multifunción, conectividad Bluetooth 2.0 y 5 horas completas de talk-time lo que es algo muy recomendable a mirar en las especificaciones porque es el tiempo de conversación real que soporta con una carga de batería.

miércoles, 10 de octubre de 2007

Nokia 7600, móvil 3G con diseño futurista

Nokia ha presentado el 7600, un móvil que combina las capacidades que ofrece la Tercera Generación (3G) de las comunicaciones móviles, con las últimas funcionalidades de imagen, envueltas en una atractiva y futurística apariencia externa.

Nokia 7600
Nokia 7600

Llevando el diseño Nokia a un nuevo nivel, el dispositivo incorpora una pantalla de 65.000 colores que se convierte en auténtico centro de atención del nuevo terminal en su cara frontal. Nokia 7600 permite que el usuario capture fotografías y vídeos, envíe y reciba mensajes multimedia (MMS) y correo electrónico móvil, además de escuchar música.

Con este teléfono, los usuarios pueden beneficiarse de la mayor velocidad de acceso que ofrece la próxima generación de redes móviles, visualizando contenidos de vídeo, en vivo y de alta calidad, directamente desde sus terminales. Con un peso de sólo 123 gramos y unas dimensiones de 87mm x 78mm x 18,6mm, Nokia 7600 es uno de los teléfonos GSM/WCDMA más livianos y pequeños del mundo.

El nuevo Nokia 7600, que opera sobre redes GSM900/1800 y WCDMA (Wideband Code Division Multiple Access), estará disponible en Europa, África, Oriente Medio y el Pacífico Asiático a finales de 2003. La companía finlandesa no ha facilitado aún un precio estimado para este aparato.

Biólogo de EE. UU. logró crear cromosoma artificial



Craig Venter dice que este es un primer paso en la creación de vida artificial

Científico logró copiar y reproducir partes del ADN de una bacteria

Washington. AFP. El afamado biólogo estadounidense Craig Venter logró crear en laboratorio un cromosoma sintético, lo que representa un primer paso en la creación de una forma de vida artificial.

Así lo reveló el propio investigador al diario británico The Guardian.
Imprimir Imprimir Enviar Recomendar
Disminuir Disminuir Aumentar Aumentar

Venter declaró a ese medio que próximamente anunciará los detalles de este descubrimiento en alguna publicación científica.

“Se trata de un paso filosófico importante en la historia de nuestra especie. Estamos pasando de lograr leer el código genético a tener la habilidad de escribirlo. Eso nos da hipotéticamente la posibilidad de hacer cosas jamás imaginadas antes”, añadió el experto.

El cromosoma que Venter y su equipo lograron crear en el laboratorio copia partes esenciales del ADN de una bacteria llamada Mycoplasma genitalium , y fue bautizado por sus creadores como Mycoplasma laboratorium .

En la etapa final del proceso, esta será trasplantada a una célula viva, en donde debería tomar el control, según precisó Venter.

A pesar de las declaraciones del investigador estadounidense, su portavoz, Heather Kowalski, aclaró que aún no se ha logrado materia de vida sintética, como se ha especulado en medios internacionales.

Llamado a la prudencia. Como reacción a esta publicación, el genetista católico italiano Angelo Vescovi afirmó que el biólogo Craig Venter, promotor del genoma humano, no ha descubierto absolutamente nada de nuevo.

“Lo que se ha logrado es un organismo genéticamente modificado de algo que ya existía, no se trata de la creación de un nuevo organismo”, manifestó Vescovi a Radio Vaticano.

Vescovi, quien labora en el Istituto San Raffaele de Milán, subrayó que no comparte la afirmación de que el de Venter sea un descubrimiento que abre nuevas perspectivas para hacer cosas actualmente impensables, como asegura el biólogo estadounidense.

Según el genetista italiano, hay una evolución técnica que es muy interesante, pero insistió en que no se ha descubierto nada nuevo, no hay un cambio de perspectivas.

El genetista manifestó que la biotecnología puede ayudar a la humanidad o destruirla y que por ello aboga por la prudencia.

Japón pone en la órbita lunar un satélite del programa Kaguya

El primero de los dos pequeños satélites que el explorador lunar nipón Kaguya tenía previsto lanzar durante su primera misión espacial orbita ya alrededor de la Luna para obtener información científica, informan hoy los medios japoneses.

La misión principal del Relay, satélite de 50 kilogramos, y de su "hermano", el VRAD, que será lanzado este viernes, es recabar datos sobre los campos magnéticos en la cara oculta de la Luna, explicó la Agencia de Exploración Aeroespacial de Japón (JAXA).

La iniciativa nipona espera resolver "el misterio de cuándo y cómo fue creada la Luna", según indicó JAXA, que cree que sus investigaciones podrán facilitar en un futuro la instalación en el satélite de la tierra de una base humana permanente.

La misión comenzará a funcionar a pleno rendimiento a mediados de diciembre y se prolongará por espacio de un año.

El programa Kaguya ha costado 55.000 millones de yenes (unos 480 millones de dólares), financiados en parte por el gigante nipón Mitsubishi Heavy Industries.

La JAXA asegura que el explorador Kaguya, lanzado el pasado 14 de septiembre con un cohete de fabricación nipona, es la misión a la Luna más completa desde los programas estadounidenses Apolo, desarrollados entre los años 60 y 70.

Una misteriosa estrella muerta

Muy cerca de la Tierra, un equipo de astrónomos descubrió una estrella muerta, extraña y misteriosa.

El cuerpo celeste, bautizado "Calvera", podría ser la octava estrella de neutrones "aislada" descubierta hasta ahora por los científicos.

Fue nombrado en honor del "malo" de la película de vaqueros de los años 60 "Los siete magníficos".

"Una estrella de neutrones es un remanente estelar dejado por una estrella tras explotar.

Las siete estrellas de neutrones descubiertas anteriormente se llamaban 'Los siete magníficos' dentro de la comunidad (científica), así que el nombre Calvera era una especie de chiste interno nuestro", afirmó el coautor del descubrimiento, Derek Fox, de la Pennsylvania State University en Estados Unidos.

El estudio, efectuado por un equipo de investigadores estadounidenses y canadienses, será publicado en la revista especializada Astrophysical Journal.

Sus autores estiman que Calvera está a una distancia de entre 250 y 1.000 años luz, lo que podría convertirla en la estrella de neutrones más cercana a la Tierra.