Teknociencia.es

Teknociencia.es WebSite

Nuevo sistema de fusión nuclear

Consiguen reacciones de fusión con un sistema de confinamiento inercial por láser ayudado por un intenso campo magnético.

Cada veinte años se nos dice que se obtendrá la fusión nuclear controlada en 20 años. La realidad es que la meta de esta energía inagotable y supuestamente limpia es mucho más difícil de lo que se imaginaba.
Como ya todos sabemos, la fusión nuclear no es más que lo que hace el Sol (o las estrellas) en su núcleo, en donde la alta temperatura y presión consiguen que los núcleos de hidrógeno venzan la fuerza repulsiva electrostática mutua y se junten para producir helio y gran cantidad de energía. Así que basta acumular materia hasta cantidades siderales para que la fusión nuclear sea espontánea y se produzca lentamente. El ser humano sólo ha conseguido la fusión nuclear de manera descontrolada cebando una bomba H con una bomba nuclear de fisión.

Continue reading

Add a comment(18 views)




NUEVAS TÉCNICAS DE SOLDADURA

La soldadura es un proceso de fabricación en donde se realiza la unión de dos materiales, (generalmente metales o termoplásticos), usualmente logrado a través de la coalescencia (fusión), en la cual las piezas son soldadas fundiendo ambas y pudiendo agregar un material de relleno fundido (metal o plástico), para conseguir un baño de material fundido (el baño de soldadura) que, al enfriarse, se convierte en una unión fija. A veces la presión es usada conjuntamente con el calor, o por sí misma, para producir la soldadura. Esto está en contraste con la soldadura blanda (en inglés soldering) y la soldadura fuerte (en inglés brazing), que implican el derretimiento de un material de bajo punto de fusión entre piezas de trabajo para formar un enlace entre ellos, sin fundir las piezas de trabajo.

Muchas fuentes de energía diferentes pueden ser usadas para la soldadura, incluyendo una llama de gas, un arco eléctrico, un láser, un rayo de electrones, procesos de fricción o ultrasonido. La energía necesaria para formar la unión entre dos piezas de metal generalmente proviene de un arco eléctrico. La energía para soldaduras de fusión o termoplásticos generalmente proviene del contacto directo con una herramienta o un gas caliente.

Mientras que con frecuencia es un proceso industrial, la soldadura puede ser hecha en muchos ambientes diferentes, incluyendo al aire libre, debajo del agua y en el espacio. Sin importar la localización, sin embargo, la soldadura sigue siendo peligrosa, y se deben tomar precauciones para evitar quemaduras, descarga eléctrica, humos venenosos, y la sobreexposición a la luz ultravioleta.

Hasta el final del siglo XIX, el único proceso de soldadura era la soldadura de fragua, que los herreros han usado por siglos para juntar metales calentándolos y golpeándolos. La soldadura por arco y la soldadura a gas estaban entre los primeros procesos en desarrollarse tardíamente en el siglo, siguiendo poco después la soldadura por resistencia. La tecnología de la soldadura avanzó rápidamente durante el principio del siglo XX mientras que la Primera Guerra Mundial y la Segunda Guerra Mundial condujeron la demanda de métodos de junta confiables y baratos. Después de las guerras, fueron desarrolladas varias técnicas modernas de soldadura, incluyendo métodos manuales como la Soldadura manual de metal por arco, ahora uno de los más populares métodos de soldadura, así como procesos semiautomáticos y automáticos tales como Soldadura GMAW, soldadura de arco sumergido, soldadura de arco con núcleo de fundente y soldadura por electroescoria. Los progresos continuaron con la invención de la soldadura por rayo láser y la soldadura con rayo de electrones a mediados del siglo XX. Hoy en día, la ciencia continúa avanzando. La soldadura robotizada está llegando a ser más corriente en las instalaciones industriales, y los investigadores continúan desarrollando nuevos métodos de soldadura y ganando mayor comprensión de la calidad y las propiedades de la soldadura.

Se dice que es un sistema porque intervienen los elementos propios de este, es decir, las 5 M: mano de obra, materiales, máquinas, medio ambiente y medios escritos (procedimientos). La unión satisfactoria implica que debe pasar las pruebas mecánicas (tensión y doblez). Las técnicas son los diferentes procesos (SMAW, SAW, GTAW, etc.) utilizados para la situación más conveniente y favorable, lo que hace que sea lo más económico, sin dejar de lado la seguridad.

Cursos de Soldadura

Add a comment(344 views)




Seminario de introducción a la Computación y Criptografía Cuántica.

Seminario de introducción a la Computación y Criptografía Cuántica: Supongamos que los bits que utiliza un ordenador se almacenan en estados cuánticos, por ejemplo el estado de un átomo o el de un fotón de luz. ¿Qué cambios se producirían en el procesamiento y la transmisión de la información? En los últimos años una nueva disciplina científica pretende dar respuesta a esta pregunta: la teoría de la información cuántica. A primera vista la diferencia entre información clásica e información cuántica no es grande: mientras un bit puede tomar los valores 0 ó 1 un bit cuántico (qubit) puede tomar esos valores, representados por 0 y 1 , y combinaciones de los mismos, por ejemplo 0 + 1. Sin embargo se han encontrado aplicaciones espectaculares que desafían la comprensión clásica de la teoría de la información: criptografía cuántica, teleportación o algoritmos exponencialmente más rápidos que los algoritmos clásicos.

Video Realizado por el Gabinete de Tele-Educación de la Universidad Politécnica de Madrid.

Lección 1. Modelo de Computación Cuántica
Alfonsa García, Francisco García, Jesús García - 19/05/2014

En esta lección se presenta una introducción al modelo de computación cuántica, incluyendo la forma de representar la información, la forma de medir estados cuánticos y las principales puertas de computación cuántica.

El curso completo se compone de tres lecciones:

Lección 1. Modelo de Computación Cuántica
Lección 2. Criptografía Cuántica: publicación 16/06/2014
Lección 3. Algoritmos Cuánticos: publicación 16/07/2014

Si deseas descargar las diapositivas del curso en formato pdf, o las soluciones a los ejercicios propuestos, puedes hacerlo desde esta dirección del Material de GIEMATIC (Grupo de innovación educativa).

Temario

Apartado 1.1. Introducción histórica.
Apartado 1.2. Representación de la información.
Apartado 1.3. Estados de 2-qubits. Entrelazamiento.
Apartado 1.4. Estados de n-qubits.
Apartado 1.5. Transformación de la información. Puertas cuánticas.
Apartado 1.6. Teorema de no cloning.
Apartado 1.7. Test de autoevaluación.
Apartado 1.8. Referencias bibliográficas y enlaces de interés .

Objetivos

El objetivo de esta lección es presentar una introducción al modelo cuántico de computación y en concreto:

1. Entender cómo usar estados cuánticos para representar la información.
2. Entender los fundamentos del entrelazamiento y del paralelismo cuánticos.
3. Conocer y manejar las puertas cuánticas elementales.

APARTADO 1.1. INTRODUCCIÓN HISTÓRICA

El vertiginoso avance de la computación en las últimas décadas está ligado al uso de transistores cada vez más pequeños y potentes. Pero pronto será imposible acumular más transistores en el mismo espacio, ya que a escala nanométrica las interacciones cuánticas son difíciles de controlar.

La computación cuántica empezó a desarrollarse en la década de los ochenta a raíz de las propuestas de Paul Benioff, David Deutsch y Richard Feynman (ver [3]). En 1982, sugirieron independientemente que, dado el elevado coste computacional del cálculo de la evolución de sistemas cuánticos, la evolución de estos sistemas se podría considerar como una herramienta de cálculo más que como un objeto a calcular. Poco después, en 1985, y también de forma independiente Deutsch propone la búsqueda de un ordenador que sea capaz de simular eficientemente un sistema físico arbitrario [2]. La conjunción de todas estas ideas ha conducido a la concepción actual de ordenador cuántico. img/DIAP_1A.jpg
Cuestionar el sistema de computación clásico, que cuenta con una sólida base teórica y con el aval de infinidad de aplicaciones en todos los ámbitos de la vida cotidiana, sólo tiene sentido si el modelo que se propone como alternativo es potencialmente mejor que el actual. En computación clásica la unidad de información es el bit que puede tomar los valores 0 y 1 pero la unidad de información cuántica es el qubit que puede ser una superposición de 0 y 1. Esto permite codificar una cantidad exponencial de información en el estado de un sistema cuántico de n qubits. De este modo, mientras que la capacidad de un ordenador clásico (de almacenamiento y de cálculo) crece linealmente con respecto a su tamaño, la de un ordenador cuántico crece exponencialmente.

Sin embargo, la medición de estados cuánticos es un inconveniente importante para la computación cuántica, ya que las medidas cuánticas no son deterministas. Esto quiere decir, por ejemplo, que si medimos dos estados iguales los resultados no tienen por qué ser iguales. El proceso de medida es un experimento aleatorio en el que la probabilidad de cada resultado está determinada por el estado del sistema.
En 1994 Peter W. Shor sorprendió a todos presentando sendos algoritmos polinomiales para factorizar números enteros y para calcular logaritmos discretos. Fueron los primeros problemas relevantes en los que se alcanzaba una aceleración exponencial con respecto a los mejores algoritmos clásicos conocidos. El algoritmo de Shor rompe teóricamente el sistema criptográfico más difundido en la actualidad, el sistema RSA. Este hecho contribuyó a su vez al desarrollo de los sistemas criptográficos cuánticos. Las técnicas que se utilizan para garantizar la confidencialidad de los canales cuánticos se apoyan en una propiedad característica de la mecánica cuántica: los estados cuánticos no se pueden copiar (clonar) y se modifican irremediablemente cuando se miden.
Sigue en….http://www.criptored … cion1/leccion01.html

1 comment(298 views)




ESA Euronews: Ecos del Big Bang

Einstein ya predijo que las ondas gravitacionales, una especie de ondas en el espacio-tiempo - tenían que existir. Los descubrimientos en el Polo Sur parecen confirmar su teoría. El anuncio tuvo lugar meses antes de la publicación en otoño de los datos de polarización del satélite Planck de la Agencia Espacial Europea. Tanto BICEP2 como Planck estudiaron la radiación reliquia del Big Bang conocida como fondo cósmico de microondas…

ESA Euronews: Echoes from the Big Bang

Scientists are getting closer than ever to understanding the origins of the Universe. For the first time, they have glimpsed behind the veil that covers the ‘Big Bang’ with the announcement that the Background Imaging of Cosmic Extragalactic Polarisation — BICEP2 — experiment at the South Pole had spotted the footprints of something called primordial gravitational waves. These waves may be a sign that a theory known as cosmic inflation can be confirmed. For those studying the Big Bang — the beginning of the Universe — this is big news.

Add a comment(303 views)




Mercurio ha encogido siete kilómetros

El radio de Mercurio se ha reducido hasta un máximo de 7 km en los últimos 4 mil millones de años, lo que supone entre 0,8 y 3 km más de lo que se pensaba hasta ahora. Así lo recogen las imágenes de las crestas y fallas del planeta captadas por la sonda Messenger.

Investigadores de Estados Unidos han descubierto que el radio de Mercurio ha disminuido hasta 7 km durante los últimos 4 mil millones de años. Según el estudio, que publica Nature Geoscience, esta reducción se debe al enfriamiento y contracción del planeta, que, a su vez, origina la aparición de fallas y crestas alomadas en su corteza.

Mercury in color - Prockter07 centered

Mercurio fotografiado por la sonda MESSENGER

“Mercurio pierde calor hacia el espacio. Este enfriamiento de su núcleo líquido provoca la reducción de su volumen, al igual que es más fácil sacar un anillo de un dedo frío que de uno caliente” aclara a Sinc Paul K. Byrne, principal autor del estudio y científico en la Carnegie Institution of Science.

“Como la superficie de este planeta no está dividida en placas tectónicas como en la Tierra, la única manera de responder a este enfriamiento es empujar partes de su corteza hacia arriba”, añade Byrne.

Hasta ahora los científicos se habían basado en las observaciones que realizó en 1975 la misión espacial Mariner 10. En esa ocasión, la sonda fotografió el 45% de la superficie de Mercurio y determinó su origen volcánico. Además, por su relieve, se confirmó por primera vez que el radio del planeta había disminuido en los últimos millones de años.

[Read More…]

Add a comment(624 views)




Kepler descubre el primer planeta similar a la Tierra en la “zona habitable” de otra estrella

Por medio del Telescopio Espacial Kepler, de la NASA, astrónomos descubrieron el primer planeta de tamaño similar a la Tierra que orbita en la “zona habitable” de otra estrella. El planeta, llamado “Kepler-186f”, orbita una enana M, o enana roja, que es una clase de estrella que conforma el 70 por ciento de las estrellas de la galaxia Vía Láctea. El descubrimiento de Kepler-186f confirma que existen planetas de tamaño similar a la Tierra en la zona habitable de estrellas distintas de nuestro Sol.

La “zona habitable” se define como el rango de distancia que hay de una estrella como para que un planeta en órbita pueda albergar agua líquida sobre la superficie. A pesar de que ya se han encontrado planetas en la zona habitable, los hallazgos previos son al menos un 40 por ciento más grandes que la Tierra y entender su composición constituye todo un desafío. Kepler-186f se parece más a la Tierra.

kepler186f_artistconcept_2

El concepto de un artista muestra a Kepler-186f, el primer planeta que se ha confirmado que tiene un tamaño similar al de la Tierra y que orbita una estrella distante en la zona habitable. Más información, en idioma inglés

Kepler-186f, the first Earth-size Planet in the Habitable Zone

The artist’s concept depicts Kepler-186f , the first validated Earth-size planet to orbit a distant star in the habitable zone—a range of distance from a star where liquid water might pool on the planet’s surface. The discovery of Kepler-186f confirms that Earth-size planets exist in the habitable zones of other stars and signals a significant step closer to finding a world similar to Earth.

The size of Kepler-186f is known to be less than ten percent larger than Earth, but its mass, composition and density are not known. Previous research suggests that a planet the size of Kepler-186f is likely to be rocky. Prior to this discovery, the “record holder” for the most “Earth-like” planet went to Kepler-62f, which is 40 percent larger than the size of Earth and orbits in its star’s habitable zone.

Kepler-186f orbits its star once every 130 days and receives one-third the energy that Earth does from the sun, placing it near the outer edge of the habitable zone. If you could stand on the surface of Kepler-186f, the brightness of its star at high noon would appear as bright as our sun is about an hour before sunset on Earth.

Kepler-186f resides in the Kepler-186 system about 500 light-years from Earth in the constellation Cygnus. The system is also home to four inner planets, seen lined up in orbit around a host star that is half the size and mass of the sun.

The artistic concept of Kepler-186f is the result of scientists and artists collaborating to imagine the appearance of these distant worlds.

> Read more about Kepler-186f

Kepler-186f orbita su estrella enana madre M una vez cada 130 días y recibe un tercio de la energía que obtiene la Tierra del Sol, lo cual lo coloca más cerca del borde externo de la zona habitable. Sobre la superficie de Kepler-186f, el brillo de su estrella al mediodía es apenas como el brillo que apreciamos de nuestro Sol aproximadamente una hora antes de la puesta del Sol.

[Read More…]

Add a comment(690 views)




El telescopio Hubble observa la misteriosa desintegración de un asteroide

El Telescopio Espacial Hubble, de la NASA, registró la desintegración sin precedentes de un asteroide, el cual se dividió en 10 trozos más pequeños. Se han podido observar frágiles cometas, compuestos de hielo y polvo, desintegrándose a medida que se aproximan al Sol, pero nada como esto se ha observado antes en el cinturón de asteroides.

“Esto es una roca, y verla despedazarse ante nuestros ojos es bastante asombroso”, dijo David Jewitt, de la Universidad de California en Los Ángeles, quien dirigió la investigación astronómica forense.

El asteroide en pedazos, denominado P/2013 R3, fue observado por primera vez como un objeto inusual y borroso por los telescopios Catalina y Pan STARRS, el 15 de septiembre de 2013. El 1 de octubre, una observación de seguimiento, la cual se llevó a cabo con el Observatorio W. M. Keck, en la cima de Mauna Kea, un volcán inactivo en la isla de Hawái, reveló tres cuerpos que se movían juntos en una envoltura de polvo con un diámetro cercano al de la Tierra.
asteroid-disintegration_1

 

Esta serie de imágenes proporcionadas por el Telescopio Espacial Hubble, revela la desintegración de un asteroide a lo largo de siete meses, la cual se inició a fines del año 2013. Los fragmentos más grandes miden hasta 180 metros (200 yardas) de radio. Más información (en idioma inglés) En la imagen, la flecha indica la dirección hacia el Sol. Las imágenes fueron registradas en las siguientes fechas: 29 de octubre de 2013, 13 de diciembre de 2013, 15 de noviembre de 2013 y 14 de enero de 2014.

“El Observatorio Keck nos mostró que esto era digno de ver con el telescopio Hubble”, dijo Jewitt. “Con su resolución superior, las observaciones que se realizaron con el telescopio espacial pronto mostraron que había realmente 10 objetos incrustados, cada uno con colas de polvo similares a las de los cometas. Los cuatro fragmentos más grandes de roca miden hasta 400 yardas de diámetro, aproximadamente cuatro veces la longitud de un campo de fútbol”.

[Read More…]

Add a comment(699 views)