text
stringlengths
35
3.53k
Ver por ejemplo: Dekel, A. y Silk, J. El origen de galaxias enanas, materia oscura fria y formación parcial de galaxias Astrophysical Journal, Parte 1 (ISSN 0004-637X), vol.303, 1 de Abril de 1986, p. 39-55. [3] donde modelan los procesos del plasma en la formación de galaxias que está liderado principalmente por la gravedad de la materia oscura fria. 10. Alfvén, H.; Carlqvist, P., "Nubes interstelares y la formación de estrellas" Astrofísica y Ciencia Espacial, vol. 55, no. 2, Mayo 1978, p. 487-509. 11. Alfvén, H., "Capas dobles y circuitos en astrofísica ", (1986) IEEE Transactions on Plasma Science (ISSN 0093-3813), vol. PS-14, Dic. 1986, p. 779-793.
Basado en la conferencia patrocinada por la NASA "Capas Dobles en Astrofísica" (1986) 12.H. Alfvén y C.-G. Falthammar, Cosmic electrodynamics (Clarendon press, Oxford, 1963). H. Alfvén, Worlds-antiworlds: antimatter in cosmology, (Freeman, 1966). O. Klein, "Arguments concerning relativity and cosmology," Science 171 (1971), 339. 13. Hannes Alfvén, "Tiene el Universo un Origen" (1988) Trita-EPP, 1988, 07, p. 6.
Véase también Anthony L. Peratt, "Introducción a la Astrofísica y Cosmología del Plasma" (1995) Astrofísica y Ciencia Espacial, v. 227, p. 3-11: "cuestiona ahora un debate centenario incluyendo la cosmología traditional del plasma rehusa reivindicar cualquier conocimiento sobre un 'origen' del Universo (p.ej., Alfvén, 1988).14. Alfvén, Hannes, "Cosmología: ¿Mito o Ciencia?" (1992) IEEE Transactions on Plasma Science (ISSN 0093-3813), vol. 20, no. 6, p. 590-600. Véase también [4] 15. (Ver IEEE Transactions on Plasma Science, temas en 1986, 1989, 1990, 1992, 2000, 2003 y 2007 2007 aquñi) 16. Ver p.ej. P. J. E. Peebles, Estructura a gran escala del Universo (Princeton, 1980). 17.
Ver, por ejemplo, la simulación a gran escala del Consorcio de Virgo de los "Universos en cajas" con los mayores vacíos alcanzando tales tamaños- Véase también F. Hoyle y M. S. Vogeley, Vacíos en el 2dF galaxy redshift survey, Astrophys.J. 607, 751–764 (2004). 18. Ver p.ej. M. Bartelmann y P. Schneider, Weak gravitational lensing, Phys. Rept. 340 291–472 (2001). 19. P. J. E. Peebles, Principios de Cosmología Física (Princeton, 1993). P. J. E. Peebles, Estructura a gran escala del Universo (Princeton, 1980). 20. M. Tegmark y otros (colaboración SDSS), "Los espectros de potencia tridimensionales de las galaxias desde el Sloan Digital Sky Survey", Astrophysical J. 606 702–740 (2004).
El fallo en los modelos de formación de estructuras alternativos está claramente indicado por la desviación del espectro de potencia de la materia de un power law a escalas mayores de 0.5 h Mpc-1 (visible aquí)."21. 21. J.Audouze y otros', Fotosíntesis del Big Bang y Nucleosíntesis Pregaláctica de Elementos ligeros, Astrophysical Journal 293:L53-L57, 15 de Junio de 1985 [5] 22. Epstein y otros, El origen del deuterio, Nature, Vol. 263, 16 de Septiembre de 1976 señalaron que si los flujos de protones con energías mayores que 500 MeV eran lo suficientemente intensas como para producir los niveles observados de deuterio, también producirían unas 1000 veces más rayos gamma que los que se observan. 23. Ref.
10 en "Modelo Galáctico de la Formación de Elementos" (Lerner, IEEE Trans.Plasma Science Vol. 17, No. 2, Abril 1989 [6]) es J.Audouze y J.Silk, "Síntesis Pregaláctica de Deuterio" en Proc. ESO Workshop en "Helio Primordial", 1983, pp. 71-75 [7] Lerner incluye un párrafo sobre la "Producción de Rayos Gamma" en el que proclama que el nivel esperado de rayos gamma es consistente con las observaciones. No cita ni a Audouze ni a Epstein en este contexto y no explica por qué su resultado contradice los suyos. 24. D. N. Spergel y otros (colaboración WMAP), "Primer año de observaciones WMAP: Determinación de parámetros cosmológicos", Astrophys. J. Suppl. 148 (2003) 175.
Bibliografía H. Alfvén, Mundos-antimundos: antimateria en cosmología, (Freeman, 1966).H. Alfvén, Plasma Cósmico (Reidel, 1981) E. J. Lerner, El Big Bang Nunca Ocurrió, (Vintage, 1992) A. L. Peratt, Física del Universo de Plasma, (Springer, 1992) Enlaces externos Alfvén, Hannes: "Sobre la jerarquía cosmológica", Astrofísica y Ciencia Espacial (ISSN 0004-640X), vol. 89, no. 2, Ene. 1983, p. 313-324. (1983) "Cosmología en el Universo de". (1988) Laser and Particle Beams (ISSN 0263-0346), vol. 6, Ago. 1988, p. 389-398. Texto completo "Modelo del Universo de plasma", IEEE Transactions on Plasma Science (ISSN 0093-3813), vol. PS-14, Dic.
1986, p. 629-638 Texto completo (PDF) Peratt, Anthony: The Universo de Plasma (Website) vista general y coolección de artículos."Evolución del Universo de plasma. I Radiogalaxias dobles, quasars y corrientes extragalácticas", IEEE Transactions on Plasma Science (ISSN 0093-3813), vol. PS-14, Dic. 1986, p. 639-660. Texto completo (PDF) "Evolución del Universo de plasma. II - La formación de sistemas of galaxias", IEEE Transactions on Plasma Science (ISSN 0093-3813), vol. PS-14, Dic. 1986, p. 763-778. Texto completo (PDF) "El papel de los rayos de partículas y corrientes eléctricas en el Universo de plasma", Peratt, Anthony L., Laser y Rayos de Partículas (ISSN 0263-0346), vol. 6, Ago.
1988, p. 471-491 Texto completo (PDF) Wright, E. L. "Errores en "En Big Bang Nunca Ocurrió"".Véase también: Lerner, E. J. "El Dr. Wright está Equivocado". Respuesta de Lerner al anterior. IEEE Xplore, IEEE Transactions en Ciencia del Plama, 18 tema 1 (1990), Tema especial en Cosmología del Plasma incluyendo A. L. Peratt, "Cosmología del Plasma", IEEE T. Plasma Sci. 18, 1-4 (1990). Varios autores: "Introducción a la Asrofísica y Cosmología del Plasma", Astrofísica y Ciencia Espacial, v. 227 (1995) p. 3-11. Proceedings del Segundo Congreso Internacional del IEE en Astrofísica y Cosmología del Plasma, del 10 al 12 de Mayo de 1993 en Princeton, New Jersey Amorfo Se ha sugerido que Criatura amorfa sea fusionado en este artículo o sección.
( Discusión).Una vez que hayas realizado la fusión de artículos, pide la fusión de historiales en WP:TAB/F. Amorfo (del griego, prefijo a, negación, y la palabra morfo, forma) es una de las estructuras que pueden adoptar los materiales en estado sólido. Mientras que los materiales cristalinos y, en menor medida, los semicristalinos presentan un patrón regular y repetitivo de átomos o iones formado de estructuras tridimensionales periódicas, los materiales amorfos no tienen orden de largo alcance o estructura cristalina, es decir, no tienen un ordenamiento periódico. Algunos ejemplos son el vidrio y determinados materiales plásticos.
Amortiguamiento de Landau En Física, el Amortiguamiento de Landau, llamado así debido a que fue descubierto por el físico ruso Lev Davidovich Landau, es el efecto de amortiguamiento (disminución exponencial en función del tiempo) de ondas de Langmuir (ondas electrostáticas longitudinales) en un plasma.Interacción Onda-Partícula El amortiguamiento de Landau ocurre debido al intercambio de energía entre una onda con velocidad de fase vph, y las partículas con velocidad aproximadamente igual a vph, o sea, que están en resonancia con la onda.
Las partículas con velocidad un poco menor que vph serán aceleradas por el campo eléctrico de la onda, es decir, ganarán energía de la onda, mientras que las partículas con velocidad un poco mayor a vph serán desaceleradas por el campo eléctrico, es decir, van a ceder energía a la onda.En un plasma sin colisiones donde la función de distribución de las velocidades de las partículas sea Maxweliana, se observa que el número de partículas que tienen velocidad un poco menor que la onda es mayor que el número de partículas con velocidad un poco mayor que la onda. Esto quiere decir que hay más partículas obteniendo energía de la onda que partículas cediendo energía a la onda, lo que produce el amortecimiento de la onda.
Interpretación Física La demostración matemática del amortecimiento de Landau es bastante compleja y envuelve la evaluación de integrales de contorno, pero existe una interpretación física que, a pesar de no ser exacta, facilita enormemente la visualización de este fenómeno.Podemos imaginar a las ondas de Langmuir como olas en el mar, y las partículas como surfistas, desplazándose en la misma dirección que las olas.
Un surfista que se desplace por el agua a una velocidad un poco menor que las olas eventualmente será empujado por una de ellas (gana energía), mientras que un surfista que se desplace un poco más rápido que una ola (tal vez braceando recostado en su tabla, tratando de alcanzar la ola) va a "empujar" la ola (o sea, transfiere energía).Observese que sólo los surfistas participan en esta interacción de energía con la ola, ya que poseen una velocidad cercana (un poco menor o mayor) a la ola (partículas resonantes). Una pelota flotando en el agua subirá y bajará siguiendo la forma de la ola, sin existir intercambio neto de energía (ni gana ni pierde). Lo mismo ocurre con una lancha desplazándose velozmente por el agua.
Bibliografía Chen, Francis F. Introduction to Plasma Physics and Controlled Fusion, Second Edition, 1984 Plenum Press, New York Amperio-hora (Redirigido desde Amperio.hora) Un amperio hora es una unidad de carga eléctrica y se abrevia como Ah.Indica la cantidad de carga eléctrica que pasa por los terminales de una batería, si ésta proporciona una corriente eléctrica de 1 amperio durante 1 hora.
Contenido 1 Equivalencia con el culombio 2 Los miliamperios hora, y su uso en las baterías 3 Diferencias entre A y Ah 4 Véase también Equivalencia con el culombio La unidad de carga eléctrica del Sistema Internacional es el culombio C: operando un poco: por lo tanto: Los miliamperios hora, y su uso en las baterías En las baterías es normal el uso del miliamperio hora (mAh), que es la milésima parte del Ah, o lo que es lo mismo 3,6 C. Esto indica la máxima carga eléctrica que es capaz de almacenar la batería.A más carga eléctrica almacenada, más tiempo tardará en descargarse.
El tiempo de descarga viene dado por la expresión: Por ejemplo, si una batería posee una carga eléctrica de 1000 mAh (3600 C) y un dispositivo consume 20 mA (72 C/h), la batería tardará 50 horas en descargarse.Si en cambio consumiese 100 mA (360 C/h), la batería tardará solamente 10 horas en descargarse. De la misma forma, se puede hallar el consumo eléctrico de un dispositivo: Si un teléfono móvil con una batería de 800 mAh y tarda 400 horas en descargarse, el consumo del dispositivo es de 2 mA.
Y si 1 A = 1 C/s, entonces 2 mA = 0,002 A = 0,002 C/s: Diferencias entre A y Ah Es importante no confundir ambas medidas, pues son cosas distintas: Ah: unidad de carga eléctrica.A: unidad de corriente eléctrica. Véase también Kilovatio-hora Vatio Amplificación Véase también Amplificación de fracciones La amplificación de un sonido es el proceso de aumentar su amplitud, lo que hace que aumenten también su intensidad ( sonoridad) y su potencia (volumen). La amplificación no actúa directamente sobre la onda sonora , sino que actúa sobre la señal eléctrica en que ha sido transformada (transducción), previamente a que entre en el equipo electrónico para su procesamiento.
A la salida del ( preamplificador o amplificador), cuando la señal sea nuevamente reconvertida en audio, esta modificación (amplificación), afectará la forma de la onda resultante, que habrá aumentado su amplitud y será, por lo tanto, más intensa y potente.Amplificador Un amplificador es todo dispositivo que, mediante la utilización de energía, magnifica la amplitud de un fenómeno. Aunque el término se aplica principalmente al ámbito de los amplificadores electrónicos, también existen otros tipos de amplificadores, como los mecánicos, neumáticos, e hidráulicos, como los gatos mecánicos y los boosters usados en los frenos de potencia de los automóviles .
Tipos de amplificadores Electrónica Amplificador electrónico Amplificador operacional Amplificador con realimentación Amplificador diferencial Amplificador de transconductancia variable Amplificador realimentado en corriente Amplificador de aislamiento Amplificador de instrumentación Amplificador de potencia Física Amplificador de energía Amplificador óptico Amplificador de luz Amplificador de energía El esquema del Amplificador de Energía propuesto por Carlo Rubbia y colaboradores en 1993 [1] está constituido por un acelerador de protones o iones de alta eficiencia (>=40%), que permite la producción de neutrones (por espalación) en combinación con una unidad de producción de energía (compuesta de combustible nuclear y moderador), en donde los neutrones se van a multiplicar debido a las fisiones, a su vez produciendo energía (del orden de 200 MeV por cada fisión).
Esta unidad incluye un sistema de extracción de calor que a la vez se acopla con un sistema de producción de energía eléctrica.Los parámetros del sistema se eligen de tal manera que la energía generada exceda significativamente a la necesaria para el funcionamiento del acelerador. Utilizando una elevada corriente de iones o protones y un medio altamente multiplicativo, este efecto amplificador puede aprovecharse para dar lugar a una importante producción energética, que por medios convencionales puede transformarse en electricidad. [1] F. Carminati, C. Gelés, R. Klapisch, J. P. Revol, Ch. Roche, J. A. Rubio and C. Rubbia, An Energy Amplifier for Cleaner and Inexhaustible Nuclear Energy Production Driven by a Particle Beam Accelerator, CERN/AT/93-47 (ET) (1993).
Amplificador de luz Un Amplificador de luz es un dispositivo que amplifica la luz visible y la luz cercana a la infrarroja de una imagen de modo que se ilumine un escena débil y se puede ver por una cámara fotográfica o por el ojo humano.Los amplificadores de luz no son visibles a simple vista, sino que se encuentran en el interior de cámara amplificadora de luz, de los cuales son el componente principal. Las cámaras amplificadoras de luz muestran una imagen más realista del entorno percibido comparadas con las cámaras infrarrojas, porque las intensidades luminosas de los cuerpos mostrados en pantalla son correspondientes a la intensidad óptica verdadera y no a la temperatura como en el caso de la cámara infrarroja.
Este realismo de imágenes los hace más convenientes para la mayoría de sus usuarios que generalmente no necesitan rastrear un cuerpo por su temperatura, sino por su muy baja iluminación.Contenido 1 Funcionamiento de los amplificadores de luz, de las generaciones 2 y 3 2 Deficiencias de funcionamiento de las generaciones cero y 1 3 Fotosensibilidad 4 MCP 4.1 Mecanismo de proliferación de electrones 5 Etapas evolutivas de los amplificadores de luz 5.1 Generación cero 5.2 Generación 1 5.3 Generación 2 5.4 Generación 3 6 Enlaces externos 7 Véase también Funcionamiento de los amplificadores de luz, de las generaciones 2 y 3 1.
Una porción de la luz, emitida o reflejada por los cuerpos del entorno percibido, atraviesa unos lentes, delante del amplificador, para enfocarla.2. La porción de luz enfocada es absorbida.por un fotocátodo que convierte a los fotones en electrones. 3. Los electrones atraviesan un disco de microcanales ( #MCP) que prolifera el número de electrones. 4. Ese mayor número de electrones viaja hasta una pantalla de fósforo verde, en el extremo posterior del amplificador donde impactan produciendo imágenes luminosas como consecuencia.
Deficiencias de funcionamiento de las generaciones cero y1 Su funcionamiento es parecido al de las generaciones 2 y 3, pero con las siguientes carencias en sus mecanismos: Carecen de #MCP, y como consecuencia, la pantalla muestra imágenes con una distorsión geométrica notable y, las baterías tienen corta duración.Los materiales de sus fotocátodos les proporcionan menos fotosensibilidad a los muy bajos niveles de iluminación comparados con las generaciones 2 y 3; por eso las imágenes del entorno aparecen obscurecidas y necesitan obligatoriamente reflectores con filtro de brillo para alumbrar el entorno sin revelarse a otros observadores de ojos desnudos en la oscuridad. Fotosensibilidad También le llaman sensibilidad del fotocátodo.
Es la habilidad del fotocátodo de producir corrientes eléctricas al absorber luz, se mide con la unidad: Microamperio por lumen (µA/lm).Mientras mayor es la fotosensibilidad, se muestra al entorno con mayor claridad en la pantalla. MCP Su función básica es la de reducir notablemente la distorsión geométrica, como consecuencia aumenta la duración de la batería. La distorsión geométrica es la borrosidad con se muestran las imágenes en la pantalla de fósforo. El MCP es un disco de vidrio cubierto de metal que prolifera los electrones producidos por el fotocátodo. Tiene de 2 a 6 millones de muy pequeños agujeros, llamados canales, distribuidos aleatoriamente en el disco. MCP es la abreviatura de las palabras inglesas Micro Channel Plate.
Mecanismo de proliferación de electrones Cuando uno de los electrones provenientes del fotocátodo entra a uno de los canales, golpea las paredes y libera muchos electrones.Esos electrones liberados también golpean las paredes y liberan más electrones, y se provoca una reacción en cadena que libera una enorme cantidad de electrones de sólo uno que entró. Finalmente. todos estos electrones liberados viajan hacia la pantalla de fósforo para formar las imágenes con mayor nitidez. Etapas evolutivas de los amplificadores de luz Generación cero Creada durante la Segunda Guerra Mundial para proveer a los francotiradores de visión nocturna. La peor #fotosensibilidad (60 µA/lm), debido al material del fotocátodo, el S-1.
La pésima fotosensibilidad hacía que, el reflector fuera indispensable en todo momento.Mucha distorsión geométrica en imágenes. El mayor consumo de electricidad. Uso de baterías grandes y pesadas. La menor duración de baterías. El menor período de vida útil del dispositivo. Como ambas huestes en la Segunda Guerra utilizaban estos dispositivos, el reflector revelaba la posición de un francotirador a un enemigo que usara equipo semejante, y se era blanco fácil de los enemigos. Generación 1 Se empezó a usar durante la Guerra de Vietnam. Es el primer amplificador de luz pasivo, porque en ciertas circunstancias no necesita el reflector para crear imágenes.
Fotosensibilidad mala, pero mejor que la generación cero (180-200 µA/lm), debido al material del fotocátodo, el S-20.El reflector es indispensable, excepto durante noches de luna llena. Las imágenes todavía muestran mucha distorsión geométrica. Consume menos electricidad que la generación cero. Mayor duración de las baterías que la generación cero, alrededor Período de vida útil del dispositivo de 1500 horas. Generación 2 Esta generación y la 3 son las más preferidas en uso. Fotosensibilidad adecuada, y mejor que la generación 1; (240 µA/lm o mayor). El material del fotocátodo es el S-25. Necesita reflector bajo ciertas circunstancias, pero no es tan indispensable para ver.
Primera generación en poseer #MCP, produce imágenes de nitidez adecuada.Mejor rendimiento de la electricidad que las generaciones cero y 1. Porta baterías de menor tamaño, algunos dispositivos pueden usar sólo una de tamaño AA de 1.5 voltios. Las baterías duran mayor tiempo, con algunos dispositivos hasta 40 horas o mayor tiempo. Período de vida útil del dispositivo de 2500 horas. Generación 3 Esta generación es utilizada por los actuales ejércitos, pero también está al alcance de los civiles.
Tiene la misma tecnología de la generación 2, pero con un MCP mejorado y; un nuevo material para el fotocátodo, el arseniuro de galio, que lo hace mucho más sensible a los muy bajos niveles de iluminación, al grado de ser la primera generación en percibir la iluminación que proporcionan las estrellas al entorno.Sus prestaciones son excelentes. La mejor fotosensibilidad; (arriba de 800 µA/lm), sólo si la radiación percibida se encuentra en un rango de longitud de onda de 450 a 950 nm. Generalmente no necesita reflector, porque puede percibir entornos iluminados por la luz de las estrellas, incluso en una noche nublada. Pero sí sería necesario únicamente en tinieblas.
Las imágenes son muy nítidas, porque la distorsión geométrica es casi imperceptible para el ojo humano.El mismo rendimiento de la energía eléctrica que la generación 2 o mejor. La misma duración de baterías que la generación 2. También hay algunos dispositivos que utilizan una sola batería de tamaño AA de 1.5 voltios. Es menos ruidoso. Deslumbra menos en ambientes urbanos. Período de vida útil del dispositivo de 10 000 horas. Es más costoso que las anteriores generaciones. Enlaces externos Enlaces relacionados con el tema del artículo: [1] (Enlace roto. Disponible en Internet Archive el historial y la última versión.)
Véase también Efecto fotoeléctrico Amplificador Tubo de vacío Amplificador de potencia Una de las funcionalidades más importantes de un transistor es la de amplificar señales.Los reguladores de potencia más sencillos son lineales. Existen dos tipos de circuitos integrados (CI) aptos para esta función: los amplificadores lineales y los reguladores de tensión lineales.
Los transistores bipolares de potencia se pueden emplear tanto en aplicaciones lineales como en conmutación, aunque son más lentos y sensibles al fenómeno de la segunda ruptura, el cual es el resultado de una distribución no uniforme de la corriente en la unión base-colector (polarizada inversamente durante conducción) del transistor de salida, provocando un aumento de la temperatura en aquella zona que puede destruir el dispositivo; y que es distinto de la ruptura primaria por avalancha.Como la ganancia de corriente de los BJT es pequeña, normalmente se los emplea en configuración Darlington. El montaje más típico del transistor bipolar como amplificador de potencia, es el de emisor común (EC).
Contenido 1 Recta de carga para señal 2 Límites para la excursión de señal 3 Funcionamiento en Clase A 4 Limitación de potencia para un transistor 5 Véase también Recta de carga para señal Un amplificador en EC tiene dos rectas de carga: una para continua y otra para señal.Las rectas de carga serán diferentes siempre que la resistencia para señal del colector sea distinta de la resistencia para continua del colector. Las rectas de carga pasan por el punto de trabajo para continua (punto Q). Por ese motivo ICQ (Intensidad de Corriente en Colector)y VCEQ (diferencia de potencial entre el Colector y el Emisor)son muy importantes en el funcionamiento con señales grandes.
La recta de carga para señal tiene una mayor pendiente que la recta de carga para continua si la resistencia de colector para señal es menor que la resistencia de colector para continua.Límites para la excursión de señal Cuando la señal es grande, puede producirse un recorte en uno o en los dos semiciclos. Si el punto Q se haya en el centro de la recta de carga para continua, se produce primero el recorte de ICQrc. Si el punto Q se encuentra por encima del centro de la recta de carga para continua, se puede producir primero el recorte de VCEQ (máxima variación hacia la izquierda), o bien de ICQrc (máxima variación hacia la derecha). Depende de cual de los valores sea menor.
Funcionamiento en Clase A El funcionamiento en clase A se produce cuando el transistor conduce durante todo el ciclo de señal sin entrar en saturación o en corte.El rendimiento del amplificador se define como la potencia de señal en la carga dividida por la potencia entregada por la fuente de alimentación, todo multiplicado por 100. El rendimiento de un amplificador clase A es pequeño, en general muy por debajo del 25%. (visita las paginas web de transistorespipolares). Limitación de potencia para un transistor La temperatura en la unión del transistor limita la potencia que un transistor puede disipar sin que se destruya. La temperatura del encapsulado se halla entre la temperatura de la unión y la temperatura ambiente.
Los disipadores de calor permiten que el calor escape con mayor facilidad de un transistor, lo que hace que disminuya la temperatura de la unión.Véase también Etapa de potencia Amplificador óptico En fibra óptica, un amplificador óptico es un dispositivo que amplifica una señal óptica directamente, sin la necesidad de convertir la señal al dominio eléctrico, amplificar en eléctrico y volver a pasar a óptico. Contenido 1 Amplificadores de fibra dopada 1.1 Amplificador de fibra dopada con Erbio (EDFA) 2 Amplificador óptico de semiconductor (Semiconductor optical amplifier, SOA) 3 Amplificadores Raman Amplificadores de fibra dopada Amplificadores en fibra son amplificadores ópticos que usan fibra dopada, normalmente con tierras raras.
Estos amplificadores necesitan de un bombeo externo con un láser de onda continua a una frecuencia óptica ligeramente superior a la que amplifican.Típicamente, las longitudes de onda de bombeo son 980 nm o 1480 nm y para obtener los mejores resultados en cuanto a ruido se refiere, debe realizarse en la misma dirección que la señal. Un amplificador óptico es capaz de amplificar un conjunto de longitudes de onda (WDM, wavelength division multiplexing) Amplificador de fibra dopada con Erbio (EDFA) El amplificador de fibra dopada más común es el EDFA (del inglés, Erbium Doped Fiber Amplifier) que se basa en el dopaje con Erbio de una fibra óptica.
Algunas características típicas de los EDFAs comerciales son: Frecuencia de operación: bandas C y L (approx.de 1530 a 1605 nm). Para el funcionamiento en banda S (below 1480 nm) son necesarios otros dopantes.
Baja figura de ruido (típicamente entre 3-6 dB) Ganancia entre (15-40 dB) Baja sensibilidad al estado de polarización de la luz de entrada Máxima potencia de salida: 14 - 25 dBm Ganancia interna: 25 - 50 dB Variación de la ganancia: +/- 0,5 dB Longitud de fibra dopada: 10 - 60 m para EDFAs de banda C y 50 - 300 m para los de banda L Número de láseres de bombeo: 1 - 6 Longitud de onda de bombeo: 980 nm o 1480 nm2 Ruido predominante: ASE (Amplified Spontaneous Emission) Amplificador óptico de semiconductor (Semiconductor optical amplifier, SOA) Los amplificadores ópticos de semiconductor tienen una estructura similar a un láser Fabry-Perot salvo por la presencia de un antireflectante en los extremos.
El antireflectante incluye un antireflection coating y una guía de onda cortada en ángulo para evitar que la estructura se comporte como un láser.El amplificador óptico de semiconductor suele ser de pequeño tamaño y el bombeo se implementa de forma eléctrica. Podría ser menos caro que un EDFA y puede ser integrado con otros dispositivos (láseres, moduladores...). Sin embargo, en la actualidad, las prestaciones no son tan buenas como las que presentan los EDFAs. Los SOAs presentan mayor factor de ruido, menos ganancia, son sensibles a la polarización, son muy no lineales cuando se operan a elevadas velocidades... Su elevada no-linealidad hacen atractivos los SOAs para aplicaciones de procesado como la conmutación todo óptica o la conversión de longitud de onda.
También se está estudiando su uso para implementar puertas lógicas.Amplificadores Raman Estos dispositivos se basan en amplificar la señal óptica mediante el efecto Raman. A diferencia de los EDFAs y de los SOAs, los amplificadores Raman se basan en un una interacción no lineal entre la señal óptica y la señal de bombeo de alta potencia. De esta forma, la fibra convencional ya instalada puede ser usada como medio con ganancia para la amplificación Raman. Sin embargo, es mejor emplear fibras especialmente diseñadas (fibra altamente no lineal) en las que se introducen dopantes y se reduce el núcleo de la fibra para incrementar su no linealidad.
La señal de bombeo se puede acoplar a la fibra tanto en la misma dirección en la que se transmite la señal (bombeo codireccional) o en el sentido contrario (bombeo contradireccional).Es más habitual el bombeo contradireccional para evitar la amplificación de las componentes no lineales. El máximo de ganancia se consigue 13 THz (unos 100 nm) por debajo de la longitud de onda de bombeo. Para obtener una buena amplificación es necesario usar potencias de bombeo elevadas (de hasta 1 W y hasta 1,2 W para amplificación en banda L en fibra monomodo estándar). Normalmente se emplean más de dos diodos de bombeo. El nivel de ruido que se obtiene es bajo especialmente cuando se usa junto con EDFAs.
Amplitud (física) En física la amplitud de un movimiento oscilatorio, ondulatorio o señal electromagnética es una medida de la variación máxima del desplazamiento u otra magnitud física que varía periódica o cuasiperiódicamente en el tiempo.Contenido 1 Amplitud de una onda 2 Amplitud en acústica 2.1 Atenuación del sonido 3 Unidades de la amplitud Amplitud de una onda Una perturbación física que se propaga en el espacio como una onda armónica puede modelizarse matemáticamente como una magnitud física cuyo valor varía con el tiempo y de un punto a otro del espacio según una ecuación del tipo: Donde es la velocidad de propagación de la perturbación.
Para una onda plana que se propaga en dirección x la solución de la ecuación anterior es: Y en ese caso la amplitud se define como: Usualmente la intensidad de una onda es una magnitud proporcional al promedio del cuadrado de la amplitud: Para una onda periódica de período T: Amplitud en acústica En acústica la amplitud normalmente se mide en decibelios SPL (dBSPL): Los decibelios representan la relación entre dos señales y se basa en un logaritmo de base 10 del cociente entre dos amplitudes sonoras o presiones.Las siglas SPL hacen referencia a la presión sonora (Sound Pressure Level). Si una onda sonora que ocasiona una sobrepresión máxima a su paso por un punto del espacio, su amplitud medida en decibelios SPL es: Donde es la presión sonora de referencia.
Atenuación del sonido Las ondas van "debilitándose en amplitud" conforme van alejándose de su punto de origen: es lo que se conoce como atenuación de la onda.Aunque la amplitud de las ondas decrece, su longitud de onda y su frecuencia permanecen invariables, ya que éstas dependen sólo del foco emisor. La disminución de amplitud de una onda sonora se debe a dos razones: La ampliación del frente de onda, que da lugar a una disminución de la amplitud viene cuantificada por la Ley cuadrática inversa. La absorción de la vibración, que es un proceso disipativo por el cual parte de la potencia sonora es absorbida por algún material que sea un aislante acústico.
Unidades de la amplitud Las unidades de la amplitud dependen del fenómeno: En corriente alterna es usual usar la amplitud cuadrática media medida en voltios o amperios, según el aspecto de dicha corriente que se esté estudiando.En una onda electromagnética la amplitud está relacionada con la raíz cuadrada de la intensidad radiante y resulta estar relacionada con el campo eléctrico de dicha onda. En una onda luminosa importa además de la intensidad radiante la intensidad luminosa que usualmente se mide en candelas. En una onda sonora la amplitud es la sobrepresión atmosférica y por tanto las unidades para la amplitud de una onda sonora pueden ser el pascal, el milibar o cualquier otra unidad de presión.
Para una onda mecánica o una vibración la amplitud es un desplazamiento y tiene unidades de longitud.Análisis dimensional El análisis dimensional es una poderosa herramienta que permite simplificar el estudio de cualquier fenómeno en el que estén involucradas muchas magnitudes físicas en forma de variables independientes. Su resultado fundamental, el teorema de Vaschy-Buckingham (más conocido por teorema ) permite cambiar el conjunto original de parámetros de entrada dimensionales de un problema físico por otro conjunto de parámetros de entrada adimensionales más reducido. Estos parámetros adimensionales se obtienen mediante combinaciones adecuadas de los parámetros dimensionales y no son únicos, aunque sí lo es el número mínimo necesario para estudiar cada sistema.
De este modo, al obtener uno de estos conjuntos de tamaño mínimo se consigue: analizar con mayor facilidad el sistema objeto de estudio reducir drásticamente el número de ensayos que debe realizarse para averiguar el comportamiento o respuesta del sistema.El análisis dimensional es la base de los ensayos con maquetas a escala reducida utilizados en muchas ramas de la ingeniería, tales como la aeronáutica, la automoción o la ingeniería civil.
A partir de dichos ensayos se obtiene información sobre lo que ocurre en el fenómeno a escala real cuando existe semejanza física entre el fenómeno real y el ensayo, gracias a que los resultados obtenidos en una maqueta a escala son válidos para el modelo a tamaño real si los números adimensionales que se toman como variables independientes para la experimentación tienen el mismo valor en la maqueta y en el modelo real.Finalmente, el análisis dimensional también es una herramienta útil para detectar errores en los cálculos científicos e ingenieriles. Con este fin se comprueba la congruencia de las unidades empleadas en los cálculos, prestando especial atención a las unidades de los resultados.
Contenido 1 Procedimiento para el análisis dimensional 2 Aplicaciones del Análisis dimensional 3 Véase también 4 Enlaces externos Procedimiento para el análisis dimensional Para reducir un problema dimensional a otro adimensional con menos parámetros, se siguen los siguientes pasos generales: 1.Contar el número de variables dimensionales n. 2. Contar el número de unidades básicas (longitud, tiempo, masa, temperatura, etc.) m 3. Determinar el número de grupos adimensionales. El número de grupos o números adimensionales ()es n m. 4.
Hacer que cada número dependa de n - m variables fijas y que cada uno dependa además de una de las n - m variables restantes (se recomienda que las variables fijas sean una del fluido o medio, una geométrica y otra cinemática; ello para asegurar que los números adimensionales hallados tengan en cuenta todos los datos del problema).5. Cada se pone como un producto de las variables que lo determinan elevadas cada una a una potencia desconocida. Para garantizar adimensionalidad deben hallarse todos los valores de los exponentes tal que se cancelen todas las dimensiones implicadas. 6. El número que contenga la variable que se desea determinar se pone como función de los demás números adimensionales. 7.
En caso de trabajar con un modelo a escala, éste debe tener todos sus números adimensionales iguales a las del prototipo para asegurar similitud.8. 8. Se determina la dependencia de los distintos números adimensionales por medio de la experimentación. Aplicaciones del Análisis dimensional Detección de errores de cálculo. Resolución de problemas cuya solución directa conlleva dificultades matemáticas insalvables. Creación y estudio de modelos reducidos. Consideraciones sobre la influencia de posibles cambios en los modelos.ect Véase también Magnitudes adimensionales Magnitudes físicas Modelo físico Principio de Fourier Teorema de Vaschy-Buckingham Enlaces externos Homogeneidad dimensional. El teorema Pi.
(pdf) El Teorema Pi y la modelación (pdf) Recopilación de tablas de unidades y conversiones (pdf) Análisis Dimensional: ¿es mejor caminar o correr bajo la lluvia?Plantilla:Lien BA Análisis dinámico Una varilla elástica birando puede modelizarse como una viga en voladizo mediante análisis dinámico, usando la matriz de rigidez de un barra recta y la matriz de masa correspondiente.El análisis dinámico comprende el análisis de las fuerzas, desplazamientos, velocidades y aceleraciones que aparecen en una estructura o mecanismo como resultado de los desplazamientos y deformaciones que aparecen en la estructura o mecanismo.
Gran parte de estos análisis pueden ser simplificados al reducir el mecanismo o estructura a un sistema lineal, con lo que es posible aplicar el principio de superposición para trabajar con casos simplificados del mecanismo.Contenido 1 Análisis dinámico de mecanismos 1.1 Método directo o de Newton 1.2 Método de d'Alembert 2 Análisis dinámico de estructuras 2.1 Análisis dinámico de pórticos planos 3 Véase también Análisis dinámico de mecanismos El análisis dinámico de mecanismos tiene por objeto determinar el movimiento de un mecanismo, las fuerzas y los esfuerzos internos que aparecen sobre cada uno de sus elementos en cada posición de funcionamiento.
Método directo o de Newton Este método analiza una mecanismo considerando cada uno de sus partes rígidas como un sólido rígido perfecto, y plantea un sistema de ecuaciones diferenciales de movimiento directamente basadas en las leyes de Newton, que en general resulta complejo y dificil de integrar ya que raramente la elección de coordenadas y referencias respetará las simetrías útiles del problema.
Una variación trivial de este método es escribir introducir coordenadas angulares, para poder escribir algunas de las ecuaciones del movimientos en términos de momentos de fuerzas, así las ecuaciones básicas usadas en el método directo son: Método de d'Alembert Este método usa el Principio de d'Alembert que es una extensión de la segunda ley de Newton que tiene en cuenta las ligaduras existentes entre diversos elementos.El uso de este método en lugar del método directo simplifica notablemente las ecuaciones. Análisis dinámico de estructuras El análisis dinámico de estructuras se refiere al análisis de las pequeñas oscilaciones o vibraciones que puede sufrir una estructura alrededor de su posición de equilibrio.
El análisis dinámico es importante porque ese movimiento oscilatorio produce una modificación de las tensiones y deformaciones existentes, que deben tenerse en cuenta por ejemplo para lograr un diseño sísmico adecuado.Como resultado de una perturbación exterior un edificio o estructura resistente que bajo la acción de unas cargas estaba en reposo, experimenta oscilaciones que en primera aproximación pueden representarse como un movimiento armónico compuesto, caracterizado por un sistema de ecuaciones lineal del tipo: Donde: son respectivamente la matriz de masas, la matriz de amortiguación y la matriz de rigidez de la estructura. son tres vectores que representan la posición, velocidad y aceleración de un conjunto de puntos de la estructura.
es un vector que representa las fuerzas equivalentes aplicadas sobre el mismo conjunto de puntos anteriores, este vector está asociado a la solicitación exterior que perturba la misma estructura.El análisis dinámico incluye estudiar y modelizar al menos estos tres aspectos: Análisis modal de frecuencias y modos propios de vibración. Tanto las frecuencias naturales de vibración de una estructura como los modos principales de vibración dependen exclusivamente de la geometría, los materiales y la configuración de un edificio o estructura resistente. Análisis de la solicitación exterior. Análisis de las fuerzas dinámicas inducidas.
Análisis dinámico de pórticos planos El análisis de pórticos planos formados por barras rectas de sección constante puede llevarse a cabo generalizando las ecuaciones del método matricial, incorporando además de matrices de rigidez, matrices de masa.Las frecuencias y modos propios de oscilación de un pórtico plano pueden determinarse a partir de las soluciones de la ecuación: La anterior ecuación es un polinomio de grado N en ², que tiene precisamente N soluciones reales.
Véase también Dinámica André-Marie Ampère André-Marie Ampère André-Marie Ampère (Poleymieux-au-Mont-d'Or, 20 de enero de 1775 - † Marsella, 10 de junio de 1836), fue un matemático y físico francés, generalmente considerado como uno de los descubridores del electromagnetismo.Es conocido por sus importantes aportaciones al estudio de la corriente eléctrica y el magnetismo, que constituyeron, junto con los trabajos del danés Hans Chistian Oesterd, al desarrollo del electromagnetismo. Sus teorías e interpretaciones sobre la relación entre electricidad y magnetismo se publicaron en 1822, en su Colección de observaciones sobre electrodinámica y en 1826, en su Teoría de los fenómenos electrodinámicos.
Ampere descubrió las leyes que hacen posible el desvío de una aguja magnética por una corriente eléctrica, lo que hizo posible el funcionamiento de los actuales aparatos de medida.Descubrió las acciones mutuas entre corrientes eléctricas, al demostrar que dos conductores paralelos por los que circula una corriente en el mismo sentido, se atraen, mientras que si los sentidos de la corriente son opuestos, se repelen. La unidad de intensidad de corriente eléctrica, el amperio, recibe este nombre en su honor. [1] Desde niño demostró ser un genio. Siendo muy joven empezó a leer y a los doce años iba a consultar los libros de matemáticas de la biblioteca de Lyon.
Como la mayoría de los textos estaban en latín, aprendió esa lengua en unas pocas semanas.A los dieciocho años, la muerte de su padre, a manos de los revolucionarios franceses, le causó tanto pesar que durante mucho tiempo no pudo seguir investigando. A partir de 1809 comenzó su exitosa carrera: fue nombrado profesor de la Escuela Politécnica de París, en 1814 fue elegido miembro de la Academia de Ciencias de Francia, y en 1819, profesor de Filosofía en la Facultad de Letras de París. Murió en Marsella y fue enterrado en el cementerio de Montmartre, París. Su hijo Jean-Jacques fue un importante historiador de la literatura y viajero y se cuenta entre los precursores de la Literatura Comparada. Referencias 1.
Biografía de André-Marie Ampére Astrocosmo Chile.[15-5-2008] Veáse también Electricidad Historia de la electricidad Enlaces externos Ampère y la historia de la electricidad, sitio web el CNRS (en francés) Wikimedia Commons alberga contenido multimedia sobre André-Marie Ampère.Commons Ángulo Un ángulo positivo de 45º Ángulo de 1º Se denomina ángulo, en el plano, a la porción de éste comprendida entre dos semirrectas que tienen un origen común denominado vértice. Coloquialmente, ángulo es la figura formada por dos rayos con origen común. Así, un ángulo determina una superficie abierta (subconjunto abierto de puntos del plano), al estar definido por dos semirrectas, denominándose medida del ángulo a la amplitud de estas semirrectas.
Contenido 1 Definiciones clásicas 2 Las unidades de medida de ángulos 3 Clasificación de ángulos planos 3.1 Ángulo agudo 3.2 Ángulo recto 3.3 Ángulo obtuso 3.4 Ángulo llano o plano 3.5 Ángulo cóncavo o reflejo 3.6 Ángulo completo o perigonal 4 Ángulos relacionados 5 Ángulos de un polígono 6 Ángulos respecto de una circunferencia 7 Problema clásico: la trisección del ángulo 8 Ángulos tridimensionales 8.1 Coordenadas angulares tridimensionales 9 Ángulos en el espacio vectorial 10 Véase también 11 Enlaces externos Definiciones clásicas Euclides define un ángulo como la inclinación mutua de dos líneas que se encuentran una a otra en un plano y no están en línea recta.
Según Proclus un ángulo debe ser una calidad o una cantidad, o una relación.El primer concepto fue utilizado por Eudemus, que describió un ángulo como desviación de una línea recta; el segundo por Carpus de Antioch, que lo vio como el intervalo o el espacio entre las líneas que se intersecaban; Euclides adoptó un tercer concepto, aunque sus definiciones de ángulos rectos, agudos, y obtusos son cuantitativas. Las unidades de medida de ángulos Transportador de ángulos.
Las unidades utilizadas para la medida de los ángulos del plano son: Radián (usado oficialmente en el sistema internacional de unidades) Grado centesimal Grado sexagesimal Los ángulos se pueden medir mediante utensilios tales como el goniómetro, el cuadrante, el sextante, la ballestina, el transportador de ángulos o semicírculo graduado, etc.Clasificación de ángulos planos Ángulo agudo Ángulo recto Ángulo agudo Es el ángulo formado por dos semirrectas con amplitud mayor de 0 rad y menor de rad (mayor de 0º y menor de 90º). Al punto de inicio o de encuentro, se le llama vértice. Ángulo recto Un ángulo recto es de amplitud igual a rad (equivalente a 90º).
Los dos lados de un ángulo recto son perpendiculares entre sí.La proyección ortogonal de uno sobre otro es un punto, que coincide con el vértice. Ángulo obtuso Ángulo llano Ángulo obtuso Un ángulo obtuso es aquel cuya amplitud es mayor a y menor a rad (mayor a 90º y menor a 180º). Ángulo llano o plano rad El ángulo llano tiene una amplitud de 180º).
rad (equivalente a Ángulo cóncavo Ángulo completo Ángulo cóncavo o reflejo El ángulo cóncavo, externo o reflejo, es el que mide más de rad y menos de rad (esto es, más de 180º y menos de 360°) Ángulo completo o perigonal Un ángulo completo o perigonal, tiene una amplitud de rad (equivalente a 360º) Ángulos relacionados En función de su posición, se denominan: ángulos adyacentes, los que tienen un vértice y un lado común, pero no tienen ningún punto interior común, ángulos consecutivos, los que tienen un lado y el vértice común, ángulos opuestos por el vértice, aquellos cuyos lados son semirrectas opuestas.
En función de su amplitud, se denominan: ángulos congruentes, aquellos que tienen la misma amplitud, ángulos complementarios, aquellos cuya suma de medidas es /2 radianes o 90º, ángulos suplementarios, aquellos cuya suma de medidas es radianes o 180º, ángulos conjugados, aquellos cuyas medidas suman 2 radianes o 360º.Ángulos de un polígono En función de su posición, se denominan: ángulo interior o interno de un polígono, es el formado por lados adyacentes, interiormente, ángulo exterior o externo de un polígono, es el conformado por un lado y la prolongación del adyacente. Ángulos respecto de una circunferencia Ángulos en la circunferencia.
Arco capaz: los cuatro ángulos inscritos determinan el mismo arco y por tanto son iguales.Un ángulo, respecto de una circunferencia, pueden ser: Ángulo central, si tiene su vértice en el centro de ésta. La amplitud de un ángulo central es igual a la del arco que abarca. Ángulo inscrito, si su vértice es un punto de la circunferencia y sus lados la cortan en dos puntos. La amplitud de un ángulo inscrito es la mitad de la del arco que abarca. (Véase: arco capaz.) Ángulo semi-inscrito, si su vértice está sobre ésta, uno de sus lados la corta y el otro es tangente, siendo el punto de tangencia el propio vértice.
La amplitud de un ángulo semi-inscrito es la mitad de la del arco que abarca.Ángulo interior, si su vértice está en el interior de la circunferencia. La amplitud de un ángulo interior es la mitad de la suma de dos medidas: la del arco que abarcan sus lados más la del arco que abarcan sus prolongaciones; Ángulo exterior, si tiene su vértice en el exterior de ésta. La amplitud de un ángulo exterior es la mitad de la diferencia de los dos arcos que abarcan sus lados sobre dicha circunferencia. Problema clásico: la trisección del ángulo La trisección del ángulo, problema clásico, consistente en intentar dividirlo en tres partes iguales usando sólo regla y compás.
Ángulos tridimensionales El ángulo diedro, es cada una de las dos partes del espacio delimitadas por dos semiplanos que parten de una recta común, El ángulo sólido, es la zona del espacio delimitada por una superficie cónica.Coordenadas angulares tridimensionales Los ángulos de Euler, son tres coordenadas angulares que indican la orientación de un sistema de referencia de ejes ortogonales, normalmente móvil, respecto a otro fijo. Ángulos en el espacio vectorial Dado un espacio vectorial, cuyo cuerpo es el conjunto de los números reales y en el que existe un producto escalar entre vectores, se define el ángulo formado por dos vectores no nulos por la expresión: Si el cociente anterior es 0, se dice que ambos vectores son ortogonales.
Véase también Trigonometría Goniometría Circunferencia Circulo Enlaces externos Wikimedia Commons alberga contenido multimedia sobre ángulos.Commons Ángulos de Euler Este artículo trata de los ángulos de Euler de la teoría matemática de rotaciones.Para el uso de la palabra en aeronautica ver ángulos de navegación Imagen estereoscópica de los ángulos de Euler Los ángulos de Euler constituyen un conjunto de tres coordenadas angulares que sirven para especificar la orientación de un sistema de referencia de ejes ortogonales, normalmente móvil, respecto a otro sistema de referencia de ejes ortogonales normalmente fijos.
Fueron introducidos por Leonhard Euler en mecánica del sólido rígido para describir la orientación de un sistema de referencia solidario con un sólido rígido en movimiento.
Contenido 1 Definición 2 Relación con los movimientos de rotación 2.1 Rotaciones de Euler 2.2 Otros sistemas de rotaciones equivalentes 3 Matrices de rotación 4 Ángulos de Tait-Bryan 5 Enlaces externos Definición Dos sistemas ortogonales en el que se muestran los ángulos de Euler Dados dos sistemas de coordenadas xyz y XYZ con origen común, es posible especificar la posición de un sistema en términos del otro usando tres ángulos (, , ) de tres maneras equivalentes, como sigue: La definición es Estática, de acuerdo con el esquema adjunto: es el ángulo entre el eje x y la línea de nodos.
es el ángulo entre el eje z y el eje Z. es el ángulo entre la línea de nodos y el eje X.La intersección de los planos coordenados xy y XY se llama línea de nodos. Relación con los movimientos de rotación Rotaciones de Euler Son los movimientos resultantes de variar uno de los ángulos de Euler dejando fijos los otros dos. Tienen nombres particulares: Precesión Nutación Rotación intrínseca Otros sistemas de rotaciones equivalentes Con unas condiciones iniciales determinadas, los ángulos de Euler son equivalentes a una composición de rotaciones Ejes de rotación fijos Sean los sistemas XYZ y xyz idénticos inicialmente. Rotar el sistema XYZ alrededor del eje z en ; el sistema xyz no se mueve.
Rotarlo alrededor del eje x por .Rotarlo respecto al eje z por . (Note que el primero y el tercer ejes son idénticos.) Moviendo ejes de rotación Empezar con el sistema XYZ igual al sistema xyz. Rotar el sistema XYZ respecto al eje Z en ; el sistema xyz no se mueve. Rotarlo respecto al ahora rotado eje X por . Rotarlo ahora respecto al doblemente rotado eje Z por . (Nota que los ángulos están en orden inverso.) Estos tres ángulos , , son los ángulos de Euler. La equivalencia de estas tres definiciones se verifica abajo. Algunos autores denominan a los ángulos de Euler (, , ) como (, , ) Matrices de rotación Soporte cardán mostrando ángulos de Euler.
El marco externo y el eje externo 'x' no se muestran.Los ejes Y son perpendiculares a cada anillo Basándonos en la relación entre los ángulos de Euler y el movimiento de los soportes de Cardano, podemos ver que todo sistema de coordenadas puede describirse con los tres ángulos de Euler.
Si llamamos a la matriz de rotación tridimensional que representa la transformación de coordenadas desde el sistema fijo al sistema móvil, el teorema de Euler sobre rotaciones tridimensionales, afirma que existe una descomposición única en términos de los tres ángulos de Euler: La velocidad angular de un sólido rígido expresada en términos de los ángulos de Euler viene dada por: Ángulos de Tait-Bryan Artículo principal: Ángulos de navegación Muchas veces en ingeniería aeronautica se utiliza el nombre de ángulos de Euler para hablar de los ángulos intrínsecos, que en geometría se conocen como ángulos de Tait-Bryan (por el matemático escocés Peter Guthrie Tait) A diferencia de los ángulos de Euler, los ángulos intrínsecos definen una rotación de forma única alrededor de cada uno de los ejes intrínsecos del objeto.
Sin embargo, como ambas son formas de expresar la orientación de un cuerpo, existe una relación entre ellos; pudiéndose expresar unos en función de otros mediante una matriz de tranformación.Para transformar rotaciones de Euler en rotaciones intrínsecas esta matriz viene dada como: [M]= [1, 0, -sin(tita); 0, cos(fi), cos(tita)*sen(fi);0, -sen(tita), cos(tita)*cos(fi)] Se denominan: "rolido" alrededor del eje X, "cabeceo" alrededor del eje Y, y "guiñada" alrededor del eje Z, pero suelen usarse también sus correspondientes nombres en inglés: "Roll", "Pitch" y "Yaw".
Esta forma de describir el movimiento se aplica fundamentalmente en ingeniería aeroespacial debido a la facilidad que representa expresar las ecuaciones de movimiento en coordenadas intrínsecas.Algunas veces se los suele llamar incorrectamente "Ángulos de Euler", creando confusión con la terminología usada en matemática. Enlaces externos Wikimedia Commons alberga contenido multimedia sobre Ángulos de Euler.Commons MathWorld page - some detailed discussion of various conventions Ángulo sólido El ángulo sólido es la zona del espacio limitada por una superficie cónica, o el ángulo espacial que un objeto abarca, visto desde un punto dado, que mide el tamaño aparente de ese objeto.
Para calcular el ángulo sólido de un superficie, se proyecta el objeto sobre una esfera de radio conocido.Dicho en términos simples, el ángulo sólido mide el "trozo de cielo" que "ocupa" un objeto. La unidad del ángulo sólido en el SI es el estereorradián, cuya abreviatura es sr. Es la amplitud del casquete esférico de una esfera de radio unidad, abarcado por un cono cuyo vértice está en el centro, siendo esta superficie (un radián al cuadrado). Es una magnitud adimensional y se indica con la letra griega . La ecuación dimensional del ángulo sólido, al igual que la del ángulo plano es 1.
Para calcular el ángulo sólido bajo el cual se ve un objeto desde un punto, se proyecta el objeto sobre una esfera de radio conocido, centrada en el punto de vista.Si la superficie de la proyección del objeto sobre la esfera es , el ángulo sólido bajo el cual se ve el objeto es, por definición: Ejemplos Casquete esférico con ángulo aparente . El ángulo sólido bajo el cual se ve un objeto depende, tanto de las dimensiones del objeto como de la distancia a la cual está. Así, el ángulo sólido bajo el cual se ve una moneda de un céntimo de euro a 1,80 m, la Luna o el Sol, es muy parecido ( sr) a pesar de la enorme diferencia de dimensiones.
Una hoja de papel normalizado A4 (210 x 297 mm), vista desde un punto centrado situado a 216 mm de la hoja se ve bajo un ángulo sólido de 1 sr, aproximadamente.El ángulo sólido bajo el cual se ve un casquete esférico cuyo diámetro abarca es Desde un diedro rectángulo se ve bajo un ángulo sólido de sr (una esquina interior de una habitación). Desde un triedro rectángulo se ve bajo un ángulo sólido de sr (una habitación vista del vértice del formado por una esquina y el techo).
La bóveda celeste abarca medio universo, es decir, un ángulo sólido sr. Desde cualquier punto en el espacio, el universo ocupa un ángulo sólido de sr. Véase también Estereorradián Radián Casquete esférico Anillos de Newton El fenómeno de los anillos de Newton, llamado así por Isaac Newton, es un patrón de interferencia causado por la reflexión de la luz entre dos superficies, una curva y la otra plana.Con una luz monocromática el patrón se observa como una serie de anillos concéntricos que alternan entre negro y blanco, estos anillos tienen su centro en el punto de contacto entre las dos superficies.
Cuando se coloca la luz blanca se forma un patrón de anillos concéntricos con los colores del arcoiris.Esto, porque los rayos de distinta longitud de onda que componen la luz blanca hacen interferencia en grosores distintos del aire entre el lente y la superficie plana. Los anillos blancos son formados por interferencia constructiva entre las luces reflejadas de ambas superficies, mientras que los anillos negros son causados por interferencia destructiva. Como la pendiente de la superficie del lente aumenta a medida que nos alejamos del punto de contacto, los anillos son cada vez menos separados a medida que se alejan del centro.
Si nos alejamos de un anillo oscuro a otro, por ejemplo, aumenta la diferencia de trayectoria en una cantidad , longitud de onda, correspondiendo con el mismo incremento del grosor del nivel del aire /2.La ecuación para el radio del m-ésimo anillo de Newton es: donde R es el radio de la curvatura del lente por el que pasa la luz, m es 0,1,2,3... que depende del anillo (primero, segundo, etc. ), es la lngitud de onda de la luz que pasa. De la ecuación se deduce que para poder observar los anillos de newton, es necesario que el radio de la superficie curva sea muy grande, o mejor dicho, que dicha superficie sea casi plana, puesto que la longitud de onda de la luz visible es del orden de los nanometros.
De ahí que el fenómeno pueda apreciarse juntando dos placas planas transparentes, y presionando una sobre la otra con una punta; de esa manera si la placa sobre la que se ejerce la presión es delgada se deformará adquiriendo la ligera curvatura necesaria y suficiente para poder ver los anillos de Newton.Este fenómeno fue descrito por primera vez por Robert Hooke en su libro Micrographia aunque su nombre deriva del físico Isaac Newton, quien fue el primero en analizarlo.
Aniquilación partícula-antipartícula (Redirigido desde Aniquilación positrón-electrón) En física, la aniquilación partícula-antipartícula se refiere al encuentro de una partícula material con su respectiva antipartícula, en el que toda la masa de ambas partículas se transforma en energía y/o otras partículas.Descripción Esquema de una aniquilación electrón-positrón Si una partícula y su antipartícula se encuentran en los estados cuánticos apropiados, entonces pueden aniquilarse la una a la otra y producir energía u otras partículas. Aniquilación Positrón-Electrón La reacción e+ + e+ se conoce como aniquilación positrón-electrón.
Consite en la conversión total de la masa de un electrón y un positrón en energía, es la forma más observada de aniquilación partícula-antipartícula.Puesto que la aniquilación de pares es un proceso fruto de la interacción electromagnética la energía siempre se emitirá en forma de rayos gamma. Si las partículas se mueven a velocidades mucho menores que la de la luz o se encuestán en reposo, se producirán 2 fotones emitidos en la misma dirección pero con sentidos opuestos, cada uno con una energía de 0.511 MeV, lo que coincide con las masas en reposo del electrón y del positrón. Normalmente ambas partículas formarán previamente un estado ligado conocido como positronio el cual es inestable y termina siempre con la aniquilación.
Si las partículas chocan a velocidades cercanas a las de la luz estas se aniquilarán al vuelo sin formar un estado metaestable previo.Los fotones resultantes podrán formar ángulos distintos de 180º en sus trayectorias de salida y serán más energéticos, pudiendo, incluso, generar pares de partículas de masas mayores a las del electrón y el positrón. Este hecho es usado en los aceleradores de partículas, donde estas particulas son aniquiladas con sus respectivas antipartículas. El aspecto del registro de una secuencia de aniquilaciones, creaciones y decaimientos, lo que hace que se le de a esta secuencia el nombre de cascada.
Usualmente lo que ocurre, tal y como se observa en la figura, es que el positrón antes de aniquilarse se va frenando con el medio hasta que su energía es suficientemente baja como para que sea capturado por un electrón para formar positronio.Así la aniquilación en vuelo es rara en la práctica y la mayor parte de fotones saldrán en sentidos opuestos y exactamente con 511 keV de energía cada uno.
La aniquilación de un par electrón-positrón en un solo fotón: e+ + e- no puede ocurrir, ya que se viola el principio de conservación de la energía y del momento, la reacción inversa es también imposible debido a la misma razón; sin embargo este fenómeno se observa en la naturaleza, en donde se puede crear un par electrón-positrón a partir de un solo fotón con una energía de al menos la masa de ambas partículas (1.022 MeV).Lo cierto, es que según la teoría cuántica de campos este proceso está permitido como un estado cuántico intermedio para tiempos suficientemente cortos en los que la violación de la conservación de la energía puede acomodarse al principio de incertidumbre de Heisenberg.
Esto abre la vía para la producción de pares virtuales o su aniquilación donde el estado cuántico de una sola partícula puede fluctuar en un estado cuántico de dos partículas y volver a su estado inicial.Estos procesos son importantes en el estado de vacío y la renormalización de una teoría cuántica de campos. También abre el camino para una mezcla de partículas neutras a través de procesos como el mostrado aquí, que es un ejemplo complicado de la renormalización de la masa. La aniquilación de positrones es utilizada por los dispositivos de diagnóstico médico PET para generar imágenes tridimensionales de ciertas regiones del cuerpo.
Véase también Antimateria Positronio Teoría cuántica de campos Anisotropía Una lámpara de plasma, mostrando las características anisótropas de los plasmas, en este caso, el fenómeno de "filamentación" La anisotropía (opuesta de isotropía) es la propiedad general de la materia según la cual determinadas propiedades físicas, tales como: elasticidad, temperatura, conductividad, velocidad de propagación de la luz, etc.varían según la dirección en que son examinadas. Algo anisótropo podrá presentar diferentes características según la dirección.
Anisotropía de sólidos La anisotropía de los materiales es más acusada en los sólidos cristalinos, en los que se evidencia una relación directa con la estructura atómica y molecular del cuerpo en cuestión.Propiedades anisótropas Conductividad (térmica, electrónica, iónica...) Elasticidad y resistencia crecimiento cristalino dilatación térmica pleocromismo Magnetismo Anomalía (física) En física, la palabra anomalía se utiliza para describir una simetría clásica i.e. una simetría del lagrangiano rota por efectos cuánticos, generalmente en teorías cuánticas de campos. Las anomalías en teorías de gauge tienen conexiones importantes con la topología y la geometría.
Aunque las anomalías se pueden considerar un efecto de corta-distancia, (ultravioleta) que se presentan porque algunas integrales divergentes en el UV no pueden ser regularizadas de un modo tal que todas las simetrías sean simultaneamente preservadas, hay también un efecto (IR) infrarrojo porque el carácter de estas divergencias es determinado puramente por la física de bajas energías (largas distancias) (las partículas y los campos sin masa).En el modelo estándar, las anomalías de gauge se cancelan, y la cancelación se da solamente una vez que tanto quarks como leptones sean incluidos. Las anomalías en simetrías de gauge deben ser canceladas-la anomalía total debe anularse- si la teoría es consistente.
La prueba de la cancelación de la anomalía en la teoría de cuerdas tipo I (que usa el mecanismo Green-Schwarz) encendió la primera revolución de supercuerdas en teoría de cuerdas.Las anomalías en simetrías globales no hacen la teoría inconsistente, pero tienen consecuencias físicas importantes. Ejemplos anomalía consistente anomalía covariante anomalía conforme anomalía quiral anomalía gravitacional anomalía de gauge anomalía mezclada anomalía global Anomalía de Schottky La anomalía de Schottky en las medidas de calor específico se encuentra en materiales con niveles de energía de espín. A bajas temperaturas, los materiales cristalinos presentan una dependencia de la capacidad calorífica aproximadamente proporcional al cubo de la temperatura.