jueves, 3 de junio de 2010
Circuitos
Se denomina circuito eléctrico a una serie de elementos o componentes eléctricos o electrónicos, tales como resistencias, inductancias, condensadores, fuentes, y/o dispositivos electrónicos semiconductores, conectados eléctricamente entre sí con el propósito de generar, transportar o modificar señales electrónicas o eléctricas. En la figura podemos ver un circuito eléctrico, sencillo pero completo, al tener las partes fundamentales:
Una fuente de energía eléctrica, en este caso la pila o batería.
Una aplicación, en este caso una lámpara incandescente.
Unos elementos de control o de maniobra, el interruptor.
Un instrumento de medida, el Amperímetro, que mide la intensidad de corriente.
El cableado y conexiones que completan el circuito.
Un circuito eléctrico tiene que tener estas partes, o ser parte de ellas.
Clasificación [editar]
Circuito abierto.
Circuito cerrado.
Los circuitos eléctricos se clasifican de la siguiente forma:
Por el tipo de señal:
De corriente continua
De corriente alterna
Mixtos
Por el tipo de régimen:
Periódico
Transitorio
Permanente
Por el tipo de componentes:
Eléctricos: Resistivos, inductivos, capacitivos y mixtos
Electrónicos: digitales, analógicos y mixtos
Por su configuración:
Serie
Paralelo
Mixto
Partes de un circuito [editar]
Figura 1: circuito ejemplo.Para analizar un circuito deben de conocerse los nombres de los elementos que lo forman. A continuación se indican los nombres más comunes, tomando como ejemplo el circuito mostrado en la figura 1.
Conductor: hilo de resistencia despreciable (idealmente cero) que une eléctricamente dos o más elementos.
Generador o fuente: elemento que produce electricidad. En el circuito de la figura 1 hay tres fuentes, una de intensidad, I, y dos de tensión, E1 y E2.
Nodo: punto de un circuito donde concurren varios conductores distintos. En la figura 1 se pueden ver cuatro nodos: A, B, D y E. Obsérvese que C no se ha tenido en cuenta ya que es el mismo nodo A al no existir entre ellos diferencia de potencial (VA - VC = 0).
Rama: conjunto de todos los elementos de un circuito comprendidos entre dos nodos consecutivos. En la figura 1 se hallan siete ramales: AB por la fuente, AB por R1, AD, AE, BD, BE y DE. Obviamente, por un ramal sólo puede circular una corriente.
Circuito analógico [editar]Artículo principal: Circuito analógico
Muchas de las aplicaciones electrónicas analógicas, como los receptores de radio, se fabrican como un conjunto de unos cuantos circuitos más simples. Seguidamente se indican algunos ejemplos.
Multiplicador analógico
Amplificador electrónico
Filtro analógico
Oscilador electrónico
Lazo de seguimiento de fase
Temporizador
Conversor de potencia
Fuente de alimentación
Adaptador de impedancia
Amplificador operacional
Comparador
Mezclador electrónico
Circuito digital [editar]Artículo principal: Circuito digital
Las computadoras, los relojes electrónicos o los controladores lógicos programables, usados para controlar procesos industriales, son ejemplos de dispositivos que se fabrican con circuitos digitales.
La estructura de los circuitos digitales no difieren mucho de los analógicos pero su diferencia fundamental es que trabajan con señales discretas con dos únicos valores posibles. Seguidamente se indican varios ejemplos de bloques básicos y familias lógicas.
Bloques:
Puerta lógica
Biestable
Contador
Registro
Multiplexor
Disparador Schmitt
Dispositivos integrados:
Microprocesador
Microcontrolador
DSP
FPGA
Familias Lógicas:
RTL
DTL
TTL
CMOS
ECL
Circuitos de señal mixta [editar]Artículo principal: Circuitos de señal mixta
Este tipo de circuitos, también conocidos como circuitos híbridos, contienen componentes analógicos y digitales, y se están haciendo cada vez más comunes. Los conversores analógico-digital y los conversores digital-analógico son los principales ejemplos.
Circuitos de corriente continua [editar]
Figura 2: circuitos divisores de tensión, a), y de intensidad, b).En este punto se describirán los principales circuitos en corriente continua así como su análisis, esto es, el cálculo de las intensidades, tensiones o potencias.
Divisor de tensión [editar]Dos o más resistencias conectadas en serie forman un divisor de tensión. De acuerdo con la segunda ley de Kirchhoff o ley de las mallas, la tensión total es suma de las tensiones parciales en cada resistencia, por lo que seleccionando valores adecuados de las mismas, se puede dividir una tensión en los valores más pequeños que se deseen. La tensión Vi en bornes de la resistencia Ri, en un divisor de tensión de n resistencias cuya tensión total es V, viene dada por:
En el caso particular de un divisor de dos resistencias (figura 2 a), es posible determinar las tensiones en bornes de cada resistencia, VAB y VBC, en función de la tensión total, VAC, sin tener que calcular previamente la intensidad. Para ello se utilizan las siguientes ecuaciones de fácil deducción:
Este caso es el que se presenta, por ejemplo, a la hora de ampliar la escala de un voltímetro, donde R1 sería la resistencia de la bobina voltimétrica y R2 la resistencia de ampliación de escala.
Divisor de intensidad [editar]Dos o más resistencias conectadas en paralelo forman un divisor de intensidad. De acuerdo con la primera ley de Kirchhoff o ley de los nudos, la corriente que entra en un nudo es igual a la suma de las corrientes que salen. Seleccionando valores adecuados de resistencias se puede dividir una corriente en los valores más pequeños que se deseen.
En el caso particular de un divisor de dos resistencias (figura 2 b), es posible determinar las corrientes parciales que circulan por cada resistencia, I1 e I2, en función de la corriente total, I, sin tener que calcular previamente la caída de tensión en la asociación. Para ello se utilizan las siguientes ecuaciones de fácil deducción:
Este caso es el que se presenta, por ejemplo, a la hora de ampliar la escala de un amperímetro, donde R1 sería la resistencia de la bobina amperimétrica y R2 la resistencia shunt.
Red con fuente única [editar]
Figura 3: ejemplo de circuito resistivo de fuente única.Se trata de una red de resistencias alimentadas con una sola fuente (figura 3). Para su análisis se seguirán, en general, los siguientes pasos:
Se calcula la resistencia equivalente de la asociación.
Se calcula la intensidad, I, que suministra la fuente,
Se calculan las intensidades y tensiones parciales.
A modo de ejemplo de lo expuesto, se analizará el circuito de la figura 3 su poniendo los siguientes valores:
Resolución [editar]1. Sea RABC la resistencia equivalente de la rama superior del circuito
Y denominando Re a la resistencia equivalente:
2. A partir de la ley de Ohm se determina la intensidad, I, que proporciona la fuente:
3. A partir de la ley de Ohm:
R3 y R4 forman un divisor de intensidad para I1, por lo tanto
Red general [editar]
Figura 4: ejemplo de red general: circuito de dos mallas.En el caso más general, el circuito podrá tener más de una fuente. El análisis clásico de este tipo de redes se realiza obteniendo, a partir de las leyes de Kirchhoff, un sistema de ecuaciones donde las incógitas serán las corrientes que circulan por cada rama. En general, el proceso a seguir será el siguiente:
Se dibujan y nombran de modo arbitrario las corrientes que circulan por cada rama.
Se obtiene un sistema de tantas ecuaciones como intensidades haya. Las ecuaciones se obtendrán a partir de:
Se aplica la primera ley tantas veces como nudos haya menos uno.
Se aplica la segunda ley a todas las mallas.
Como ejemplo, se analizará el circuito de la figura 4 considerando los siguientes valores:
Resolución [editar]Se consideran las intensidades dibujadas en el circuito.
En el nudo A se cumple:
Y sumando las tensiones en ambas mallas (vea como determinar la polaridad de la caída de tensión de una resistencia en d. d. p.):
Dados los valores conocidos, tenemmos:
Ordenando las ecuaciones se obtiene el siguiente sistema
Cuyas soluciones son:
donde el valor negativo de I3 indica que la corriente circula en dirección contraria a como se ha dibujado en el circuito.
En análisis de circuitos se puede observar el método de las mallas que no simplifica el análisis de circuitos de este tipo.
Balance de potencias [editar]
Figura 5: Balance de potencias.Por balance de potencias de un circuito eléctrico se entiende la comprobación de que la suma algebraica de las potencias que generan o "absorben" las fuentes es igual a la suma de potencias que disipan los elementos pasivos. Para ello es necesario analizar previamente el circuito, esto es, determinar las corrientes que circulan por cada una de sus ramas así como las caídas de tensión en bornes de las fuentes de intensidad si las hubiere. Como ejemplo, se realizará el balance de potencias del circuito de la figura 5 considerando los siguientes valores:
Resolución [editar]Aplicando la primera ley de Kirchhoff al nudo A y la segunda a la malla de la izquierda, se obtiene:
Operando se obtiene:
y la tensión en bornes de la fuente de intensidad
Terminado el análisis, se realiza el balance de potencias cuyos resultados se presentan en la siguiente tabla.
Elementos activos Elementos pasivos
Circuitos serie RL y RC [editar]
Figura 6: Circuitos serie RL (superior) y RC (inferior) en CC.
Figura 7: Comportamiento de los circuitos serie RL y RC en CC.Los circuitos serie RL y RC (figura 6) tienen un comportamiento similar en cuanto a su respuesta en corriente y en tensión, respectivamente.
Al cerrar el interruptor S en el circuito serie RL, la bobina crea una fuerza electromotriz (f.e.m.) que se opone a la corriente que circula por el circuito, denominada por ello fuerza contraelectromotriz. Como consecuencia de ello, en el mismo instante de cerrar el interruptor (t0 en la figura 7) la intensidad será nula e irá aumentando exponencialmente hasta alcanzar su valor máximo, Io = E / R (de t0 a t1). Si a continuación, en el mismo instante de abrir S (t2 en la figura 7) se hará corto circuito en la red RL, el valor de Io no desaparecería instantáneamente, sino que iría disminuyendo de forma exponencial hasta hacerse cero (de t2 a t3).
Por otro lado, en el circuito serie RC, al cerrar el interruptor S (t0 en la figura 7), el condensador comienza a cargarse, aumentando su tensión exponencialmente hasta alcanzar su valor máximo E0 (de t0 a t1), que coincide con el valor de la f.e.m. E de la fuente. Si a continuación, en el mismo instante de abrir S (t2 en la figura 7) se hará corto circuito en la red RC, el valor de Eo no desaparecería instantáneamente, sino que iría disminuyendo de forma exponencial hasta hacerse cero (de t2 a t3).
En ambos circuitos se da por lo tanto dos tipos de régimen de funcionamiento (figura 7):
Transitorio: desde t0 a t1 (carga) y desde t2 a t3 (descarga)
Permanente: desde t1 a t2
La duración del régimen transitorio depende, en cada circuito, de los valores de la resistencia, R, la capacidad, C, del condensador y de la autoinductancia, L de la bobina. El valor de esta duración se suele tomar como 5τ, donde τ es la denominada constante de tiempo, siendo su valor en cada circuito:
Si R está en ohmios, C en faradios y L en henrios, τ estará en segundos.
Matemáticamente se pueden obtener las ecuaciones en régimen transitorio de cada circuito que se muestran en la siguiente tabla:
Carga en RL Descarga en RL Carga en RC Descarga en RC
Circuitos de corriente alterna [editar]En el presente apartado se verán las caraterísticas de los circuitos básicos de CA senoidal que están formados por los componentes eléctricos fundamentales: resistencia, bobina y condensador (ver previamente su comportamiento en DC). En cuanto a su análisis, todo lo visto en los circuitos de corriente continua es válido para los de alterna con la salvedad que habrá que operar con números complejos en lugar de con reales. Además se deberán tener en cuenta las siguientes condiciones:
Todas las fuentes deben ser sinusoidales y tener la misma frecuencia o pulsación.
Debe estar en régimen estacionario, es decir, una vez que los fenómenos transitorios que se producen a la conexión del circuito se hayan atenuado completamente.
Todos los componentes del circuito deben ser lineales, o trabajar en un régimen tal que puedan considerarse como lineales. Los circuitos con diodos están excluidos y los resultados con inductores con núcleo ferromagnético serán solo aproximaciones.
Circuito serie RL [editar]
Figura 8: circuito serie RL (a) y diagrama fasorial (b).Supongamos que por el circuito de la figura 8a circula una corriente
Como VR está en fase y VL adelantada 90º respecto a dicha corriente, se tendrá:
Sumando fasorialmente ambas tensiones obtendremos la total V:
donde, y de acuerdo con el diagrama fasorial de la figura 8b, V es el módulo de la tensión total:
y φ el águlo que forman los fasores tensión total y corriente (ángulo de desfase):
Archivo:Triángulo impedancia bobina.PNG
Figura 9: triángulo de impedancias de un circuito serie RL.La expresión representa la oposición que ofrece el circuito al paso de la corriente alterna, a la que se denomina impedancia y se representa Z:
En forma polar
con lo que la impedancia puede considerarse como una magnitud compleja, cuyo valor, de acuerdo con el triángulo de la figura 9, es:
Obsérvese que la parte real resulta ser la componente resistiva y la parte imaginaria la inductiva.
Circuito serie RC [editar]
Figura 10: Circuito serie RC (a) y diagrama fasorial (b).Supongamos que por el circuito de la figura 10a circula una corriente
Como VR está en fase y VC retrasada 90º respecto a dicha corriente, se tendrá:
Archivo:Triángulo impedancia condensador.PNG
Figura 11: Triángulo de impedancias de un circuito serie RC.La tensión total V será igual a la suma fasorial de ambas tensiones,
Y de acuerdo con su diagrama fasorial (figura 10b) se tiene:
Al igual que en el apartado anterior la expresión es el módulo de la impedancia, ya que
lo que significa que la impedancia es una magnitud compleja cuyo valor, según el triángulo de la figura 11, es:
Obsérvese que la parte real resulta ser la componente resistiva y la parte imaginaria, ahora con signo negativo, la capacitiva.
Circuito serie RLC [editar]
Figura 12: Circuito serie RLC (a) y diagrama fasorial (b).Razonado de modo similar en el circuito serie RLC de la figura 12 llegaremos a la conclusión de que la impedancia Z tiene un valor de
siendo φ
En el diagrama se ha supuesto que el circuito era inductivo (), pero en general se pueden dar los siguientes casos:
: circuito inductivo, la intensidad queda retrasada respecto de la tensión (caso de la figura 12, donde φ es el ángulo de desfase).
: circuito capacitivo, la intensidad queda adelantada respecto de la tensión.
: circuito resistivo, la intensidad queda en fase con la tensión (en este caso se dice que hay resonancia).
Circuito serie general [editar]
Figura 13: asociaciones de impedancias: a) serie, b) paralelo y c) impedancia equivalente.Sean n impedancias en serie como las mostradas en la figura 13a, a las que se le aplica una tensión alterna V entre los terminales A y B lo que originará una corriente I. De acuerdo con la ley de Ohm:
donde es la impedancia equivalente de la asociación (figura 13c), esto es, aquella que conectada la misma tensión lterna, , demanda la misma intensidad, . Del mismo modo que para una asociación serie de resistencias, se puede demostrar que
lo que implica
y
Circuito paralelo general [editar]Del mismo modo que en el apartado anterior, consideremos "n" impedancias en paralelo como las mostradas en la figura 13b, a las que se le aplica una tensión alterna "V" entre los terminales A y B lo que originará una corriente "I". De acuerdo con la ley de Ohm:
y del mismo modo que para una asociación paralelo de resistencias, se puede demostrar que
Para facilitar el cálculo en el análisis de circuitos de este tipo, se suele trabajar con admitancias en lugar de con impedancias.
Naturtaleza de la luz
La óptica es la parte de la física que estudia la luzy los fenómenos relacionados con ella, y su estudio comienza cuando el hombre intenta explicarse el fenómeno de la visión.
Diferentes teorías se han ido desarrollando para interpretar la naturaleza de la luz hasta llegar al conocimiento actual. Las primeras aportaciones conocidas son las de Lepucio (450 a.C.) perteneciente a la escuela atomista, que consideraban que los cuerpos eran focos que desprendían imágenes, algo así como halos oscuros, que eran captados por los ojos y de éstos pasaban al alma, que los interpretaba.
Los partidarios de la escuela pitagórica afirmaban justamente lo contrario: no eran los objetos los focos emisores, sino los ojos. Su máximo representante fue Apuleyo (400 a.C.); haciendo un símil con el sentido del tacto, suponían que el ojo palpaba los objetos mediante una fuerzainvisible a modo de tentáculo, y al explorar los objetos determinaba sus dimensiones y color.
Dentro de la misma escuela, Euclides (300 a.C.) introdujo el concepto de rayo de luz emitido por el ojo, que se propagaba en línea recta hasta alcanzar el objeto.
Pasarían nada mas que trece siglos antes de que el árabe Ajasen Basora (965-1039) opinara que la luz era un proyectil que provenía del Sol, rebotaba en los objetos y de éstos al ojo.
¿Qué es la luz?. Los sabios de todas las épocas han tratado de responder a esta pregunta. Los griegos suponían que la luz emanaba de los objetos, y era algo así como un "espectro" de los mismos, extraordinariamente sutil, que al llegar al ojo del observador le permitía verlo.
De esta manera los griegos y los egipcios se abocaron a la solución de estos problemas sin encontrar respuestas adecuadas. Posteriormente en la Europa del S. XV al XVII, con los avances realizados por la ciencia y la técnica, surgieron muchos matemáticos y filósofos que produjeron importantes trabajos sobre la luz y los fenómenos luminosos.
Es Newton el que formula la primera hipótesis seria sobre la naturaleza de la luz.
2. Modelo corpuscular.
Se la conoce como teoríacorpuscular o de la emisión. A finales del siglo XVI, con el uso de lentes e instrumentos ópticos, empezaran a experimentarse los fenómenos luminosos, siendo el holandés Willebrord Snell, en 1620, quién descubrió experimentalmente la ley de la refracción, aunque no fue conocida hasta que, en 1638, René Descartes(1596-1650) publicó su tratado: Óptica. Descartes fue el primer gran defensor de la teoría corpuscular, diciendo que la luz se comportaba como un proyectil que se propulsaba a velocidad infinita, sin especificar absolutamente nada sobre su naturaleza, pero rechazando que cierta materia fuera de los objetos al ojo.
Explicó claramente la reflexión, pero tuvo alguna dificultad con la refracción.
Según Newton, las fuentes luminosas emiten corpúsculos muy livianos que se desplazan a gran velocidad y en línea recta. Podemos fijar ya la idea de que esta teoría además de concebir la propagación de la luz por medio de corpúsculos, también sienta el principio de que los rayos se desplazan en forma rectilínea.
Como toda teoría física es válida en tanto y en cuanto pueda explicar los fenómenos conocidos hasta el momento, en forma satisfactoria.
Newton explicó que la variación de intensidad de la fuente luminosa es proporcional a la cantidad de corpúsculos que emite en determinado tiempo.
La reflexión de la luz consiste en la incidencia de dichos corpúsculos en forma oblicua en una superficie espejada, de manera que al llegar a ella varía de dirección pero siempre en el mismo medio.
La igualdaddel ángulo de incidencia con el de reflexión se debe a la circunstancia de que tanto antes como después de la reflexión los corpúsculos conservan la misma velocidad (debido a que permanece en el mismo medio).
La refracción la resolvió expresando que los corpúsculos que inciden oblicuamente en una superficie de separación de dos medios de distinta densidad son atraídos por la masa del medio más denso y, por lo tanto, aumenta la componente de la velocidad que es la velocidad que es perpendicular a la superficie de separación, razón por la cual los corpúsculos luminosos se acercan a la normal.
El fenómeno de la birrefrigencia del espato de Islandia descubierto por el danés Bartholinus en 1669, quiso ser justificado por Newton suponiendo que los corpúsculos del rayo podían ser rectangulares y sus propiedades variar según su orientación respecto a la dirección de la propagación.
Según lo expresado por Newton, la velocidad de la luz aumentaría en los medios de mayor densidad, lo cual contradice los resultados de los experimentos realizados años después.
Esta explicación, contradictoria con los resultados experimentales sobre la velocidad de la luz en medios más densos que el vacío, obligó al abandono de la teoría corpuscular.
3. Modelo ondulatorio.
Propugnada por Christian Huygens en el año 1678, describe y explica lo que hoy se considera como leyes de reflexión y refracción. Define a la luz como un movimiento ondulatorio semejante al que se produce con el sonido.
Propuso el modelo ondulatorio, en el que se defendía que la luz no era mas que una perturbación ondulatoria, parecida al sonido, y de tipo mecánico pues necesitaba un medio material para propagarse. Supuso tres hipótesis:
todos los puntos de un frente de ondas eran centros emisores de ondas secundarias;
de todo centro emisor se propagaban ondas en todas direcciones del espacio con velocidad distinta en cada medio;
como la luz se propagaba en el vacío y necesitaba un material perfecto sin rozamiento, se supuso que todo el espacio estaba ocupado por éter, que hacía de soporte de las ondas.
hora, como los físicos de la época consideraban que todas las ondas requerían de algún medio que las transportaran en el vacío, para las ondas lumínicas se postula como medio a una materia insustancial e invisible a la cual se le llamó éter.
Justamente la presencia del éter fue el principal medio cuestionador de la teoría ondulatoria. En ello, es necesario equiparar las vibraciones luminosas con las elásticas transversales de los sólidos sin que se transmitan, por lo tanto, vibraciones longitudinales. Aquí es donde se presenta la mayor contradicción en cuanto a la presencia del éter como medio de transporte de ondas, ya que se requeriría que éste reuniera alguna característica sólida pero que a su vez no opusiera resistenciaal libre transito de los cuerpos sólidos. (Las ondas transversales sólo se propagan a través de medios sólidos.)
En aquella época, la teoría de Huygens no fue muy considerada, fundamentalmente, y tal como ya lo mencionamos, dado al prestigio que alcanzó Newton. Pasó más de un siglo para que fuera tomada en cuenta la Teoría Ondulatoria de la luz. Los experimentos del médico inglés Thomas Youngsobre los fenómenos de interferencias luminosas, y los del físico francés Auguste Jean Fresnel sobre la difracción fueron decisivos para que ello ocurriera y se colocara en la tabla de estudios de los físicos sobre la luz, la propuesta realizada en el siglo XVII por Huygens.
Young demostró experimentalmente el hecho paradójico que se daba en la teoría corpuscular de que la suma de dos fuentes luminosas pueden producir menos luminosidad que por separado. En una pantalla negra practica dos minúsculos agujeros muy próximos entre sí: al acercar la pantalla al ojo, la luz de un pequeño y distante foco aparece en forma de anillos alternativamente brillantes y oscuros. ¿Cómo explicar el efecto de ambos agujeros que por separado darían un campo iluminado, y combinados producen sombra en ciertas zonas? Young logra explicar que la alternancia de las franjas por la imagende las ondas acuáticas. Si las ondas suman sus crestas hallándose en concordancia de fase, la vibración resultante será intensa. Por el contrario, si la cresta de una onda coincide con el valle de la otra, la vibración resultante será nula. Deducción simple imputada a una interferencia y se embriona la idea de la luz como estado vibratorio de una materia insustancial e invisible, el éter, al cual se le resucita.
Ahora bien, la colaboración de Auguste Fresnel para el rescate de la teoría ondulatoria de la luz estuvo dada por el aporte matemático que le dio rigor a las ideas propuestas por Young y la explicación que presentó sobre el fenómeno de la polarización al transformar el movimiento ondulatorio longitudinal, supuesto por Huygens y ratificado por Young, quien creía que las vibraciones luminosas se efectuaban en dirección paralela a la propagación de la onda luminosa, en transversales. Pero aquí, y pese a las sagaces explicaciones que incluso rayan en las adivinanzas dadas por Fresnel, inmediatamente queda presentada una gran contradicción a esta doctrina, ya que no es posible que se pueda propagar en el éter la luz por medio de ondas transversales, debido a que éstas sólo se propagan en medios sólidos.
En su trabajo, Fresnel explica una multiplicidad de fenómenos manifestados por la luz polarizada. Observa que dos rayos polarizados ubicados en un mismo plano se interfieren, pero no lo hacen si están polarizados entre sí cuando se encuentran perpendicularmente. Este descubrimiento lo invita a pensar que en un rayo polarizado debe ocurrir algo perpendicularmente en dirección a la propagación y establece que ese algo no puede ser más que la propia vibración luminosa. La conclusión se impone: las vibraciones en la luz no pueden ser longitudinales, como Young lo propusiera, sino perpendiculares a la dirección de propagación, transversales.
Las distintas investigaciones y estudios que se realizaron sobre la naturaleza de la luz, en la época en que nos encontramos de lo que va transcurrido del relato, engendraron aspiraciones de mayores conocimientos sobre la luz. Entre ellas, se encuentra la de lograr medir la velocidad de la luz con mayor exactitud que la permitida por las observaciones astronómicas. Hippolyte Fizeau (1819- 1896) concretó el proyectoen 1849 con un clásico experimento. Al hacer pasar la luz reflejada por dos espejos entre los intersticios de una rueda girando rápidamente, determinó la velocidad que podría tener la luz en su trayectoria, que estimó aproximadamente en 300.000 km./s. Después de Fizeau, lo siguió León Foucault (1819 – 1868) al medir la velocidad de propagación de la luz a través del agua. Ello fue de gran interés, ya que iba a servir de criterio entre la teoría corpuscular y la ondulatoria.
La primera, como señalamos, requería que la velocidad fuese mayor en el agua que en el aire; lo contrario exigía, pues, la segunda. En sus experimentos, Foucaultlogró comprobar, en 1851, que la velocidad de la luz cuando transcurre por el agua es inferior a la que desarrolla cuando transita por el aire. Con ello, la teoría ondulatoria adquiere cierta preeminencia sobre la corpuscular, y pavimenta el camino hacia la gran síntesis realizada por Maxwell.
En 1670, por primera vez en la historia, el astrónomo danés Olaf Roemer pudo calcular la velocidad de la luz.
Se hallaba estudiando los eclipses de uno de los satélites de Júpiter, cuyo período había determinado tiempo atrás. Estaba en condiciones de calcular cuales serían los próximos eclipses. Se dispuso a observar uno de ellos, y con sorpresa vio que a pesar de que llegaba el instante tan cuidadosamente calculado por él, el eclipse no se producía y que el satélite demoró 996 seg. en desaparecer.
Roemer realizó sus primeros cálculos cuando la tierra se encontraba entre el Sol y Júpiter; pero cuando observó el retraso en el eclipse era el Sol quien se encontraba entre la Tierra y Júpiter.
Por lo tanto la luz debía recorrer una distancia suplementaria de 299.000.000 Km., que es el diámetro de la órbita terrestre, por lo tanto:
Vel. Luz = Diam. Órbita terrestre 299.000.000 Km / Atraso observado 996 seg. = 300.200 Km/seg.
Observaciones posteriores llevaron a la conclusión que el atraso en cuestión era de 1.002 seg. , lo cual da por resultado que la velocidad de la luz sería de 298.300 Km/seg.
Si se consideraba onda, la luz debería atravesar los obstáculos, como el sonido. Como no era así, se precisaba de alguna nueva hipótesis. Aún mas considerando que tampoco podía explicar los fenómenos de polarización. Todos estos problemas, junto al prestigio de Newton que defendía la teoría contraria, relegó a un segundo plano, durante algún tiempo, el modelo ondulatorio.
En 1849, el físico francés Fizeau, logró medir la velocidad de la luz con una experiencia hecha en la tierra.
Envió un rayo de luz, por entre los dientes de una rueda dentada que giraba a gran velocidad, de modo que se reflejara en un espejo y volviera hacia la rueda.
Esta relación de velocidad entre el camino recorrido por la luz en su ida y vuelta y las revoluciones de la rueda dentada, fue la que tomó Fizeau de base para calcular la velocidad de la luz.
Podemos escribir: t = 2d / v
Si la rueda tiene N dientes y N espacios, y da n vueltas por segundo y pasan en 1 seg. 2 Nn dientes y espacios
t= 1 /.2Nn
Cuando no llega mas luz al observador es evidente que estos tiempos son iguales y por lo tanto tenemos:
2d / v = 1 / 2Nn
de donde v = 4 d Nn
Fizeau colocó el espejo a 8.633 m del observador, la rueda tenía 760 dientes y giraba a 12,6 revoluciones por segundo.
Si aplicamos la fórmula obtenida, resultará:
V = 313.274 Km./seg.
León Foucault y casi simultáneamente Fizeau, hallaron en 1850 un método que permite medir la velocidad de la luz en espacios reducidos.
La idea consiste en enviar un haz de luz sobre un espejo giratorio haciéndole atravesar una lámina de vidrio semitransparente y semirreflectora, un espejo fijo devuelve el rayo y atraviesa luego lámina observándose la mancha luminosa en una pantalla.
Con este método se obtuvo que:
V = 295.680 Km./seg.
Luego Foucault junto a concibió la idea de calcular la velocidad de la luz en otro medio que no sea el aire.
Midieron la velocidad de la luz en el agua y obtuvieron un resultado experimental que decidió la controversia a favor de la teoría ondulatoria.
En general todas las mediciones de que se tiene conocimiento obtuvieron resultados entre 298.000 Km/seg y 313.300 Km/seg sin embargo se toma como velocidad de la luz la de 300.000 Km/seg por ser un término medio entre los valores obtenidos y por ser una cifra exacta que facilitan los cálculos.
4. Modelo electromagnetico.
Si bien en la separata 1.03 de este ensayonos referiremos a ella con una relativa extensión, cuando hablemos del electromagnetismo, aquí podemos señalar sucintamente que fue desarrollada por quien es considerado el más imaginativo de los físicos teóricos del siglo XIX, nos referimos a James Clerk Maxwell (1831-1879). Este físico inglés dio en 1865 a los descubrimientos, que anteriormente había realizado el genial autodidacta Michael Faraday, el andamiaje matemático y logró reunir los fenómenos ópticos y electromagnéticos hasta entonces identificados dentro del marco de una teoría de reconocida hermosura y de acabada estructura. En la descripción que hace de su propuesta, Maxwell propugna que cada cambio del campo eléctrico engendra en su proximidad un campo magnético, e inversamente cada variación del campo magnético origina uno eléctrico.
Dado que las acciones eléctricas se propagan con velocidad finita de punto a punto, se podrán concebir los cambios periódicos - cambios en dirección e intensidad - de un campo eléctrico como una propagación de ondas. Tales ondas eléctricas están necesariamente acompañadas por ondas magnéticas indisolublemente ligadas a ellas. Los dos campos, eléctrico y magnético, periódicamente variables, están constantemente perpendiculares entre sí y a la dirección común de su propagación. Son, pues, ondas transversales semejantes a las de la luz. Por otra parte, las ondas electromagnéticas se transmiten, como se puede deducir de las investigaciones de Weber y Kohlrausch, con la misma velocidad que la luz. De esta doble analogía, y haciendo gala de una espectacular volada especulativa Maxwell termina concluyendo que la luz consiste en una perturbación electromagnética que se propaga en el éter. Ondas eléctricas y ondas luminosas son fenómenos idénticos.
Veinte años más tarde, Heinrich Hertz (1857-1894) comprueba que las ondas hertzianas de origen electromagnético tienen las mismas propiedades que las ondas luminosas, estableciendo con ello, definitivamente, la identidad de ambos fenómenos.
Hertz, en 1888, logró producir ondas por medios exclusivamente eléctricos y, a su vez, demostrar que estas ondas poseen todas las características de la luz visible, con la única diferencia de que las longitudes de sus ondas son manifiestamente mayores. Ello, deja en evidencia que las ondas eléctricas se dejan refractar, reflejar y polarizar, y que su velocidad de propagación es igual a la de la luz. La propuesta de Maxwell quedaba confirmada: ¡la existencia de las ondas electromagnéticas era una realidad inequívoca! Establecido lo anterior, sobre la factibilidad de transmitir oscilaciones eléctricas sin inalámbricas, se abrían las compuertas para que se produjera el desarrollo de una multiplicidad de inventivas que han jugado un rol significativo en la evolución de la naturaleza humana contemporánea.
Pero las investigaciones de Maxwell y Hertz no sólo se limitaron al ámbito de las utilizaciones prácticas, sino que también trajeron con ellas importantes consecuencias teóricas. Todas las radiaciones se revelaron de la misma índole física, diferenciándose solamente en la longitud de onda en la cual se producen. Su escala comienza con las largas ondas hertzianas y, pasando por la luz visible, se llegan a la de los rayos ultravioletas, los rayos X, los radiactivos, y los rayos cósmicos.
Ahora, la teoría electromagnética de Maxwell, pese a su belleza, comporta debilidades, ya que deja sin explicación fenómenos tan evidentes como la absorción o emisión; el fotoeléctrico, y la emisión de luz por cuerpos incandescentes. En consecuencia, pasado el entusiasmo inicial, fue necesario para los físicos, como los hizo Planck en 1900, retomar la teoría corpuscular.
ero la salida al dilema que presentaban las diferentes teorías sobre la naturaleza de la luz, empezó a tomar forma en 1895 en la mente de un estudiante de dieciséis años, Albert Einstein, que en el año 1905, en un ensayo publicado en el prestigioso periódico alemán Anales de la física, abre el camino para eliminar la dicotomía que existía sobre las consideraciones que se hacían sobre la luz al introducir el principio que más tarde se haría famoso como relatividad.
La luz es, de acuerdo a la visión actual, una onda, más precisamente una oscilación electromagnética, que se propaga en el vacío o en un medio transparente, cuya longitud de onda es muy pequeña, unos 6.500 Å para la luz roja y unos 4.500 Å para la luz azul. (1Å = un Angstrom, corresponde a una décima de milimicra, esto es, una diez millonésima de milímetro).
Por otra parte, la luz es una parte insignificante del espectro electromagnético. Más allá del rojo está la radiacióninfrarroja; con longitudes de ondas aún más largas la zona del infrarrojo lejano, las microondas de radio, y luego toda la gama de las ondas de radio, desde las ondas centimétricas, métricas, decamétricas, hasta las ondas largas de radiocomunicación, con longitudes de cientos de metros y más. Por ejemplo, el dial de amplitud modulada, la llamada onda media, va desde 550 y 1.600 kilociclos por segundo, que corresponde a una longitud de onda de 545 a 188 metros, respectivamente.
En física, se identifica a las ondas por lo que se llama longitud de onda, distancia entre dos máximos y por su frecuencia, número de oscilaciones por segundo, que se cuenta en un punto, y se mide en ciclos por segundo (oscilaciones por segundo). El producto de ambas cantidades es igual a la velocidad de propagación de la onda.
En el otro extremos del espectro electromagnético se encuentra la radiación ultravioleta, luego los rayos X y a longitudes de onda muy diminutas los rayos .
La atmósfera terrestre es transparente sólo en la región óptica, algo en el infrarrojo y en la zona de ondas de radio. Por ello, es que la mayor información que hemos obtenido sobre el universo ha sido a través de la ventana óptica, aunque en las últimas décadas la radioastronomía ha venido jugando un rol sustancial en la entrega de conocimientos sobre el cosmos, proporcionando datos cruciales. Observaciones en el ultravioleta, rayos X y , como así también de parte del infrarrojo, hay que efectuarlas con instrumentos ubicados fuera de la atmósfera de la Tierra. Sin embargo, es posible también obtener resultados en el infrarrojo con instrumentaciónalojada en observatorios terrestres empotrados a gran altura sobre el nivel del mar o con tecnologíapuesta en aviones o globos que se eleven por sobre la baja atmósfera, que contiene la mayor parte del vapor de agua, que es la principal causa de la absorción atmosférica en el infrarrojo.
5. Longitud de Onda de De Broglie
En 1924, Louis de Broglie, plantea la posibilidad de asociar una función de onda a las partículas. El razonamiento lo hace por criterios de simetría con respecto a la necesidad de asignar propiedades corpusculares a la radiación electromagnética, cuya conveniencia es el resultado de analizar experiencias como por ejemplo los efectos fotoeléctrico y Compton. Una consecuencia inmediata del principio de de Broglie es la interpretación de las leyes de cuantificación utilizadas, por ejemplo, en el modelo atómico de Bohr, como equivalentes a considerar solo aquellas "órbitas" cuya longitud hace que la onda del electrón sea estacionaria.
La hipótesis de de Broglie adquiere fuerza con los resultados del experimento de Davisson y Germer, entre otros, en los que un haz de electrones acelerados produce un patrón de interferencia, resultado típicamente ondulatorio, al ser dispersado por un cristal de Níquel.
Las conclusiones de los experimentos de difracción de haces de partículas, y de interpretación del efecto Compton, así como otras experiencias con radiación electromagnética, hacen que nos cuestionemos sobre la "verdadera" naturaleza de la materia y de las radiaciones, ¿són ondas o partículas?. El principio de Complementariedad de Niels Bohr, nos indica la dualidad de ondas y partículas, siendo el experimento planteado el que determine el modelo a utilizar.
En vista de la necesidad de asociar una función de onda a las partículas, nos induce a plantear la posible interpretación física de la misma. Los conocimientos previos de campos electromagnéticos, unidos a la interpretación corpuscular de la radiación electromagnética, indujeron a Albert Einstein a interpretar el cuadrado de la amplitud del campo eléctrico como una medida de la densidad de fotones de un haz, por tanto, la densidad de partículas de un haz podría asociarse al cuadrado de la amplitud de la función de onda de materia. Sin embargo, el significado de la función de ondas de una única partícula no queda claro. Max Born, sugiere que en ese caso la interpretación es la de una densidad de probabilidad de presencia de la partícula entorno a una posición determinada del espacio y en un instante de tiempo. Queda de esta forma asociada la función de onda a una probabilidad, concepto contrapuesto, en cierta medida, al determinismo asociado a la "posición espacial" de la física clásica.
Haciendo uso, una vez más, de los conocimientos del electromagnetismo intentaremos representar las partículas por medio de ondas armónicas, u ondas planas. Sin embargo la interpretación de Born conduce a una total "deslocalización" espacial para éstas partículas, tendremos por tanto, que introducir paquetes de ondas, es decir superposición de ondas planas, para poder limitar la deslocalización de la partícula a una zona de dimensiones finitas. Ahora bien, matemáticamente, para construir un paquete de ondas de dimensiones espaciales finitas, necesitamos un rango de vectores de ondas distintos. Si el paquete es una representación de la onda de materia concluiremos que cuanto más localizada esté una partícula, más amplio será el espectro de vectores de ondas, es decir de cantidades de movimiento, necesario. Este es el concepto básico contenido en el Principio de Indeterminación de Heisemberg. Éste principio destruye por completo el determinismo clásico ya que impide la definición, con absoluta precisión, de las condiciones iniciales de un sistema físico, premisa en que se basa la supuesta posibilidad de predecir, de nuevo con absoluta precisión según la física clásica, la evolución futura del sistema.
Luis de Broglie fue quien señaló que las partículas poseían no sólo características de tales sino también de ondas, lo que llevó al señalamiento jocoso de que los electrones se comportaban como partículas los lunes, miércoles y viernes y como ondas los martes y jueves. Ya se conocía, gracias a Einstein, que el fotón podía ser descrito por su masa en reposo y por su frequencia lo que llevó a relacionar el momento del fotón (característica de partícula) con la frecuencia (característica de onda), y a de Broglie a proponer que esta asociación era característica de todas las partículas, no sólo del fotón, lo que se esquematiza en las siguientes ecuaciones
De esta asociación entre partículas y ondas es que surge luego la teoría ondulatoria de Schrödinger, que es el objeto del cual estamos hablando en este capítulo.
Anexos
Espectro electromagnético.- La región correspondiente a la luz es una disminuta ventana en todo el espectro. La atmósfera terrestre sólo es transparente en la región óptica y de ondas de radio. El infrarrojo se puede observar desde gran altura con globos o satélites, al igual que los rayos , rayos X, y la radiación ultravioleta.
Representación de una onda. Se llama longitud de onda a la distancia entre dos "valles" o dos "montes".
6. Conclusión
Podemos decir que la luz es toda radiación electromagnética capaz de ser percibida por nuestro sentido de la vista. El intervalo de frecuencias de las radiaciones que componen la luz solamente está delimitado por la capacidad del órgano de la visión.
La luz que nosotros percibimos será siempre formada por radiaciones correspondientes a grandes cantidades de frecuencias. El láserconstituye la única radiación visible formada por radiaciones de la misma longitud de onda todas ella. La luz, en un medio homogéneo, se propaga en línea recta. Cada una de las direcciones de propagación de la luz es un rayo luminoso. Un conjunto de rayos que parten de un punto es un haz. Si el punto de donde proceden los rayos está muy alejado se consideran paralelos.
La velocidad de la luz en el vacío es de 3 . 108 m/s. Para comparar la velocidad de la luz en una sustancia con la del vacío se emplea el índice de refracción, obtenido como cociente entre la segunda y la primera:
n = c
v
c = velocidad de la luz en el vacío
v = velocidad de la luz en la sustancia
Un prisma óptico es un cuerpo con dos caras planas no paralelas. Este dispositivo se utiliza, con accesorios más o menos sofisticados, para efectuar análisis de la luz.
Si sobre una cara de un prisma óptico se hace incidir una luz compuesta, debido al distinto índice de refracción que presenta el prisma para cada longitud de onda, las distintas radiaciones sufrirán desviaciones distintas y se podrán discernir fácilmente.
Diferentes teorías se han ido desarrollando para interpretar la naturaleza de la luz hasta llegar al conocimiento actual. Las primeras aportaciones conocidas son las de Lepucio (450 a.C.) perteneciente a la escuela atomista, que consideraban que los cuerpos eran focos que desprendían imágenes, algo así como halos oscuros, que eran captados por los ojos y de éstos pasaban al alma, que los interpretaba.
Los partidarios de la escuela pitagórica afirmaban justamente lo contrario: no eran los objetos los focos emisores, sino los ojos. Su máximo representante fue Apuleyo (400 a.C.); haciendo un símil con el sentido del tacto, suponían que el ojo palpaba los objetos mediante una fuerzainvisible a modo de tentáculo, y al explorar los objetos determinaba sus dimensiones y color.
Dentro de la misma escuela, Euclides (300 a.C.) introdujo el concepto de rayo de luz emitido por el ojo, que se propagaba en línea recta hasta alcanzar el objeto.
Pasarían nada mas que trece siglos antes de que el árabe Ajasen Basora (965-1039) opinara que la luz era un proyectil que provenía del Sol, rebotaba en los objetos y de éstos al ojo.
¿Qué es la luz?. Los sabios de todas las épocas han tratado de responder a esta pregunta. Los griegos suponían que la luz emanaba de los objetos, y era algo así como un "espectro" de los mismos, extraordinariamente sutil, que al llegar al ojo del observador le permitía verlo.
De esta manera los griegos y los egipcios se abocaron a la solución de estos problemas sin encontrar respuestas adecuadas. Posteriormente en la Europa del S. XV al XVII, con los avances realizados por la ciencia y la técnica, surgieron muchos matemáticos y filósofos que produjeron importantes trabajos sobre la luz y los fenómenos luminosos.
Es Newton el que formula la primera hipótesis seria sobre la naturaleza de la luz.
2. Modelo corpuscular.
Se la conoce como teoríacorpuscular o de la emisión. A finales del siglo XVI, con el uso de lentes e instrumentos ópticos, empezaran a experimentarse los fenómenos luminosos, siendo el holandés Willebrord Snell, en 1620, quién descubrió experimentalmente la ley de la refracción, aunque no fue conocida hasta que, en 1638, René Descartes(1596-1650) publicó su tratado: Óptica. Descartes fue el primer gran defensor de la teoría corpuscular, diciendo que la luz se comportaba como un proyectil que se propulsaba a velocidad infinita, sin especificar absolutamente nada sobre su naturaleza, pero rechazando que cierta materia fuera de los objetos al ojo.
Explicó claramente la reflexión, pero tuvo alguna dificultad con la refracción.
Según Newton, las fuentes luminosas emiten corpúsculos muy livianos que se desplazan a gran velocidad y en línea recta. Podemos fijar ya la idea de que esta teoría además de concebir la propagación de la luz por medio de corpúsculos, también sienta el principio de que los rayos se desplazan en forma rectilínea.
Como toda teoría física es válida en tanto y en cuanto pueda explicar los fenómenos conocidos hasta el momento, en forma satisfactoria.
Newton explicó que la variación de intensidad de la fuente luminosa es proporcional a la cantidad de corpúsculos que emite en determinado tiempo.
La reflexión de la luz consiste en la incidencia de dichos corpúsculos en forma oblicua en una superficie espejada, de manera que al llegar a ella varía de dirección pero siempre en el mismo medio.
La igualdaddel ángulo de incidencia con el de reflexión se debe a la circunstancia de que tanto antes como después de la reflexión los corpúsculos conservan la misma velocidad (debido a que permanece en el mismo medio).
La refracción la resolvió expresando que los corpúsculos que inciden oblicuamente en una superficie de separación de dos medios de distinta densidad son atraídos por la masa del medio más denso y, por lo tanto, aumenta la componente de la velocidad que es la velocidad que es perpendicular a la superficie de separación, razón por la cual los corpúsculos luminosos se acercan a la normal.
El fenómeno de la birrefrigencia del espato de Islandia descubierto por el danés Bartholinus en 1669, quiso ser justificado por Newton suponiendo que los corpúsculos del rayo podían ser rectangulares y sus propiedades variar según su orientación respecto a la dirección de la propagación.
Según lo expresado por Newton, la velocidad de la luz aumentaría en los medios de mayor densidad, lo cual contradice los resultados de los experimentos realizados años después.
Esta explicación, contradictoria con los resultados experimentales sobre la velocidad de la luz en medios más densos que el vacío, obligó al abandono de la teoría corpuscular.
3. Modelo ondulatorio.
Propugnada por Christian Huygens en el año 1678, describe y explica lo que hoy se considera como leyes de reflexión y refracción. Define a la luz como un movimiento ondulatorio semejante al que se produce con el sonido.
Propuso el modelo ondulatorio, en el que se defendía que la luz no era mas que una perturbación ondulatoria, parecida al sonido, y de tipo mecánico pues necesitaba un medio material para propagarse. Supuso tres hipótesis:
todos los puntos de un frente de ondas eran centros emisores de ondas secundarias;
de todo centro emisor se propagaban ondas en todas direcciones del espacio con velocidad distinta en cada medio;
como la luz se propagaba en el vacío y necesitaba un material perfecto sin rozamiento, se supuso que todo el espacio estaba ocupado por éter, que hacía de soporte de las ondas.
hora, como los físicos de la época consideraban que todas las ondas requerían de algún medio que las transportaran en el vacío, para las ondas lumínicas se postula como medio a una materia insustancial e invisible a la cual se le llamó éter.
Justamente la presencia del éter fue el principal medio cuestionador de la teoría ondulatoria. En ello, es necesario equiparar las vibraciones luminosas con las elásticas transversales de los sólidos sin que se transmitan, por lo tanto, vibraciones longitudinales. Aquí es donde se presenta la mayor contradicción en cuanto a la presencia del éter como medio de transporte de ondas, ya que se requeriría que éste reuniera alguna característica sólida pero que a su vez no opusiera resistenciaal libre transito de los cuerpos sólidos. (Las ondas transversales sólo se propagan a través de medios sólidos.)
En aquella época, la teoría de Huygens no fue muy considerada, fundamentalmente, y tal como ya lo mencionamos, dado al prestigio que alcanzó Newton. Pasó más de un siglo para que fuera tomada en cuenta la Teoría Ondulatoria de la luz. Los experimentos del médico inglés Thomas Youngsobre los fenómenos de interferencias luminosas, y los del físico francés Auguste Jean Fresnel sobre la difracción fueron decisivos para que ello ocurriera y se colocara en la tabla de estudios de los físicos sobre la luz, la propuesta realizada en el siglo XVII por Huygens.
Young demostró experimentalmente el hecho paradójico que se daba en la teoría corpuscular de que la suma de dos fuentes luminosas pueden producir menos luminosidad que por separado. En una pantalla negra practica dos minúsculos agujeros muy próximos entre sí: al acercar la pantalla al ojo, la luz de un pequeño y distante foco aparece en forma de anillos alternativamente brillantes y oscuros. ¿Cómo explicar el efecto de ambos agujeros que por separado darían un campo iluminado, y combinados producen sombra en ciertas zonas? Young logra explicar que la alternancia de las franjas por la imagende las ondas acuáticas. Si las ondas suman sus crestas hallándose en concordancia de fase, la vibración resultante será intensa. Por el contrario, si la cresta de una onda coincide con el valle de la otra, la vibración resultante será nula. Deducción simple imputada a una interferencia y se embriona la idea de la luz como estado vibratorio de una materia insustancial e invisible, el éter, al cual se le resucita.
Ahora bien, la colaboración de Auguste Fresnel para el rescate de la teoría ondulatoria de la luz estuvo dada por el aporte matemático que le dio rigor a las ideas propuestas por Young y la explicación que presentó sobre el fenómeno de la polarización al transformar el movimiento ondulatorio longitudinal, supuesto por Huygens y ratificado por Young, quien creía que las vibraciones luminosas se efectuaban en dirección paralela a la propagación de la onda luminosa, en transversales. Pero aquí, y pese a las sagaces explicaciones que incluso rayan en las adivinanzas dadas por Fresnel, inmediatamente queda presentada una gran contradicción a esta doctrina, ya que no es posible que se pueda propagar en el éter la luz por medio de ondas transversales, debido a que éstas sólo se propagan en medios sólidos.
En su trabajo, Fresnel explica una multiplicidad de fenómenos manifestados por la luz polarizada. Observa que dos rayos polarizados ubicados en un mismo plano se interfieren, pero no lo hacen si están polarizados entre sí cuando se encuentran perpendicularmente. Este descubrimiento lo invita a pensar que en un rayo polarizado debe ocurrir algo perpendicularmente en dirección a la propagación y establece que ese algo no puede ser más que la propia vibración luminosa. La conclusión se impone: las vibraciones en la luz no pueden ser longitudinales, como Young lo propusiera, sino perpendiculares a la dirección de propagación, transversales.
Las distintas investigaciones y estudios que se realizaron sobre la naturaleza de la luz, en la época en que nos encontramos de lo que va transcurrido del relato, engendraron aspiraciones de mayores conocimientos sobre la luz. Entre ellas, se encuentra la de lograr medir la velocidad de la luz con mayor exactitud que la permitida por las observaciones astronómicas. Hippolyte Fizeau (1819- 1896) concretó el proyectoen 1849 con un clásico experimento. Al hacer pasar la luz reflejada por dos espejos entre los intersticios de una rueda girando rápidamente, determinó la velocidad que podría tener la luz en su trayectoria, que estimó aproximadamente en 300.000 km./s. Después de Fizeau, lo siguió León Foucault (1819 – 1868) al medir la velocidad de propagación de la luz a través del agua. Ello fue de gran interés, ya que iba a servir de criterio entre la teoría corpuscular y la ondulatoria.
La primera, como señalamos, requería que la velocidad fuese mayor en el agua que en el aire; lo contrario exigía, pues, la segunda. En sus experimentos, Foucaultlogró comprobar, en 1851, que la velocidad de la luz cuando transcurre por el agua es inferior a la que desarrolla cuando transita por el aire. Con ello, la teoría ondulatoria adquiere cierta preeminencia sobre la corpuscular, y pavimenta el camino hacia la gran síntesis realizada por Maxwell.
En 1670, por primera vez en la historia, el astrónomo danés Olaf Roemer pudo calcular la velocidad de la luz.
Se hallaba estudiando los eclipses de uno de los satélites de Júpiter, cuyo período había determinado tiempo atrás. Estaba en condiciones de calcular cuales serían los próximos eclipses. Se dispuso a observar uno de ellos, y con sorpresa vio que a pesar de que llegaba el instante tan cuidadosamente calculado por él, el eclipse no se producía y que el satélite demoró 996 seg. en desaparecer.
Roemer realizó sus primeros cálculos cuando la tierra se encontraba entre el Sol y Júpiter; pero cuando observó el retraso en el eclipse era el Sol quien se encontraba entre la Tierra y Júpiter.
Por lo tanto la luz debía recorrer una distancia suplementaria de 299.000.000 Km., que es el diámetro de la órbita terrestre, por lo tanto:
Vel. Luz = Diam. Órbita terrestre 299.000.000 Km / Atraso observado 996 seg. = 300.200 Km/seg.
Observaciones posteriores llevaron a la conclusión que el atraso en cuestión era de 1.002 seg. , lo cual da por resultado que la velocidad de la luz sería de 298.300 Km/seg.
Si se consideraba onda, la luz debería atravesar los obstáculos, como el sonido. Como no era así, se precisaba de alguna nueva hipótesis. Aún mas considerando que tampoco podía explicar los fenómenos de polarización. Todos estos problemas, junto al prestigio de Newton que defendía la teoría contraria, relegó a un segundo plano, durante algún tiempo, el modelo ondulatorio.
En 1849, el físico francés Fizeau, logró medir la velocidad de la luz con una experiencia hecha en la tierra.
Envió un rayo de luz, por entre los dientes de una rueda dentada que giraba a gran velocidad, de modo que se reflejara en un espejo y volviera hacia la rueda.
Esta relación de velocidad entre el camino recorrido por la luz en su ida y vuelta y las revoluciones de la rueda dentada, fue la que tomó Fizeau de base para calcular la velocidad de la luz.
Podemos escribir: t = 2d / v
Si la rueda tiene N dientes y N espacios, y da n vueltas por segundo y pasan en 1 seg. 2 Nn dientes y espacios
t= 1 /.2Nn
Cuando no llega mas luz al observador es evidente que estos tiempos son iguales y por lo tanto tenemos:
2d / v = 1 / 2Nn
de donde v = 4 d Nn
Fizeau colocó el espejo a 8.633 m del observador, la rueda tenía 760 dientes y giraba a 12,6 revoluciones por segundo.
Si aplicamos la fórmula obtenida, resultará:
V = 313.274 Km./seg.
León Foucault y casi simultáneamente Fizeau, hallaron en 1850 un método que permite medir la velocidad de la luz en espacios reducidos.
La idea consiste en enviar un haz de luz sobre un espejo giratorio haciéndole atravesar una lámina de vidrio semitransparente y semirreflectora, un espejo fijo devuelve el rayo y atraviesa luego lámina observándose la mancha luminosa en una pantalla.
Con este método se obtuvo que:
V = 295.680 Km./seg.
Luego Foucault junto a concibió la idea de calcular la velocidad de la luz en otro medio que no sea el aire.
Midieron la velocidad de la luz en el agua y obtuvieron un resultado experimental que decidió la controversia a favor de la teoría ondulatoria.
En general todas las mediciones de que se tiene conocimiento obtuvieron resultados entre 298.000 Km/seg y 313.300 Km/seg sin embargo se toma como velocidad de la luz la de 300.000 Km/seg por ser un término medio entre los valores obtenidos y por ser una cifra exacta que facilitan los cálculos.
4. Modelo electromagnetico.
Si bien en la separata 1.03 de este ensayonos referiremos a ella con una relativa extensión, cuando hablemos del electromagnetismo, aquí podemos señalar sucintamente que fue desarrollada por quien es considerado el más imaginativo de los físicos teóricos del siglo XIX, nos referimos a James Clerk Maxwell (1831-1879). Este físico inglés dio en 1865 a los descubrimientos, que anteriormente había realizado el genial autodidacta Michael Faraday, el andamiaje matemático y logró reunir los fenómenos ópticos y electromagnéticos hasta entonces identificados dentro del marco de una teoría de reconocida hermosura y de acabada estructura. En la descripción que hace de su propuesta, Maxwell propugna que cada cambio del campo eléctrico engendra en su proximidad un campo magnético, e inversamente cada variación del campo magnético origina uno eléctrico.
Dado que las acciones eléctricas se propagan con velocidad finita de punto a punto, se podrán concebir los cambios periódicos - cambios en dirección e intensidad - de un campo eléctrico como una propagación de ondas. Tales ondas eléctricas están necesariamente acompañadas por ondas magnéticas indisolublemente ligadas a ellas. Los dos campos, eléctrico y magnético, periódicamente variables, están constantemente perpendiculares entre sí y a la dirección común de su propagación. Son, pues, ondas transversales semejantes a las de la luz. Por otra parte, las ondas electromagnéticas se transmiten, como se puede deducir de las investigaciones de Weber y Kohlrausch, con la misma velocidad que la luz. De esta doble analogía, y haciendo gala de una espectacular volada especulativa Maxwell termina concluyendo que la luz consiste en una perturbación electromagnética que se propaga en el éter. Ondas eléctricas y ondas luminosas son fenómenos idénticos.
Veinte años más tarde, Heinrich Hertz (1857-1894) comprueba que las ondas hertzianas de origen electromagnético tienen las mismas propiedades que las ondas luminosas, estableciendo con ello, definitivamente, la identidad de ambos fenómenos.
Hertz, en 1888, logró producir ondas por medios exclusivamente eléctricos y, a su vez, demostrar que estas ondas poseen todas las características de la luz visible, con la única diferencia de que las longitudes de sus ondas son manifiestamente mayores. Ello, deja en evidencia que las ondas eléctricas se dejan refractar, reflejar y polarizar, y que su velocidad de propagación es igual a la de la luz. La propuesta de Maxwell quedaba confirmada: ¡la existencia de las ondas electromagnéticas era una realidad inequívoca! Establecido lo anterior, sobre la factibilidad de transmitir oscilaciones eléctricas sin inalámbricas, se abrían las compuertas para que se produjera el desarrollo de una multiplicidad de inventivas que han jugado un rol significativo en la evolución de la naturaleza humana contemporánea.
Pero las investigaciones de Maxwell y Hertz no sólo se limitaron al ámbito de las utilizaciones prácticas, sino que también trajeron con ellas importantes consecuencias teóricas. Todas las radiaciones se revelaron de la misma índole física, diferenciándose solamente en la longitud de onda en la cual se producen. Su escala comienza con las largas ondas hertzianas y, pasando por la luz visible, se llegan a la de los rayos ultravioletas, los rayos X, los radiactivos, y los rayos cósmicos.
Ahora, la teoría electromagnética de Maxwell, pese a su belleza, comporta debilidades, ya que deja sin explicación fenómenos tan evidentes como la absorción o emisión; el fotoeléctrico, y la emisión de luz por cuerpos incandescentes. En consecuencia, pasado el entusiasmo inicial, fue necesario para los físicos, como los hizo Planck en 1900, retomar la teoría corpuscular.
ero la salida al dilema que presentaban las diferentes teorías sobre la naturaleza de la luz, empezó a tomar forma en 1895 en la mente de un estudiante de dieciséis años, Albert Einstein, que en el año 1905, en un ensayo publicado en el prestigioso periódico alemán Anales de la física, abre el camino para eliminar la dicotomía que existía sobre las consideraciones que se hacían sobre la luz al introducir el principio que más tarde se haría famoso como relatividad.
La luz es, de acuerdo a la visión actual, una onda, más precisamente una oscilación electromagnética, que se propaga en el vacío o en un medio transparente, cuya longitud de onda es muy pequeña, unos 6.500 Å para la luz roja y unos 4.500 Å para la luz azul. (1Å = un Angstrom, corresponde a una décima de milimicra, esto es, una diez millonésima de milímetro).
Por otra parte, la luz es una parte insignificante del espectro electromagnético. Más allá del rojo está la radiacióninfrarroja; con longitudes de ondas aún más largas la zona del infrarrojo lejano, las microondas de radio, y luego toda la gama de las ondas de radio, desde las ondas centimétricas, métricas, decamétricas, hasta las ondas largas de radiocomunicación, con longitudes de cientos de metros y más. Por ejemplo, el dial de amplitud modulada, la llamada onda media, va desde 550 y 1.600 kilociclos por segundo, que corresponde a una longitud de onda de 545 a 188 metros, respectivamente.
En física, se identifica a las ondas por lo que se llama longitud de onda, distancia entre dos máximos y por su frecuencia, número de oscilaciones por segundo, que se cuenta en un punto, y se mide en ciclos por segundo (oscilaciones por segundo). El producto de ambas cantidades es igual a la velocidad de propagación de la onda.
En el otro extremos del espectro electromagnético se encuentra la radiación ultravioleta, luego los rayos X y a longitudes de onda muy diminutas los rayos .
La atmósfera terrestre es transparente sólo en la región óptica, algo en el infrarrojo y en la zona de ondas de radio. Por ello, es que la mayor información que hemos obtenido sobre el universo ha sido a través de la ventana óptica, aunque en las últimas décadas la radioastronomía ha venido jugando un rol sustancial en la entrega de conocimientos sobre el cosmos, proporcionando datos cruciales. Observaciones en el ultravioleta, rayos X y , como así también de parte del infrarrojo, hay que efectuarlas con instrumentos ubicados fuera de la atmósfera de la Tierra. Sin embargo, es posible también obtener resultados en el infrarrojo con instrumentaciónalojada en observatorios terrestres empotrados a gran altura sobre el nivel del mar o con tecnologíapuesta en aviones o globos que se eleven por sobre la baja atmósfera, que contiene la mayor parte del vapor de agua, que es la principal causa de la absorción atmosférica en el infrarrojo.
5. Longitud de Onda de De Broglie
En 1924, Louis de Broglie, plantea la posibilidad de asociar una función de onda a las partículas. El razonamiento lo hace por criterios de simetría con respecto a la necesidad de asignar propiedades corpusculares a la radiación electromagnética, cuya conveniencia es el resultado de analizar experiencias como por ejemplo los efectos fotoeléctrico y Compton. Una consecuencia inmediata del principio de de Broglie es la interpretación de las leyes de cuantificación utilizadas, por ejemplo, en el modelo atómico de Bohr, como equivalentes a considerar solo aquellas "órbitas" cuya longitud hace que la onda del electrón sea estacionaria.
La hipótesis de de Broglie adquiere fuerza con los resultados del experimento de Davisson y Germer, entre otros, en los que un haz de electrones acelerados produce un patrón de interferencia, resultado típicamente ondulatorio, al ser dispersado por un cristal de Níquel.
Las conclusiones de los experimentos de difracción de haces de partículas, y de interpretación del efecto Compton, así como otras experiencias con radiación electromagnética, hacen que nos cuestionemos sobre la "verdadera" naturaleza de la materia y de las radiaciones, ¿són ondas o partículas?. El principio de Complementariedad de Niels Bohr, nos indica la dualidad de ondas y partículas, siendo el experimento planteado el que determine el modelo a utilizar.
En vista de la necesidad de asociar una función de onda a las partículas, nos induce a plantear la posible interpretación física de la misma. Los conocimientos previos de campos electromagnéticos, unidos a la interpretación corpuscular de la radiación electromagnética, indujeron a Albert Einstein a interpretar el cuadrado de la amplitud del campo eléctrico como una medida de la densidad de fotones de un haz, por tanto, la densidad de partículas de un haz podría asociarse al cuadrado de la amplitud de la función de onda de materia. Sin embargo, el significado de la función de ondas de una única partícula no queda claro. Max Born, sugiere que en ese caso la interpretación es la de una densidad de probabilidad de presencia de la partícula entorno a una posición determinada del espacio y en un instante de tiempo. Queda de esta forma asociada la función de onda a una probabilidad, concepto contrapuesto, en cierta medida, al determinismo asociado a la "posición espacial" de la física clásica.
Haciendo uso, una vez más, de los conocimientos del electromagnetismo intentaremos representar las partículas por medio de ondas armónicas, u ondas planas. Sin embargo la interpretación de Born conduce a una total "deslocalización" espacial para éstas partículas, tendremos por tanto, que introducir paquetes de ondas, es decir superposición de ondas planas, para poder limitar la deslocalización de la partícula a una zona de dimensiones finitas. Ahora bien, matemáticamente, para construir un paquete de ondas de dimensiones espaciales finitas, necesitamos un rango de vectores de ondas distintos. Si el paquete es una representación de la onda de materia concluiremos que cuanto más localizada esté una partícula, más amplio será el espectro de vectores de ondas, es decir de cantidades de movimiento, necesario. Este es el concepto básico contenido en el Principio de Indeterminación de Heisemberg. Éste principio destruye por completo el determinismo clásico ya que impide la definición, con absoluta precisión, de las condiciones iniciales de un sistema físico, premisa en que se basa la supuesta posibilidad de predecir, de nuevo con absoluta precisión según la física clásica, la evolución futura del sistema.
Luis de Broglie fue quien señaló que las partículas poseían no sólo características de tales sino también de ondas, lo que llevó al señalamiento jocoso de que los electrones se comportaban como partículas los lunes, miércoles y viernes y como ondas los martes y jueves. Ya se conocía, gracias a Einstein, que el fotón podía ser descrito por su masa en reposo y por su frequencia lo que llevó a relacionar el momento del fotón (característica de partícula) con la frecuencia (característica de onda), y a de Broglie a proponer que esta asociación era característica de todas las partículas, no sólo del fotón, lo que se esquematiza en las siguientes ecuaciones
De esta asociación entre partículas y ondas es que surge luego la teoría ondulatoria de Schrödinger, que es el objeto del cual estamos hablando en este capítulo.
Anexos
Espectro electromagnético.- La región correspondiente a la luz es una disminuta ventana en todo el espectro. La atmósfera terrestre sólo es transparente en la región óptica y de ondas de radio. El infrarrojo se puede observar desde gran altura con globos o satélites, al igual que los rayos , rayos X, y la radiación ultravioleta.
Representación de una onda. Se llama longitud de onda a la distancia entre dos "valles" o dos "montes".
6. Conclusión
Podemos decir que la luz es toda radiación electromagnética capaz de ser percibida por nuestro sentido de la vista. El intervalo de frecuencias de las radiaciones que componen la luz solamente está delimitado por la capacidad del órgano de la visión.
La luz que nosotros percibimos será siempre formada por radiaciones correspondientes a grandes cantidades de frecuencias. El láserconstituye la única radiación visible formada por radiaciones de la misma longitud de onda todas ella. La luz, en un medio homogéneo, se propaga en línea recta. Cada una de las direcciones de propagación de la luz es un rayo luminoso. Un conjunto de rayos que parten de un punto es un haz. Si el punto de donde proceden los rayos está muy alejado se consideran paralelos.
La velocidad de la luz en el vacío es de 3 . 108 m/s. Para comparar la velocidad de la luz en una sustancia con la del vacío se emplea el índice de refracción, obtenido como cociente entre la segunda y la primera:
n = c
v
c = velocidad de la luz en el vacío
v = velocidad de la luz en la sustancia
Un prisma óptico es un cuerpo con dos caras planas no paralelas. Este dispositivo se utiliza, con accesorios más o menos sofisticados, para efectuar análisis de la luz.
Si sobre una cara de un prisma óptico se hace incidir una luz compuesta, debido al distinto índice de refracción que presenta el prisma para cada longitud de onda, las distintas radiaciones sufrirán desviaciones distintas y se podrán discernir fácilmente.
Leyes de Kirchhoff
Leyes de Kirchhoff de circuitos eléctricos
De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda
«Leyes de Kirchhoff» redirige aquí. Para otras acepciones, véase Ley de Kirchhoff de la radiación térmica.
Teoría de circuitos
Electricidad [ocultar]Conceptos básicos
Campo eléctrico · Campo magnético · Tensión · Corriente · Ley de Ohm · Potencia · Energía · Ley de Joule · Leyes de Kirchhoff · Partes de un circuito
[mostrar]Tipos de señales
Corrientes periódica · Corriente pulsatoria · Parámetros característicos · Corrientes transitorias · Corriente alterna
[mostrar]Componentes y propiedades de los circuitos
Resistencia · Capacitancia · Inductor · Condensador · Fuente eléctrica
[mostrar]Circuito eléctrico
Clasificación · Partes de un circuito · Circuitos de corriente continua · Divisor de tensión · Divisor de corriente · Circuitos resistivos · Circuitos RL y RCCircuito RLC · Circuitos de corriente alterna · Circuitos resistivos ·
[mostrar]Técnicas de análisis de circuitos
Análisis de nodos · Análisis de mallas · Método de la fuente equivalente ·
[mostrar]Teoremas fundamentales
Análisis de nodos · Análisis de mallas · Método de la fuente equivalente ·
Esta caja: ver • discusión • editar
Las leyes (o Lemas) de Kirchhoff fueron formuladas por Gustav Robert Kirchhoff en 1845, cuando aún era estudiante. Estas son:
la Ley de los nodos o ley de corrientes.
la Ley de las "mallas" o ley de tensiones.
Son muy utilizadas en ingeniería eléctrica para obtener los valores de intensidad de corriente y potencial en cada punto de un circuito eléctrico. Surgen de la aplicación de la ley de conservación de la energía.
En circuitos complejos, así como en aproximaciones de circuitos dinámicos, se pueden aplicar utilizando un algoritmo sistemático, sencillamente programable en sistemas de cálculo informatizado mediante matrices de un solo núcleo.
Contenido [ocultar]
1 Leyes
1.1 Ley de nodos o ley de corrientes de Kirchhoff
1.2 Ley de mallas o ley de tensiones de Kirchhoff
2 Notas
3 Véase también
4 Enlaces externos
Leyes [editar] Ley de nodos o ley de corrientes de Kirchhoff [editar]Véase también: Análisis de nodos
1a. Ley de circuito de Kirchoff.(KCL - Kirchoff's Current Law - en sus siglas en inglés o LCK, ley de corriente de Kirchoff, en español)
En todo nodo, donde la densidad de la carga no varíe en el tiempo, la suma de la corriente entrante es igual a la suma de la corriente saliente.
Donde Ie es la corriente entrante e Is la corriente saliente.
De igual forma, La suma algebraica de todas las corrientes que pasan por el nodo (entrantes y salientes) es igual a 0 (cero).
.
Ley de mallas o ley de tensiones de Kirchhoff [editar]Véase también: Análisis de malla
2a. Ley de circuito de Kirchoff.(KVL - Kirchoff's Voltage Law - en sus siglas en inglés. LVK - Ley de voltaje de Kirchoff en español.)
* En toda malla la suma de todas las caídas de tensión es igual a la suma de todas las subidas de tensión.
Donde, V+ son las subidas de tensión y V- son las caídas de tensión.
De forma equivalente, En toda malla la suma algebraica de las diferencias de potencial eléctrico debe ser 0 (cero).
De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda
«Leyes de Kirchhoff» redirige aquí. Para otras acepciones, véase Ley de Kirchhoff de la radiación térmica.
Teoría de circuitos
Electricidad [ocultar]Conceptos básicos
Campo eléctrico · Campo magnético · Tensión · Corriente · Ley de Ohm · Potencia · Energía · Ley de Joule · Leyes de Kirchhoff · Partes de un circuito
[mostrar]Tipos de señales
Corrientes periódica · Corriente pulsatoria · Parámetros característicos · Corrientes transitorias · Corriente alterna
[mostrar]Componentes y propiedades de los circuitos
Resistencia · Capacitancia · Inductor · Condensador · Fuente eléctrica
[mostrar]Circuito eléctrico
Clasificación · Partes de un circuito · Circuitos de corriente continua · Divisor de tensión · Divisor de corriente · Circuitos resistivos · Circuitos RL y RCCircuito RLC · Circuitos de corriente alterna · Circuitos resistivos ·
[mostrar]Técnicas de análisis de circuitos
Análisis de nodos · Análisis de mallas · Método de la fuente equivalente ·
[mostrar]Teoremas fundamentales
Análisis de nodos · Análisis de mallas · Método de la fuente equivalente ·
Esta caja: ver • discusión • editar
Las leyes (o Lemas) de Kirchhoff fueron formuladas por Gustav Robert Kirchhoff en 1845, cuando aún era estudiante. Estas son:
la Ley de los nodos o ley de corrientes.
la Ley de las "mallas" o ley de tensiones.
Son muy utilizadas en ingeniería eléctrica para obtener los valores de intensidad de corriente y potencial en cada punto de un circuito eléctrico. Surgen de la aplicación de la ley de conservación de la energía.
En circuitos complejos, así como en aproximaciones de circuitos dinámicos, se pueden aplicar utilizando un algoritmo sistemático, sencillamente programable en sistemas de cálculo informatizado mediante matrices de un solo núcleo.
Contenido [ocultar]
1 Leyes
1.1 Ley de nodos o ley de corrientes de Kirchhoff
1.2 Ley de mallas o ley de tensiones de Kirchhoff
2 Notas
3 Véase también
4 Enlaces externos
Leyes [editar] Ley de nodos o ley de corrientes de Kirchhoff [editar]Véase también: Análisis de nodos
1a. Ley de circuito de Kirchoff.(KCL - Kirchoff's Current Law - en sus siglas en inglés o LCK, ley de corriente de Kirchoff, en español)
En todo nodo, donde la densidad de la carga no varíe en el tiempo, la suma de la corriente entrante es igual a la suma de la corriente saliente.
Donde Ie es la corriente entrante e Is la corriente saliente.
De igual forma, La suma algebraica de todas las corrientes que pasan por el nodo (entrantes y salientes) es igual a 0 (cero).
.
Ley de mallas o ley de tensiones de Kirchhoff [editar]Véase también: Análisis de malla
2a. Ley de circuito de Kirchoff.(KVL - Kirchoff's Voltage Law - en sus siglas en inglés. LVK - Ley de voltaje de Kirchoff en español.)
* En toda malla la suma de todas las caídas de tensión es igual a la suma de todas las subidas de tensión.
Donde, V+ son las subidas de tensión y V- son las caídas de tensión.
De forma equivalente, En toda malla la suma algebraica de las diferencias de potencial eléctrico debe ser 0 (cero).
miércoles, 2 de junio de 2010
MOMENTO DE UNA FUERZA
Equilibrio Traslacional
Recuerda que existieron fuerzas que son del resultado del contacto físico entre dos objetos, por ejemplo cuando jalas o empujas un objeto.
Pero también hay fuerzas que no implican contacto físico y se le llama campo de fuerza, como la fuerza eléctrica, magnética y gravitacional.
Las fuerzas son cantidades vectoriales y cuando hablamos de la fuerza neta sobre el .Si la fuerza de un objeto nos referimos a la suma vectorial de todas las fuerzas que actúan sobre él. Si la fuerza neto sobre un objeto no es cero se puede aplicar la segunda ley de Newton. “La aceleración de un objeto es directamente proporcional a la fuerza neta que actúa sobre el e inversamente proporcional a su masa”.
Recuerda que la masa y el peso de un objeto son cantidades físicas diferentes. La masa es una medida de la inercia de un objeto o, en palabras simples, es la cantidad de materia de un objeto. En cambio el peso es una medida de la fuerza gravitacional entre el objeto y la tierra.
Un objeto esta en equilibrio traslacional cuando está en un lugar en reposo o bien se mueve en línea recta con una velocidad constante.ϵF=0.
IMAGENES FORMADAS EN ESPEJOS ESFERICOS
El mejor método para estudiar la formación de imágenes en los espejos es por medio de la óptica geométrica .Este método consiste en considera la reflexión de pocos rayos divergentes de algún punto de un objeto ó que no se encuentre en el eje del espejo.
El punto en el cual se intersecan todos los rayos reflejados determinara la ubicación de la imagen.
Cada uno de los rayos en un espejo convergente y divergente sigue las siguientes reglas:
• Rayo I Un rayo paralelo al eje del espejo pasa ´por el punto focal de un espejo cóncavo o parece provenir del punto focal de un espejo convexo.
• Rayo II Un rayo que pasa por el punto focal de un espejo cóncavo se refleja paralelamente al eje del espejo.
• Rayo III Un rayo que avanza a lo largo de un radio del espejo se refleja a lo largo de su trayectoria original.
En cualquier situación solo son necesarios dos rayos para localizar la imagen de un punto.
Reflexión: La reflexión de la luz ocurre cuando un rayo incluye sobre la superficie
Refracción: La refracción de la luz ocurre cuando un rayo pasa de un medio de propagación a otro.
Difracción: La luz rodea directamente los bordes de los objetos.
TERMODINAMICA
1ra Ley Procesos Isotérmico
Isobárico
Adobatico
Isocórico
2da Ley Maquinas térmica
Entropía Medición
La termodinámica estudia las transformaciones físicas y químicas de la materia, se encarga de estudiar las transformaciones de la energía térmica en energía mecánica, la conversión de trabajo en calor.
Primera Ley El calor agregado aun sistema es igual a la suma del incremento en la energía interna y el trabajo externo realizado por el sistema, se aplica a diferentes tipos de procesos de un sistema cerrado de un gas ideal.
Q=∆U+W
Q=Es el calor agregado
∆U=El incremento de la energía interna
W=El trabajo realizado
Isotérmico Un proceso que se desarrolla a temperatura constante. Q=W
Isobárico Un proceso que se realiza a presión constante, sigue una trayectoria horizontal a la que llamamos isóbara.
W P(V2-V1)
Isocórico Cuando en un proceso el volumen del sistema permanece constante.
W=P∆V=0
Q=∆U
Adiobático Cuando el sistema no intercambia calor con sus alrededores.
Q=0
∆U=-W
Segunda ley Existen diferentes enunciados. Él primero nos dice que el calor pasa de una región de alta temperatura a una baja temperatura. E= Tf
Tc
Maquina térmica En cualquier dispositivo capaz de convertir energía térmica en trabajo mecánico.
Entropía La medida del desorden de un sistema.
Suscribirse a:
Entradas (Atom)