jueves, 3 de diciembre de 2015

Luz

Marco Histórico: 

¿Qué es la luz? 

El intento de responder esta cuestión ha desarrollado diferentes teorías se han ido elaborando para interpretar la naturaleza de la luz hasta llegar al conocimiento actual. Las primeras aportaciones conocidas pertenecen a los griegos; entre ellas podemos citar a Lepucio (450 a.C.) que pertenecía a la escuela atomista. El consideraba que los cuerpos eran focos que desprendían imágenes, los que eran captados por los ojos y de éstos pasaban al alma que los interpretaba. También encontramos partidarios de la escuela pitagórica que afirmaban justamente lo contrario: no eran los objetos los focos emisores, sino los ojos. Sostenían que el ojo palpaba los objetos mediante una fuerza invisible a modo de tentáculo, y al explorar los objetos determinaba sus dimensiones y color. Dentro de la misma escuela, Euclides (300 a.C.) introdujo el concepto de rayo de luz emitido por el ojo, que se propagaba en línea recta hasta alcanzar el objeto.
No olvidemos que los griegos despreciaban explicar sus ideas en base a la experiencia; por lo cual, si bien, se abocaron a la solución de estos problemas, no encontraron respuestas adecuadas (desde nuestro punto de vista). Recién en el siglo XV (a partir de Galileo) se desarrolla la física como ciencia y, con los avances realizados por la ciencia y la técnica, surgieron, posteriormente, muchos estudiosos que produjeron importantes avances mediante trabajos sobre la luz y los fenómenos luminosos. Aunque hubo algunos casos de excepción, como el árabe Ajasen Basora (965-1039) que describió a la luz como un proyectil que provenía del Sol, rebota en los objetos llegando de esta manera al ojo; es Isaac Newton (1642 - 1727) el que formula la primera hipótesis científica sobre la naturaleza de la luz.

Modelo corpuscular: Conocida como teoría corpuscular o de la emisión, es el primer modelo exitoso en explicar el comportamiento de la luz. En gran parte se debe a la autoridad de Newton, ya que en esa misma época el modelo ondulatorio trataba de explicar el mismo fenómeno.

A finales del siglo XVI, con el uso de lentes e instrumentos ópticos, empezaron a observar, analizar y experimentar los fenómenos luminosos, siendo el holandés Willebrord Snell, en 1620, quién descubrió de manera experimental la ley de la refracción, aunque no fue conocida hasta que, en 1638, René Descartes (1596-1650) publicó su tratado "Óptica". Descartes fue el primer gran defensor de la teoría corpuscular, diciendo que la luz se comportaba como un proyectil que se propulsaba a velocidad infinita. Sin especificar absolutamente nada sobre su naturaleza y rechazando que cierta materia fuera de los objetos al ojo, explicó claramente el fenómeno de reflexión (por el cual podemos vernos en un espejo), pero tuvo alguna dificultad con la refracción (paso del haz de luz de un medio a otro).

En 1672 Newton envió una breve exposición de su teoría de los colores a la Royal Society de Londres. Su publicación provocó tantas críticas que confirmaron su recelo a las publicaciones, por lo que se retiró a la soledad de su estudio en Cambridge. En 1704, sin embargo, publicó su obra Óptica, en la que explicaba detalladamente su teoría. En esta obra explicaba que las fuentes luminosas emiten corpúsculos muy livianos que se desplazan a gran velocidad y en línea recta. Según su teoría la variación de intensidad de la fuente luminosa era proporcional a la cantidad de corpúsculos que emitía en determinado tiempo. La reflexión de la luz consistía en la incidencia de dichos corpúsculos en forma oblicua sobre una superficie espejada, de manera que al llegar a ella variaba de dirección pero siempre en el mismo medio. La igualdad del ángulo de incidencia con el de reflexión se debía a que tanto antes como después de la reflexión los corpúsculos conservaban la misma velocidad (debido a que permanecían en el mismo medio). La refracción la resolvió expresando que los corpúsculos que inciden oblicuamente en una superficie de separación de dos medios de distinta densidad son atraídos por la masa del medio más denso y, por lo tanto, aumenta la componente de la velocidad que es la velocidad que es perpendicular a la superficie de separación, razón por la cual los corpúsculos luminosos se acercan a la normal. El fenómeno de la birrefrigencia del espato de Islandia descubierto por el danés Bartholinus en 1669, quiso ser justificado por Newton  suponiendo que los corpúsculos del rayo podían ser rectangulares y sus propiedades variar según su orientación respecto a la dirección de la propagación.
Según lo expresado por Newton en su obra, la velocidad de la luz aumentaría en los medios de mayor densidad, lo cual contradice los resultados de los experimentos realizados años después. Esta explicación, contradictoria con los resultados experimentales sobre la velocidad de la luz en medios más densos que el vacío, obligó al abandono de la teoría corpuscular para adoptar el modelo ondulatorio.


Modelo ondulatorio: Desde otro punto de vista, Christian Huygens (astrónomo, matemático y físico holandés) en el año 1678, describe y explica lo que hoy se considera las leyes de reflexión y refracción. Define a la luz como un movimiento ondulatorio semejante a la propagación del sonido, de tipo mecánico, que necesita un medio material para propagarse. 
Supuso tres hipótesis:
  1. Todos los puntos de un frente de ondas son centros emisores de ondas secundarias.
  2. De todo centro emisor se propagan ondas en todas direcciones del espacio con velocidad distinta en cada medio.
  3. Como la luz se propaga en el vacío y necesita un material perfecto sin rozamiento, supuso que todo el espacio estaba ocupado por éter.
Las ondas mecánica requieren de algún medio material que las transporte, para las ondas lumínicas se suponía la existencia de una materia insustancial e invisible a la cual se le llamó éter, la que debía estar esparcida por todo el espacio. Justamente la existencia del éter fue el principal problema de la teoría ondulatoria. 
En aquella época, la teoría de Huygens no fue muy considerada, fundamentalmente, y tal como se ha mencionado, dado al prestigio que alcanzó Newton. Pasó más de un siglo para que fuera tomada en cuenta gracias a los experimentos del médico inglés Thomas Young sobre los fenómenos de interferencias luminosas, y los del físico francés Auguste J. Fresnel sobre la difracción, que fueron decisivos para que se colocara en la tabla de estudios de los físicos sobre la luz, la propuesta realizada por Huygens en el siglo XVII .
Thomas Young demostró experimentalmente un hecho paradójico que no se podía explicar desde la teoría corpuscular: la suma de dos fuentes luminosas pueden producir menos luminosidad que por separado. Su experiencia consistía en  practicar dos minúsculas ranuras muy próximas entre sí sobre una tela negra en la que se hace incidir luz de un pequeño y distante foco apareciendo sobre la pantalla (colocada a determinada distancia de la tela)  en forma de líneas alternativamente brillantes y oscuros. ¿Cómo explicar el efecto de ambas ranuras, que por separado darían un campo iluminado, combinadas producen sombra en ciertas zonas? Young logró explicar la alternancia de las franjas asociando las ondas de luz al comportamiento de las ondas acuáticas. Si las ondas suman sus crestas hallándose en concordancia de fase, la vibración resultante será intensa y se verá una zona clara. Por el contrario, si la cresta de una onda coincide con el valle de la otra, la vibración resultante será nula, viéndose una zona oscura. Deducción simple imputada a una interferencia y se desarrolla la idea de la luz como estado vibratorio de una materia insustancial e invisible, el éter, al cual se le resucita.

Ahora bien, la colaboración de Auguste Fresnel para el rescate de la teoría ondulatoria de la luz estuvo dada por el aporte matemático que le dio rigor a las ideas propuestas por Young y la explicación que presentó sobre el fenómeno de la polarización al transformar el movimiento ondulatorio longitudinal, supuesto por Huygens y ratificado por Young, quien creía que las vibraciones luminosas se efectuaban en dirección paralela a la propagación de la onda luminosa, en transversales. Pero aquí, y pese a las sagaces explicaciones que incluso rayan en las adivinanzas dadas por Fresnel, inmediatamente queda presentada una gran contradicción a esta doctrina, ya que no es posible que se pueda propagar en el éter la luz por medio de ondas transversales, debido a que éstas sólo se propagan en medios sólidos.
En su trabajo, Fresnel explica una multiplicidad de fenómenos manifestados por la luz polarizada. Observa que dos rayos polarizados ubicados en un mismo plano se interfieren, pero no lo hacen si están polarizados entre sí cuando se encuentran perpendicularmente. Este descubrimiento lo invita a pensar que en un rayo polarizado debe ocurrir algo perpendicularmente en dirección a la propagación y establece que ese algo no puede ser más que la propia vibración luminosa. La conclusión se impone: las vibraciones en la luz no pueden ser longitudinales, como Young lo propusiera, sino perpendiculares a la dirección de propagación, transversales.
Las distintas investigaciones y estudios que se realizaron sobre la naturaleza de la luz, en la época engendraron aspiraciones de mayores conocimientos sobre la luz. Entre ellas, se encuentra la de lograr medir la velocidad de la luz con mayor exactitud que la permitida por las observaciones astronómicas (En 1670 el astrónomo danés Olaf Roemer pudo calcular la velocidad de la luz observando el eclipse de una de las lunas de Jupiter). Hippolyte Fizeau (1819- 1896) concretó el proyecto en 1849 con un clásico experimento. Hizo pasar la luz reflejada por dos espejos entre los intersticios de una rueda girando rápidamente, determinó la velocidad que podría tener la luz en su trayectoria, que estimó aproximadamente en 300.000 km./s. Después de Fizeau, lo siguió León Foucault (1819 – 1868) al medir la velocidad de propagación de la luz a través del agua. Este experimento fue de gran interés, ya que sirvió de criterio para analizar la veracidad beligerante entre la teoría corpuscular y la ondulatoria. La primera teoría requería que la velocidad fuese mayor en el agua que en el aire; lo contrario exigía, la segunda. En sus experimentos logró comprobar que la velocidad de la luz cuando transcurre por el agua es inferior a la que desarrolla cuando transita por el aire. La teoría ondulatoria adquiere cierta preeminencia sobre la corpuscular, y pavimenta el camino hacia la gran síntesis realizada por Maxwell.

Velocidad de la Luz: en 1670, por primera vez en la historia, el astrónomo danés Olaf Roemer (1644-1710) pudo calcular la velocidad de la luz. Se hallaba estudiando los eclipses de una de las lunas de Júpiter, cuyo período había determinado tiempo atrás. Estaba en condiciones de calcular cuales serían los próximos eclipses. Se dispuso a observar uno de ellos, y con sorpresa vio que a pesar de que llegaba el instante tan cuidadosamente calculado por él, el eclipse no se producía. El satélite demoró 996 seg. en desaparecer. Presupuso que la demora era producida debido a que la luz debía recorrer una distancia suplementaria de 299.000.000 Km., que es el diámetro de la órbita terrestre. Su observación anterior correspondía a una estación distinta del año y la posición de la Tierra no era la misma. 

Suponiendo que la luz se propagara a velocidad constante y en línea recta se puede calcular la velocidad de propagación dividiendo el espacio recorrido por el tiempo tardado: Vluz = 299.000.000 Km : 996 seg. = 300.200 Km/seg.

Observaciones posteriores llevaron a la conclusión que el atraso en cuestión era de 1.002 seg., lo cual da por resultado que la velocidad de la luz sería de 298.300 Km/seg.

En 1849, el físico francés Fizeau, logró medir la velocidad de la luz mediante una experiencia hecha en la Tierra. Para calcular la velocidad con la que la luz realizaba el recorrido total, colocó una rueda dentada delante del haz luminoso, de modo que los dientes bloquearan la luz y los espacios intermedios la dejaran pasar. La velocidad de rotación de la rueda, muy elevada, se regulaba de modo que la luz que pasaba entre dos dientes tuviera justo el tiempo de llegar hasta la ventana y volver, antes de ser ocultada por el siguiente diente. Conociendo la distancia recorrida por el haz luminoso y la velocidad de rotación de la rueda, Fizeau obtuvo una medida de la velocidad de la luz 
La rueda tiene igual cantidad de dientes y espacios entre ellos, X dientes y X espacios, por lo tanto su perímetro será 2X. Da n vueltas por segundo (que es la frecuencia con que gira), o sea que,  por cada segundo pasan 2 xn dientes y espacios. El tiempo es inversamente proporcional a la frecuencia, de allí que: t = (2xn) -1.
Cuando no llega mas luz al observador es evidente que los tiempos de ida y de vuelta son iguales. Aplicando las ecuaciones de MRU tenemos: v = 2d / t  = 2d / (2xn) – 1 = 2d . 2 xn = 4d xn
Fizeau colocó el espejo a 8.633 m del observador, la rueda tenía 760 dientes y giraba a 12,6 revoluciones por segundo.
Si aplicamos la fórmula obtenida, resultará: v = 313.274 Km./seg.

León Foucault y  Fizeau (casi simultáneamente), hallaron en 1850 un método que permite medir la velocidad de la luz en espacios reducidos. La idea consiste en enviar un haz de luz sobre un espejo giratorio haciéndole atravesar una lámina de vidrio semitransparente y semirreflectora, un espejo fijo devuelve el rayo y atraviesa luego lámina observándose la mancha luminosa en una pantalla. Con este método se obtuvo que:  v = 295.680 Km./seg.

En general todas las mediciones de que se tiene conocimiento obtuvieron resultados entre 298.000 Km/seg y 313.300 Km/seg sin embargo se toma como velocidad de la luz la de 300.000 Km/seg por ser un término medio entre los valores obtenidos y por ser una cifra exacta que facilitan los cálculos.


Modelo electromagnético: los físicos sabían desde principios del siglo XIX que la luz se propaga como una onda transversal (una onda en la que las vibraciones son perpendiculares a la dirección de avance del frente de ondas). Sin embargo, suponían que las ondas de luz requerían algún medio material para transmitirse, por lo que postulaban la existencia de una sustancia difusa, llamada éter, que constituía el medio no observable. Maxwell apareció con una teoría que hacía innecesaria esa suposición, pero el concepto de éter no se abandonó inmediatamente, porque encajaba con el concepto newtoniano de un marco absoluto de referencia espaciotemporal.

James Clerk Maxwell (1831-1879), físico inglés, dio en 1865 a los descubrimientos sobre la relación entre campos eléctricos y magnéticos había realizado el genial autodidacta Michael Faraday , un andamiaje matemático y logró reunir los fenómenos ópticos y electromagnéticos hasta entonces identificados dentro del marco de una teoría de reconocida hermosura y de acabada estructura. En la descripción que hace de su propuesta, Maxwell propugna que cada cambio del campo eléctrico engendra en su proximidad un campo magnético, e inversamente cada variación del campo magnético origina uno eléctrico.
Dado que las acciones eléctricas se propagan con velocidad finita de punto a punto, se podrán concebir los cambios periódicos - cambios en dirección e intensidad - de un campo eléctrico como una propagación de ondas. Tales ondas eléctricas están necesariamente acompañadas por ondas magnéticas indisolublemente ligadas a ellas (variación de campos inducidos). Los dos campos, eléctrico y magnético, periódicamente variables, están constantemente perpendiculares entre sí y a la dirección común de su propagación. Son, pues, ondas transversales semejantes a las de la luz. Por otra parte, las ondas electromagnéticas se transmiten, como se puede deducir de las investigaciones de Weber y Kohlrausch, con la misma velocidad que la luz. De esta doble analogía, y haciendo gala de una espectacular volada especulativa Maxwell termina concluyendo que la luz consiste en una perturbación electromagnética que se propaga en el éter. Ondas eléctricas y ondas luminosas son fenómenos idénticos.
Veinte años más tarde, Heinrich Hertz (1857-1894) comprueba que las ondas hertzianas de origen electromagnético tienen las mismas propiedades que las ondas luminosas, estableciendo con ello, definitivamente, la identidad de ambos fenómenos.

Hertz, en 1888, logró producir ondas por medios exclusivamente eléctricos y, a su vez, demostrar que estas ondas poseen todas las características de la luz visible, con la única diferencia de que las longitudes de sus ondas son manifiestamente mayores. Ello, deja en evidencia que las ondas eléctricas se dejan refractar, reflejar y polarizar, y que su velocidad de propagación es igual a la de la luz. La propuesta de Maxwell quedaba confirmada: ¡la existencia de las ondas electromagnéticas era una realidad inequívoca! Establecido lo anterior, sobre la factibilidad de transmitir oscilaciones eléctricas sin inalámbricas, se abrían las compuertas para que se produjera el desarrollo de una multiplicidad de inventivas que han jugado un rol significativo en la evolución de la naturaleza humana contemporánea.

Pero las investigaciones de Maxwell y Hertz no sólo se limitaron al ámbito de las utilizaciones prácticas, sino que también trajeron con ellas importantes consecuencias teóricas. Todas las radiaciones se revelaron de la misma índole física, diferenciándose solamente en la longitud de onda en la cual se producen. Su escala comienza con las largas ondas hertzianas y, pasando por la luz visible, se llegan a la de los rayos ultravioletas, los rayos X, los radiactivos, y los rayos cósmicos.

Sin embargo, la teoría electromagnética de Maxwell, pese a su belleza, deja sin explicación fenómenos como el fotoeléctrico, y la emisión de luz por cuerpos incandescentes. En consecuencia, pasado el entusiasmo inicial, fue necesario para los físicos, como los hizo Planck (a regañadientes) en 1900, retomar la teoría corpuscular. La salida al dilema que presentaban las diferentes teorías sobre la naturaleza de la luz, empezó a tomar forma en 1895 en la mente de un estudiante de dieciséis años, Albert Einstein, que en el año 1905, en un ensayo publicado en el prestigioso periódico alemán Anales de la física, abre el camino para eliminar la dicotomía que existía sobre las consideraciones que se hacían sobre la luz al introducir el principio que más tarde se haría famoso como relatividad. 

La luz es, de acuerdo a la visión actual, una oscilación electromagnética que se propaga en el vacío cuya longitud de onda es muy pequeña, unos 6.500 Å para la luz roja y unos 4.500 Å para la luz azul. (1Å = un Angstrom, corresponde a una décima de milimicra, esto es, una diez millonésima de milímetro).

Por otra parte, la luz es una parte insignificante del espectro electromagnético. Más allá del rojo está la radiación infrarroja; con longitudes de ondas aún más largas la zona del infrarrojo lejano, las microondas de radio, y luego toda la gama de las ondas de radio, desde las ondas de centímetros de longitud, metros y decámetros, hasta las ondas largas de radiocomunicación, con longitudes de cientos de metros y más. Por ejemplo, el dial de amplitud modulada, la llamada onda media, va desde 550 y 1.600 kilociclos por segundo, que corresponde a una longitud de onda de 545 a 188 metros, respectivamente.

Radio AM
Onda Corta
Radio FM
Microondas
Infrarrojos
Ultravioleta
Rayos X
Rayos g

En física, se identifica a las ondas por lo que se llama longitud de onda, distancia entre dos máximos y por su frecuencia, número de oscilaciones por segundo, que se cuenta en un punto, y se mide en ciclos por segundo (oscilaciones por segundo). El producto de ambas cantidades es igual a la velocidad de propagación de la onda.

En el otro extremos del espectro electromagnético se encuentra la radiación ultravioleta, luego los rayos x y a longitudes de onda muy diminutas los rayos .
La atmósfera terrestre es transparente sólo en la región óptica, algo en el infrarrojo y en la zona de ondas de radio. Por ello, es que la mayor información que hemos obtenido sobre el universo ha sido a través de la ventana óptica, aunque en las últimas décadas la radioastronomía ha venido jugando un rol sustancial en la entrega de conocimientos sobre el cosmos, proporcionando datos cruciales. Observaciones en el ultravioleta, rayos X y , como así también de parte del infrarrojo, hay que efectuarlas con instrumentos ubicados fuera de la atmósfera de la Tierra. Sin embargo, es posible también obtener resultados en el infrarrojo con instrumentación alojada en observatorios terrestres empotrados a gran altura sobre el nivel del mar o con tecnología puesta en aviones o globos que se eleven por sobre la baja atmósfera, que contiene la mayor parte del vapor de agua, que es la principal causa de la absorción atmosférica en el infrarrojo.

Longitud de Onda de De Broglie: En 1924, Louis de Broglie, plantea la posibilidad de asociar una función de onda a las partículas. El razonamiento lo hace por criterios de simetría con respecto a la necesidad de asignar propiedades corpusculares a la radiación electromagnética (cuya conveniencia es el resultado de analizar experiencias como por ejemplo los efectos fotoeléctrico y Compton). Una consecuencia inmediata del principio de De Broglie es la interpretación de las leyes de cuantificación utilizadas, por ejemplo, en el modelo atómico de Bohr, como equivalentes a considerar solo aquellas mal llamadas "órbitas" cuya longitud hace que la onda del electrón sea estacionaria. 

La hipótesis de de Broglie adquiere fuerza con los resultados del experimento de Davisson y Germer, entre otros, en los que un haz de electrones acelerados produce un patrón de interferencia, resultado típicamente ondulatorio, al ser dispersado por un cristal de Níquel. Las conclusiones de los experimentos de difracción de haces de partículas, y de interpretación del efecto Compton, así como otras experiencias con radiación electromagnética, hacen que nos cuestionemos sobre la "verdadera" naturaleza de la materia y de las radiaciones, ¿son ondas o partículas?. El principio de Complementariedad de Niels Bohr, nos indica la dualidad de ondas y partículas, siendo el experimento planteado el que determine el modelo a utilizar. 

En vista de la necesidad de asociar una función de onda a las partículas, nos induce a plantear la posible interpretación física de la misma. Los conocimientos previos de campos electromagnéticos, unidos a la interpretación corpuscular de la radiación electromagnética, indujeron a Albert Einstein a interpretar el cuadrado de la amplitud del campo eléctrico como una medida de la densidad de fotones de un haz, por tanto, la densidad de partículas de un haz podría asociarse al cuadrado de la amplitud de la función de onda de materia. Sin embargo, el significado de la función de ondas de una única partícula no queda claro. Max Born, sugiere que en ese caso la interpretación es la de una densidad de probabilidad de presencia de la partícula entorno a una posición determinada del espacio y en un instante de tiempo. Queda de esta forma asociada la función de onda a una probabilidad, concepto contrapuesto, en cierta medida, al determinismo asociado a la "posición espacial" de la física clásica (una de las muchas "oposiciones" de la mecánica relativista y la mecánica clásica). 

Haciendo uso, una vez más, de los conocimientos del electromagnetismo se representa a las partículas por medio de ondas armónicas, u ondas planas. Sin embargo la interpretación de Born conduce a una total "deslocalización" espacial para éstas partículas, se tiene por tanto, que introducir paquetes de ondas, es decir superposición de ondas planas, para poder limitar la deslocalización de la partícula a una zona de dimensiones finitas. Ahora bien, matemáticamente, para construir un paquete de ondas de dimensiones espaciales finitas, se necesita un rango de vectores de ondas distintos. Si el paquete es una representación de la onda de materia, puede concluirse, que cuanto más localizada esté una partícula, más amplio será el espectro de vectores de ondas, es decir de cantidades de movimiento, necesario. Este es el concepto básico contenido en el Principio de Indeterminación de Heisemberg. Éste principio destruye por completo el determinismo clásico ya que impide la definición, con absoluta precisión, de las condiciones iniciales de un sistema físico, premisa en que se basa la supuesta posibilidad de predecir, de nuevo con absoluta precisión según la física clásica, la evolución futura del sistema.
Luis de Broglie fue quien señaló que las partículas poseían no sólo características de tales sino también de ondas, lo que llevó al señalamiento jocoso de que los electrones se comportaban como partículas los lunes, miércoles y viernes y como ondas los martes y jueves. Ya se conocía, gracias a Einstein, que el fotón podía ser descrito por su masa en reposo y por su frecuencia lo que llevó a relacionar el momento del fotón (característica de partícula) con la frecuencia (característica de onda), y a de Broglie a proponer que esta asociación era característica de todas las partículas, no sólo del fotón, lo que se esquematiza en la siguiente ecuación: p . λ = h

De esta asociación entre partículas y ondas es que surge luego la teoría ondulatoria de Schrödinger que representa un paso adelante, (ó varios para atrás, según algunos físicos que se dedican a física cuántica).   

Ondas electromagnéticas

Son ondas producidas por la oscilación o la aceleración de una carga eléctrica. Las ondas electromagnéticas tienen componentes eléctricos y magnéticos. La radiación electromagnética se puede ordenar en un espectro que se extiende desde ondas de frecuencias muy elevadas (longitudes de onda pequeñas) hasta frecuencias muy bajas (longitudes de onda altas). La luz visible es sólo una pequeña parte del espectro electromagnético. Por orden creciente de longitudes de onda (orden decreciente de frecuencias), se ha confeccionado una escala denominada espectro electromagnético. Esta escala indica que la l puede ser desde miles de metros hasta 0,3 m aproximadamente en el caso de las ondas de radio; desde allí hasta 1 mm las micro ondas; desde él milímetro hasta los 780 mm tenemos a los rayos infrarrojos. La luz visible es una franja estrecha que va desde los 780 mm hasta los 380 mm. La luz ultra violeta se encuentra entre los 3,8 10-7m y los 10-9m (entramos en la medida de los nanómetros). Los rayos x se ubican entre 10-9m y 10-11m. Los rayos gamma están entre los 10-11 m y 10-17m.
La medida de las l suelen medirse en nanómetro, o nm, que es una millonésima de milímetro. 10 - 9 m = 1 nm


Ondas
Radio AM
Onda Corta
Radio FM
Microondas
Infrarrojos
Ultravioleta
Rayos x
Rayos Gamma
λ(cm)
3.10 4
3.10 3
3.10 2
3
10 - 3
10 - 6
10 - 8
10 - 10


Propiedades: Las ondas electromagnéticas no necesitan un medio material para propagarse; pueden atravesar el espacio desplazándose en el vacío a una velocidad aproximada de 300.000 km/s a la que se denomina con la letra c. Todas las radiaciones del espectro electromagnético presentan las propiedades típicas del movimiento ondulatorio, como la difracción y la interferencia. Las longitudes de onda van desde billonésimas de metro hasta muchos kilómetros. La longitud de onda (l) y la frecuencia (f) de las ondas electromagnéticas, relacionadas mediante la expresión l · f = c, son importantes para determinar su energía, su visibilidad, su poder de penetración y otras características.

Breve resumen de Teoría: Ecuaciones de Maxwell


El físico británico James Clerk Maxwell estableció la teoría de las ondas electromagnéticas en una serie de artículos publicados en la década de 1860. Maxwell analizó matemáticamente la teoría de los campos electromagnéticos y afirmó que la luz visible no era otra cosa que una onda electromagnética. 
Un campo eléctrico y otro magnético variables se inducen el uno al otro acoplándose juntos como una onda electromagnética que viaja a través del espacio. En 1865 Maxwell unificó las leyes de Faraday, Gauss y Ampere formando un conjunto de ecuaciones que relacionan entre sí las variaciones espaciales y temporales de la intensidad del campo eléctrico E y la inducción magnética B.


Aquí las propiedades magnéticas y eléctricas del medio, en este caso el vacío, se representan por las constantes Îo y mo, la permisividad y permeabilidad, respectivamente. Operando sobre las ecuaciones, Maxwell llegó a demostrar que cada componente del campo eléctrico y magnético obedece a una ecuación diferencial de una onda. En forma explícita:


Lo mismo puede plantearse para E y B (no importa la dirección), donde los campos son perpendiculares entre sí y a la dirección de propagación.

Vector PoyntingIndica la dirección del flujo de energía (f) de una onda electromagnética. Este vector se determina por su valor promedio y siempre apunta en sentido de la propagación de la onda.


Interferencia: es una propiedad ondulatoria por la que un dos haces de ondas interactúan entre ellos. 

Podemos tener dos fuentes distintas que emiten ondas. En un sector de nuestro plano las ondas interaccionan interfiriéndose mutuamente, produciendo una tercer onda cuya longitud de onda y frecuencia pueden ser iguales o distintas a las anteriores. Si esta interferencia es destructiva se verá una franja más oscura (mínimo) y si es constructiva, una franja brillante (máximo).



Interferencia de ondas electromagnética: 

Si dos ondas de la misma frecuencia avanzan más o menos en la misma dirección y tienen una diferencia de fase que permanece constante en el transcurso del tiempo, pueden combinarse de tal manera que su energía no se distribuye uniformemente en el espacio, sino que es máxima en ciertos puntos y mínima en otros. La demostración de tales efectos de interferencia para el caso de la luz efectuada por Young en 1801 estableció por primera vez la teoría ondulatoria sobre una base experimental firme.

Cuantos de Radiación: No obstante, a principios del siglo XX los físicos se dieron cuenta de que la teoría ondulatoria no explicaba todas las propiedades de la radiación. En 1900, el físico alemán Max Planck demostró que la emisión y absorción de radiación se produce en unidades finitas de energía denominadas ‘cuantos’. En 1904, Albert Einstein consiguió explicar algunos resultados experimentales sorprendentes en relación con el efecto fotoeléctrico externo postulando que la radiación electromagnética puede comportarse como un chorro de partículas.
Hay otros fenómenos de la interacción entre radiación y materia que sólo la teoría cuántica explica. Así, los físicos modernos se vieron obligados a reconocer que la radiación electromagnética se comporta unas veces como partículas y otras como ondas. El concepto paralelo que implica que la materia también puede presentar características ondulatorias además de corpusculares fue desarrollado en 1925 por el físico francés Louis de Broglie.


martes, 1 de diciembre de 2015

Ondas Mecánicas

La materia y la energía están íntimamente relacionadas. La primera está representada por partículas y la segunda por "ondas", aunque hoy en día esa separación no está tan clara. En el mundo subatómico "algo" puede comportarse como partícula u onda según la experiencia que se esté haciendo. Por ejemplo, la electricidad está constituida por electrones y estos presentan este doble comportamiento.

Las ondas:

Comencemos imaginando un estanque cuya agua está quieta, tiremos una piedra, pronto, pero no instantáneamente, se formarán olas. Esas "olas" en realidad son ondas que se propagan desde el centro donde la piedra, al caer, ha producido una perturbación en las moléculas sobre las que ha caído haciéndolas vibrar, transmitiendo éstas la vibración a sus moléculas vecinas y así sucesivamente. Esa perturbación se transmite en todos los sentidos y adopta una forma circular.


Todas las películas de ciencia ficción donde se escucha un ruido ensordecedor en el espacio (sea el motor de una nave o una explosión...) están completamente equivocadas.
Las ondas sonoras se propagan de manera tridimensional, por lo que no deberíamos hablar de circunferencias sino de esferas. Las ondas representarían la superficie de estas esferas que irían aumentando de radio a medida que se alejan de la fuente que las crea. Así que realmente hablamos de superficies de ondas.

Un rumor se propaga sin que ninguna persona de las que toman parte para difundirlo haga el viaje para tal fin. Tenemos aquí dos movimientos diferentes, el del rumor y el de las personas en difundirlo.
Veamos otro ejemplo: el viento que pasa sobre un campo de trigo determina un movimiento en forma de onda que se difunde a lo largo de toda la extensión. Sin embargo el único movimiento que hacen las plantas es de vaivén. Encontramos nuevamente dos movimientos, el de la propagación de la onda y el movimiento de cada una de las espigas.

Nótese hay una diferencia entre el movimiento de las moléculas de agua en el estanque y las moléculas del aire. Las moléculas de agua se mueven transversalmente al movimiento de la "ola" mientras que las del aire se mueven en la misma dirección, o sea longitudinalmente.


La onda consta de dos movimientos: uno es la vibración de las partículas y otro es la propagación de la onda en sí.


Si el movimiento de cada partícula es " de arriba hacia abajo y viceversa" la onda se llama transversal.. Si la partícula se mueve en la misma dirección de propagación moviéndose atrás y adelante, la onda recibe el nombre de longitudinal.

El sonido es una onda longitudinal mientras que la luz y cualquier onda electromagnética es transversal. Si hacemos ondas con una soga nos dará ondas transversales mientras que un resorte puede transportar ambos tipos de ondas.

    
Si colocamos un par de ejes cartesianos, observaremos que existen valores máximos ( eje y +) y mínimos ( eje y –). Cada uno de estos valores recibe el nombre de amplitud, mientras que a los intermedios se los denomina elongación. Podemos observar en la gráfica que la trayectoria que obtuvimos puede interpretarse matemáticamente como una función periódica, ya que se repite.

Si seguimos nuestro análisis encontraremos que existen funciones matemáticas que responden a esta gráfica, las funciones trigonométricas seno y coseno por ejemplo. Si la gráfica comienza en el punto (0;0) la función que utilizaremos será la función seno (sen) ; pero si vemos que la gráfica comienza por el punto (0;1) entonces utilizamos la función coseno (Cos).

Hay otra particularidad que debemos hacer notar, la distancia entre dos máximos ó dos mínimos son siempre los mismos, por lo que esa distancia recibe el nombre de "longitud de onda" (l). cada onda posee su longitud de onda característica y si esta se mantiene constante a la onda se la denomina onda armónica. Cada una de este tipo de onda tiene su característica que puede medirse en kilómetros, metros, centímetros, nanómetros (10-9 m), amstrongs (10-10 m) etc.

volveremos más tarde sobre este tema.

Argumento de las funciones trigonométricas:

Cuando nos fijamos en las funciones trigonométricas, inmediatamente preguntamos ¿de qué ángulo?... He aquí vuestra primera sorpresa: ¡Hay ángulos en las ondas!

Si, las cosas empiezan a complicarse.

Para poder relacionar las ondas y las funciones trigonométricas debemos conocer dos cosas, las ondas están relacionadas con el movimiento circular uniforme (ese que gira a velocidad constante) y que ese movimiento (que forma ángulos de 360º o 2π) incluye a las funciones trigonométricas en su estudio.

Podemos expresar el movimiento vibratorio como un movimiento circular. Analicemos una trayectoria circular dentro de un eje de coordenadas, indicando con xo al punto donde comienza nuestro viaje imaginario. Nos movemos con velocidad constante, es el movimiento más simple y para nuestro propósito basta y sobra.


La ecuación de este movimiento será  x = xo  + v t
x → posición en función del tiempo
xo → posición inicial
v → velocidad
t → instante.


El espacio recorrido (∆x) está representado por un arco de circunferencia. Este arco determina un ángulo medido en radianes (ver MCU) cada posición puede llevarse sobre un eje describiendo una función seno.


Las diversas posiciones del cuerpo en movimiento circular uniforme puede expresarse en función del tiempo, o sea el instante en que el cuerpo se encuentra en determinada posición. El cuerpo en realidad vibra y las distintas posiciones que encontramos a cada instante las denominamos elongaciones, amplitudes en el caso de elongaciones máximas o mínimas. Ese movimiento vibratorio tiene, por lo tanto una ecuación en la que está presente la amplitud y el seno del ángulo que forma: x = A. sen α.

Necesitamos ahora la ayuda de la velocidad en un MCU su fórmula es:
v = 2πr / T  (1)


" 2πr " es el perímetro de la circunferencia, representa lo que se recorre al dar una vuelta.

T es el tiempo que se tarda en dar una vuelta a la circunferencia y se denomina período. No es "t" sino "T" para diferenciar un instante cualquiera de lo que se tarda en dar una vuelta. El ángulo se expresa en sistema circular (se mide en radianes).

El ángulo en un movimiento circular se calcula dividiendo el arco que se ha recorrido por el valor del radio. El arco descrito es lo que hemos recorrido, o sea ∆x.

Así tenemos: α = ∆x / r  x = α . r

Este movimiento es uniforme así que la velocidad es constante, por lo tanto:

∆x = v. ∆t (2)  

Si consideramos a to = 0 tendremos: ∆x = v. t (3)

De las ecuaciones (1), (2) y (3) tenemos que:

De esa manera la ecuación de la vibración armónica quedaría:


onde φ es la fase inicial (ángulo que indica cuánto está la onda desplazada (desfasada) del valor de origen)

Por supuesto que 2π / T = ω  donde ω es la velocidad angular (velocidad de giro cuya unidad es seg. – 1) ó velocidad de fase, así que la fórmula de elongación puede verse así:

x = A. sen (ω t + φ).

Longitud de Onda: (λ) es la distancia en el espacio dentro de la cual la función onda se repite a sí misma, en determinado tiempo. En lenguaje simple, como ya hemos dicho, es la distancia entre dos puntos máximos o mínimos. Pero esta distancia se mantiene igual para cualquier par de puntos que posean la misma elongación en dos crestas sucesivas.

Frecuencia: (f ó v) Número de ciclos (vueltas) por unidad de tiempo. En la gráfica de la ecuación onda esos ciclos se representan por dos crestas, una hacia arriba y otra hacia abajo. Se mide en hertz (Hz) que es lo mismo que Seg.– 1 ya que es la inversa del período. "f = 1/ T "

La frecuencia está íntimamente relacionada con la l, cuanto más larga sea l menor será la frecuencia. Ambas son inversamente proporcionales, físicamente implica que si una aumenta al doble la otra se reduce a la mitad. Matemáticamente se multiplican para obtener un valor constante, en este caso "lo constante" es la velocidad.   v = f . λ


Onda armónica: es un tipo especialmente importante de función de onda es la función seno o coseno.

"k" es el número de onda (semejante al valor de k en mate) y "A" es la amplitud. 

Producimos ondas, por ejemplo, con un movimiento constante (armónico) simple a velocidad angular (ω) en dirección perpendicular a la cuerda.

 En este caso y(x,t) representa el desplazamiento de esa parte de la cuerda en la posición x y en el instante t.

 Poseen una propiedad poco corriente que las hace particularmente importantes, "los pulsos de onda varían de forma cuando se propagan", es decir, se dispersan o se esparcen cuando van absorbiendo su energía y movimiento. Sin embargo las ondas armónicas no varían de forma aunque se propagan en medios elevadamente dispersos. Lo único que le ocurre es que la amplitud (A) puede disminuir al propagarse la onda.

Así que podemos definir a la longitud de onda (distancia en el espacio dentro del cual la función onda se repite a sí misma en una porción mínima de tiempo) como la distancia que hay entre dos máximos consecutivos. Así pues el argumento de la función onda varía en 2π.




Termodinámica

Primero te conviene leer calorimetría antes de comenzar con Termodinámica.

Ley Cero: si dos sistemas distintos están en equilibrio termodinámico con un tercero, también tienen que estar en equilibrio entre sí.
Si uno de estos sistemas se pone en contacto con un entorno infinito situado a una determinada temperatura, el sistema acabará alcanzando el equilibrio termodinámico con su entorno, es decir, llegará a tener la misma temperatura que éste. (El llamado entorno infinito es una abstracción matemática denominada depósito térmico; en realidad basta con que el entorno sea grande en relación con el sistema estudiado).

Primera Ley: Analicemos una situación imaginaria para redondear una idea: si tenemos un sistema que cambie de un estado inicial de equilibrio i, a un estado final de equilibrio f, en un forma determinada, tendremos a Q como el calor absorbido por el sistema y W como el trabajo hecho por el sistema.
Así que calculamos el valor de Q – W.

Ahora, cambiemos el sistema manteniendo, por supuesto, el mismo estado i para llegar hasta el estado final f, pero en esta ocasión utilizamos un camino diferente. Repetimos el procedimiento una y otra vez usando diferentes caminos en cada caso. Nos encontramos que en todos los intentos Q – W mantiene su valor numérico siempre igual. La explicación se debe a que: aunque la magnitud de Q y W, separadamente, dependen del camino tomado, Q – W no depende de cómo pasamos de un estado a otro, sino sólo de ambos estados, el inicial y el final (de equilibrio).

El lector seguramente recordará, por lo visto en mecánica, que cuando un objeto se mueve de un punto a otro en un campo gravitacional en ausencia de fricción, el trabajo hecho depende solo de las posiciones de los puntos y no de la trayectoria por la que el cuerpo se mueve. Podemos concluir que hay una energía potencial, en función de las coordenadas espaciales del cuerpo, cuya diferencia entre su valor final y su valor inicial es igual al trabajo hecho al desplazar el cuerpo. En termodinámica se encuentra experimentalmente que, cuando en un sistema ha cambiado su estado i al f, la cantidad Q – W dependen solo de las coordenadas iniciales y finales y no del camino tomado entre estos puntos extremos.
Se concluye que hay una función de las coordenadas termodinámicas cuyo valor final menos su valor inicial es igual al cambio Q – W en el proceso. A esta función le llamamos función de la energía interna (la que se representa mediante la letra U)

La diferencia entre la energía interna del sistema en el estado f (U f ) y el estado inicial i (Ui) es solo el cambio de energía interna del sistema, y esta cantidad tiene un valor determinado independientemente de la forma en que el sistema pasa del estado i al estado f: Tenemos entonces que: U f – U i. = DU = Q – U

Como sucede con la energía potencial, también para que la energía interna, lo que importa es su cambio. Esta ecuación se conoce como la primera ley de la termodinámica, al aplicarla debemos recordar que Q se considera positiva cuando el calor entra al sistema y que W será positivo cuando el trabajo lo hace el sistema. A la función interna U, se puede ver como muy abstracta en este momento. En realidad, la termodinámica clásica no ofrece una explicación para ella, además es una función de estado que cambia en una forma predecible. La primera ley de la termodinámica, se convierte entonces en un enunciado de la ley de la conservación de la energía para los sistemas termodinámicos. La energía total de un sistema de partículas (U), cambia en una cantidad exactamente igual a la cantidad que se le agrega al sistema, menos la cantidad que se le quita.
El hecho que consideremos que el valor de Q sea positivo cuando el calor entra al sistema y que W sea positivo cuando la energía sale del sistema como trabajo está determinado por el estudio de las máquinas térmicas, que provocó inicialmente el estudio de la termodinámica. Simplemente es una buena forma económica tratar de obtener el máximo trabajo con una maquina de este tipo, y minimizar el calor que debe proporcionársele a un costo importante. Estas naturalmente se convierten en cantidades de interés.

Si nuestro sistema sólo sufre un cambio muy pequeño, infinitesimal, en su estado, se absorbe nada más una cantidad infinitesimal de calor y se hace solo una cantidad infinitesimal de trabajo, de tal manera que el cambio de energía interna también es infinitesimal. Aunque la cantidad infinitesimal de trabajo y la cantidad infinitesimal de calor no son diferencias exactas (el por que va más allá de este apunte por lo que deberá acceder a un texto de termodinámica avanzado), podemos escribir la primera ley diferencial en la forma: 
dU = dQ – dW.

Podemos definir la primera ley diciendo: todo sistema termodinámico en un estado de equilibrio, tiene una variable de estado llamada energía interna U cuyo cambio dU en un proceso diferencial está dado por la ecuación antes escrita.

La primera ley de la termodinámica se aplica a todo proceso de la naturaleza que parte de un estado de equilibrio y termina en otro. Un sistema esta en estado de equilibrio cuando podemos describirlo por medio de un grupo apropiado de parámetros constantes del sistema como presión ,el volumen, temperatura, campo magnético y otros. La primera ley sigue verificándose si los estados por los que pasa el sistema de un estado inicial (equilibrio), a su estado final (equilibrio), no son ellos mismos estados de equilibrio. Por ejemplo podemos aplicar la ley de la termodinámica a la explosión de un cohete en un tambor de acero cerrado.

La primera ley establece que la energía se conserva, sin embargo, cuando un cuerpo caliente y otro frío se ponen en contacto no ocurre que el primero se pone más caliente y el segundo más frío. Si bien no estamos violando la primera ley, esta no restringe nuestra capacidad de convertir trabajo en calor o calor en trabajo, especifica únicamente que la energía debe conservarse durante el proceso. La realidad es que, aunque podamos convertir una pequeña cantidad de trabajo en calor, no se ha podido hallar un procedimiento que convierta por completo una cantidad dada de calor en trabajo. La segunda ley de la termodinámica se ocupa de este problema y aunque su contenido pueda parecer esotérico o abstracto, su aplicación ha demostrado ser extremadamente práctico.

Procesos reversible e irreversibles: Consideremos un sistema típico en equilibrio termodinámico: una masa m de gas real encerrado en un dispositivo cilíndrico (cuyas paredes laterales son aislantes térmicos mientras que el piso es conductor) y un émbolo que mantiene un volumen V, dentro del cual el gas se encuentra a una presión p y una temperatura T, los que se mantienen constantes con el tiempo. En la base del cilindro tenemos una fuente de calor para mantener la temperatura.
Podemos variar de muchas maneras a otro estado de equilibrio en el cual la temperatura T sea la misma pero su volumen se reduzca a la mitad. Analicemos dos casos extremos.

I. Hacemos bajar el émbolo muy rápidamente y se espera que se establezca el equilibrio. Durante el proceso el gas es turbulento y su presión y temperatura no están bien definidas. Los estados intermedios en el cual se desarrolla el proceso no son de equilibrio. El proceso se denomina irreversible.

II. Si hacemos bajar el émbolo muy lentamente (despreciando a la fricción), la temperatura varía muy poco mientras que las otras variables termodinámicas estarán bien definidas a medida que vayan cambiando. Los cambios serán infinitesimales de manera que pueda invertirse la trayectoria mediante un cambio diferencial en su medio ambiente. Este proceso se denomina reversible.
Este caso no es solamente reversible sino también isotérmico ya que suponemos una variación infinitesimal (dT ).

También podríamos reducir el volumen adiabáticamente sacando al cilindro de la fuente de calor. Este proceso también puede ser reversible o irreversible dependiendo de la manera en que movamos al émbolo. Pero DU y DT no serán los mismos para los procesos adiabáticos reversibles que para los irreversibles.

Segunda Ley: Las primeras máquinas térmicas construidas, fueron dispositivos muy eficientes. Solo una pequeña fracción del calor absorbido de la fuente de la alta temperatura se podía convertir en trabajo útil. Aun al progresar los diseños de la ingeniería, una fracción apreciable del calor absorbido se sigue descargando en el escape de una máquina a baja temperatura, sin que pueda convertirse en energía mecánica. Sigue siendo una esperanza diseñar una maquina que pueda tomar calor de un depósito abundante, como el océano y convertirlo íntegramente en un trabajo útil. Entonces no seria necesario contar con una fuente de calor una temperatura más alta que el medio ambiente quemando combustibles. De la misma manera, podría esperarse, que se diseñara un refrigerador que simplemente transporte calor, desde un cuerpo frío a un cuerpo caliente, sin que tenga que gastarse trabajo exterior. Ninguna de estas aspiraciones ambiciosas violan la primera ley de la termodinámica. La máquina térmica sólo podría convertir energía calorífica completamente en energía mecánica, conservándose la energía total del proceso. En el refrigerador simplemente se transmitiría la energía calorífica de un cuerpo frío a un cuerpo caliente, sin que se perdiera la energía en el proceso. Nunca se ha logrado ninguna de estas aspiraciones y hay razones para que se crea que nunca se alcanzarán.

La segunda ley de la termodinámica, que es una generalización de la experiencia, es una exposición cuyos artificios de aplicación no existen. Se tienen muchos enunciados de la segunda ley, cada uno de los cuales hace destacar un aspecto de ella, pero se puede demostrar que son equivalentes entre sí. Clausius la enuncio como sigue: No es posible para una máquina cíclica llevar continuamente calor de un cuerpo a otro que esté a temperatura más alta, sin que al mismo tiempo se produzca otro efecto (de compensación). Este enunciado desecha la posibilidad de nuestro ambicioso refrigerador, ya que éste implica que para transmitir calor continuamente de un objeto frío a un objeto caliente, es necesario proporcionar trabajo de un agente exterior. Por nuestra experiencia sabemos que cuando dos cuerpos se encuentran en contacto fluye calor del cuerpo caliente al cuerpo frío. En este caso, la segunda ley elimina la posibilidad de que la energía fluya del cuerpo frío al cuerpo caliente y así determina la dirección de la transmisión del calor. La dirección se puede invertir solamente por medio de gasto de un trabajo.

Kelvin (con Planck) enuncio la segunda ley con palabras equivalentes a las siguientes: es completamente imposible realizar una transformación cuyo único resultado final sea el de cambiar en trabajo el calor extraído de una fuente que se encuentre a la misma temperatura. Este enunciado elimina nuestras ambiciones de la máquina térmica, ya que implica que no podemos producir trabajo mecánico sacando calor de un solo depósito, sin devolver ninguna cantidad de calor a un depósito que esté a una temperatura más baja.

Para demostrar que los dos enunciados son equivalentes, necesitamos demostrar que si cualquiera de los enunciados es falso, el otro también debe serlo. Supóngase que es falso el enunciado de Clausius, de tal manera que se pudieran tener un refrigerador que opere sin que se consuma el trabajo. Podemos usar una máquina ordinaria para extraer calor de un cuerpo caliente, con el objeto de hacer trabajo y devolver parte del calor a un cuerpo frío.
Pero conectando nuestro refrigerador "perfecto" al sistema, este calor se regresaría al cuerpo caliente, sin gasto de trabajo, quedando así utilizable de nuevo para su uso en una máquina térmica. De aquí que la combinación de una maquina ordinaria y el refrigerador "perfecto" formará una máquina térmica que infringe el enunciado de Kelvin-Planck. O podemos invertir el argumento. Si el enunciado Kelvin-Planck fuera incorrecto, podríamos tener una máquina térmica que sencillamente tome calor de una fuente y lo convierta por completo en trabajo. Conectando esta máquina térmica "perfecta" a un refrigerador ordinario, podemos extraer calor de un cuerpo ordinario, podemos extraer calor de un cuerpo caliente, convertirlo completamente en trabajo, usar este trabajo para mover un refrigerador ordinario, extraer calor de un cuerpo frío, y entregarlo con el trabajo convertido en calor por el refrigerador, al cuerpo caliente. El resultado neto es una transmisión de calor desde un cuerpo frío, a un cuerpo caliente, sin gastar trabajo, lo infringe el enunciado de Clausius.
La segunda ley nos dice que muchos procesos son irreversibles. Por ejemplo, el enunciado de Clausius específicamente elimina una inversión simple del proceso de transmisión de calor de un cuerpo caliente, a un cuerpo frío. Algunos procesos, no sólo no pueden regresarse por sí mismos, sino que tampoco ninguna combinación de procesos pueden anular el efecto de un proceso irreversible, sin provocar otro cambio correspondiente en otra parte.

Ciclos Termodinámicos:

Todas las relaciones termodinámicas importantes empleadas en ingeniería se derivan del primer y segundo principios de la termodinámica. Resulta útil tratar los procesos termodinámicos basándose en ciclos: procesos que devuelven un sistema a su estado original después de una serie de fases, de manera que todas las variables termodinámicas relevantes vuelven a tomar sus valores originales. En un ciclo completo, la energía interna de un sistema no puede cambiar, puesto que sólo depende de dichas variables. Por tanto, el calor total neto transferido al sistema debe ser igual al trabajo total neto realizado por el sistema.
Un motor térmico de eficiencia perfecta realizaría un ciclo ideal en el que todo el calor se convertiría en trabajo mecánico. El científico francés del siglo XIX Sadi Carnot, que concibió un ciclo termodinámico que constituye el ciclo básico de todos los motores térmicos, demostró que no puede existir ese motor perfecto. Cualquier motor térmico pierde parte del calor suministrado. El segundo principio de la termodinámica impone un límite superior a la eficiencia de un motor, límite que siempre es menor del 100%. La eficiencia límite se alcanza en lo que se conoce como ciclo de Carnot.

Ciclo de Carnot: Es un ciclo reversible que se representa en un diagrama p – v (presión en función del volumen) que si bien tiene sus limites en la capacidad que posee un sistema en convertir calor en trabajo, es utilizado en máquinas que usan vapor o una mezcla de combustible (con aire u oxígeno).



a – b: El gas está en un estado de equilibrio inicial representado por p1, V1, T1 dentro del cilindro anteriormente descrito. Dejamos que el gas se dilate lentamente hasta p2, V2, T1. durante el proceso el gas absorbe energía calórica Q1. La dilatación es isotérmica a T1 y el gas trabaja elevando al pistón y a su carga.

b – c: Ponemos el cilindro sobre una base no conductora y permitimos que el gas se dilate hasta p3, V3, T2. La dilatación es adiabática por que no entra ni sale calor del sistema. El gas efectúa un trabajo elevando el émbolo y su temperatura disminuye hasta T2.

c – d: Ponemos el cilindro sobre un deposito de calor (más frío) T2 y comprimimos el gas lentamente hasta p4, V4, T2. Durante ese proceso se transfiere una determinada cantidad de energía calórica Q2 del gas al depósito. La compresión es isotérmica a T2 y se efectúa trabajo sobre el gas a través del pistón y de su carga.

d – a: Ponemos al cilindro en un soporte no conductor y comprimimos lentamente hasta su posición inicial p1, V1, T1. La compresión es adiabática, se efectúa trabajo sobre el gas y su temperatura se eleva hasta T1.
El trabajo neto W efectuado por el sistema durante el ciclo está representado por el área encerrada en la trayectoria abcd. La cantidad de energía calórica neta recibida por el sistema se obtiene por la diferencia entre Q2 y Q1.
Como el estado inicial y final es el mismo, no hay cambio en la energía interna U del sistema. Por lo tanto, según la primera ley de termodinámica: 

W = Q1 – Q2.

Eficiencia: es la relación entre el trabajo total efectuado por una máquina en un ciclo y el calor que, durante ese ciclo, se toma de la fuente de alta temperatura.



Como dentro de un ciclo la cantidad de calor depende de la temperatura (la masa se mantiene constante) también podemos escribir:


Tercera ley de la termodinámica: La segunda ley está ligada a una variable termodinámica denominada entropía (s), y puede expresarse cuantitativamente en términos de esta variable.

En el análisis de muchas reacciones químicas es necesario fijar un estado de referencia para la entropía. Este siempre puede escogerse algún nivel arbitrario de referencia cuando solo se involucra un componente; para las tablas de vapor convencionales se ha escogido 32 º F. Sobre la base de las observaciones hechas por Nernst y por otros, Planck estableció la tercera ley de la termodinámica en 1912, así:  la entropía de todos los sólidos cristalinos perfectos es cero a la temperatura de cero absoluto.

Un cristal "perfecto" es aquel que esta en equilibrio termodinámica. En consecuencia, comúnmente se establece la tercera ley en forma más general, como:

La entropía de cualquier sustancia pura en equilibrio termodinámico tiende a cero a medida que la temperatura tiende a cero.

La importancia de la tercera ley es evidente. Suministra una base para el calculo de las entropías absolutas de las sustancias, las cuales pueden utilizarse en las ecuaciones apropiadas para determinar la dirección de las reacciones químicas.
Una interpretación estadística de la tercera ley es más bien sencilla, puesto que la entropía se ha definido como: S = k ln s
En donde k es la constante de Bolzmall s es la probabilidad termodinámica. En vista de la anterior disertación, la tercera ley equivale a establecer que: s ® 1 cuando T ® 0.
Esto significa que sólo existe una forma de ocurrencia del estado de energía mínima para una sustancia que obedezca la tercera ley.

Hay varios casos referidos en la literatura en donde los cálculos basados en la tercera ley no están desacuerdo con los experimentos. Sin embargo, en todos los casos es posible explicar el desacuerdo sobre la base de que la sustancia no es "pura", esto es, pueda haber dos o más isótopos o presentarse moléculas diferentes o, también, una distribución de no equilibrio de las moléculas. En tales casos hay más de un estado cuántico en el cero absoluto y la entropía no tiende a cero.

Entropía : La entropía, como todas las variables de estado, dependen sólo de los estados del sistema, y debemos estar preparados para calcular el cambio en la entropía de procesos irreversibles, conociendo sólo los estados de principio y al fin. Consideraremos dos ejemplos:

1.- Dilatación libre: Dupliquemos el volumen de un gas, haciendo que se dilate en un recipiente vacío, puesto que no se efectúa reacción alguna contra el vacío, W = 0 y, como el gas se encuentra encerrado entre paredes no conductoras, Q = 0. por la primera ley se entiende que DU = 0 o: Ui = Uf
donde i y f se refieren a los estados inicial y final (de equilibrio). Si el gas es ideal, U depende únicamente de la temperatura y no de la presión o el volumen, y la ecuación Ui = Uf implica que Ti = Tf.

En realidad, la dilatación libre es irreversible, perdemos el control del medio ambiente una vez que abrimos la llave. Hay sin envergo, una diferencia de entropía si – sf, entre los estados de equilibrio inicial y final, pero no podemos calcularla con la ecuación:


Porque esta relación se aplica únicamente a trayectorias reversibles; si tratamos de usar la ecuación, tendremos inmediatamente la facultad de que Q = 0 para la dilatación libre - además - no sabremos cómo dar valores significativos de T en los estados intermedios que no son de equilibrio.

Entonces, ¿Cómo calcularemos Sf - Si para estos estados?, lo haremos determinando una trayectoria reversible (cualquier trayectoria reversible) que conecte los estados i y f, para así calcular el cambio de entropía de la trayectoria. En la dilatación libre, un trayecto reversible conveniente (suponiendo que se trate de un gas ideal) es una dilatación isotérmica de VI a Vf (=2Vi). Esto corresponde a la dilatación isotérmica que se lleva a cabo entre los puntos a y b del ciclo del Carnot.

Esto representa un grupo de operaciones muy diferentes de la dilatación libre y tienen en común la única condición de que conectan el mismo grupo de estados de equilibrio, i y f

De la ecuación 

 (1)
y el ejemplo 1 tenemos.


Esto es positivo, de tal manera que la entropía del sistema aumenta en este proceso adiabático irreversible. Nótese que la dilatación libre es un proceso que, en la naturaleza se desarrolla por sí mismo una vez iniciado. Realmente no podemos concebir lo opuesto, una compresión libre en la que el gas que en un recipiente aislado se comprima en forma espontánea de tal manera que ocupe solo la mitad del volumen que tiene disponible libremente. Toda nuestra experiencia nos dice que el primer proceso es inevitable y virtualmente, no se puede concebir el segundo.

2.- Transmisión irreversible de calor. Como otro ejemplo, considérense dos cuerpos que son semejantes en todo, excepto que uno se encuentra a una temperatura TH y el otro a la temperatura TC, donde TH> TC. Si ponemos ambos objetos en contacto dentro de una caja con paredes no conductoras, eventualmente llegan a la temperatura común Tm, con un valor entre TH y TC; como la dilatación libre, el proceso es irreversible, por que perdemos el control del medio ambiente, una vez que colocamos los dos cuerpos en la caja. Como la dilatación libre, este proceso también es adiabático (irreversible), por que no entra o sale calor en el sistema durante el proceso.
Para calcular el cambio de entropía para el sistema durante este proceso, de nuevo debemos encontrar un proceso reversible que conecte los mismos estados inicial y final y calcular el cambio de entropía, aplicando la ecuación (1) al proceso. Podemos hacerlo, si imaginamos que tenemos a nuestra disposición un deposito de calor de gran capacidad calorífica, cuya temperatura T este bajo nuestro control, digamos, haciendo girar una perilla. Primero ajustamos, la temperatura del deposito a TH a Tm, quitando calor al cuerpo caliente al mismo tiempo. En este proceso el cuerpo caliente pierde entropía, siendo el cambio de esta magnitud. 


Aquí T1 es una temperatura adecuada escogida entre TH y Tm y Q es el calor extraído.

En seguida ajustamos la temperatura de nuestro depósito a Tc y lo colocamos en contacto con el segundo cuerpo (el más frío). A continuación elevamos lentamente (reversiblemente) la temperatura del depósito de Tc a Tm, cediendo calor al cuerpo frío mientras lo hacemos. El cuerpo frío gana entropía en este proceso, siendo su cambio:


Aquí T2 es una temperatura adecuada, escogida para que quede entre Tc y Tm y Q es el calor agregado. El calor Q agregado al cuerpo frío es igual al Q extraído del cuerpo caliente.
Los dos cuerpos se encuentran ahora en la misma temperatura Tm y el sistema se encuentra en el estado de equilibrio final. El cambio de entropía para el sistema completo es:


Como T1>T2, tenemos Sf >Si. De nuevo, como para la dilatación libre, la entropía del sistema aumenta en este proceso reversible y adiabático.
Nótese que, como la dilatación libre, nuestro ejemplo de la conducción del calor es un proceso que en la naturaleza se desarrolla por sí mismo una vez que se ha iniciado. En realidad no podemos concebir el proceso opuesto, en el cual, por ejemplo, una varilla de metal en equilibrio térmico a la temperatura del cuarto espontáneamente se ajuste de tal manera, que un extremo quede más caliente y en el otro más frío. De nuevo, la naturaleza tiene la preferencia irresistible para que el proceso se efectúe en una dirección determinada y no en la opuesta.
En cada uno de estos ejemplos, debemos distinguir cuidadosamente el proceso real (irreversible) (dilatación libre o transmisión del calor) y el proceso reversible que se introdujo, para que se pudiera calcular el cambio de entropía en el proceso real.

Podemos escoger cualquier proceso reversible, mientras conecte los mismos estados inicial y final que el proceso real; todos estos procesos reversibles llevarán al mismo cambio de entropía porque ella depende sólo los estados inicial y final y no de los procesos que los conectan, tanto si son reversibles como si son irreversibles.