lunes, 23 de noviembre de 2009

reflexion difusa y espectacular







La retrorreflexión es la capacidad que tienen algunas superficies que por su estructura pueden reflejar la luz de vuelta hacia la fuente, sin que importe el ángulo de incidencia original. Este comportamiento se puede observar en un espejo, pero únicamente cuando éste se encuentra perpendicular a la fuente; es decir, cuando el ángulo de incidencia es igual a 90°. Se puede construir un retrorreflector simple colocando tres espejos ordinarios de forma que todos sean perpendiculares entre sí (un reflector esquinero). La imagen que se produce es igual a la imagen producida por un espejo pero invertida. Tal como se observa en la figura, la combinación de las diferentes superficies hace que el haz de luz sea reflejado de vuelta a la fuente.
Si a una superficie se le aplica una pequeña capa de esferas reflectivas es posible obtener una superficie con una capacidad limitada de retrorreflexión. El mismo efecto se puede obtener si se dota a la superficies con una estructura similar a pequeñas pirámides (reflexión esquinera). En ambos casos, la estructura interna de la superficie refleja la luz que incide sobre ella y la envía directamente hacia la fuente. Este tipo de superficies se utilizan para crear las señales de tránsito y las placas de los automóviles; en este caso particular no se desea una retrorreflexión perfecta, pues se quiere que la luz retorne tanto hacia las luces del vehículo que emite el haz de luz como a los ojos de la persona que lo va conduciendo.
Reflexión acoplada compleja [editar]
La luz se refleja exactamente en la dirección de la fuente de donde proviene debido a un proceso óptico no lineal. En este tipo de reflexión, no solo se invierte la dirección de la luz; también se invierte el frente de la onda. Un reflector acoplado se puede utilizar para remover aberraciones en un haz de luz, reflejándola y haciéndola pasar de nuevo por el dispositivo óptico que causa
Reflexión de neutrones [editar]
Materiales que reflejan neutrones, como por ejemplo el berilio, son utilizados en reactores nucleares y en armas atómicas. En las ciencias físicas y químicas, la reflexión de neutrones es utilizada para determinar la estructura y composición interna de un material. refl HD.htm
Reflexión del sonido [editar]
Cuando una onda sonora golpea una superficie plana es reflejada de manera coherente asumiendo que el tamaño de la superficie reflectiva es lo suficientemente larga con relación a la longitud de la onda que incide. Tómese en cuenta que las ondas del sonido audible tienen un amplio rango de frecuencias (de 20 Hz hasta 20000 Hz), al igual que la longitud de onda (que pude variar de 20 mm hasta 17 m). Como resultado, se obtiene que la naturaleza en general, así como el comportamiento del fenómeno de reflexión varía de acuerdo con la estructura y la textura de las superficies de reflexión; por ejemplo, una superficie porosa tiende a absorber grandes cantidades de energía, mientras que una superficie áspera (donde áspero es relativo a la longitud de onda) reflejará las ondas en todas direcciones dispersando la energía de la onda, en lugar de reflejar el sonido en forma coherente. Esto nos lleva al campo de la Acústica arquitectónica, porque la naturaleza de estas reflexiones son críticas para la sensación del espacio en un auditorio.
Reflexión sísmica [editar]
Las ondas sísmicas producidas por terremotos o por otras fuentes tales como explosiones, pueden ser reflejadas por capas dentro de la Tierra. El estudio de las ondas sísmicas reflejadas en las profundidades ha dado a los sismólogos la oportunidad de determinar las capas que conforman la estructura de la Tierra. El estudio de las ondas sísmicas reflejadas de poca profundidad se utiliza en sismología por reflexión, que estudia la corteza de la Tierra en general, y en particular para encontrar posibles yacimientos de petróleo o gas natural.
Interpretación cuántica [editar]
Todas la interacciones entre fotones y materia se describen como una serie de absorciones y emisiones de fotones. Cuando un fotón que llega golpea una molécula en la superficie de la materia, es absorbido y casi de inmediato vuelto a emitir. El "nuevo" fotón puede emitirse en cualquier dirección; esto causaría una reflexión difusa. [se necesita cita].
La reflexión especular (siguiendo la ley de la reflexión equi-angular de Hero) es un efecto de la mecánica cuántica, explicado como la suma de los caminos más probables tomados por los fotones. La interacción con materia liviana es un tópico de la electrodinámica cuántica, descrita en detalle por Richard Feyman en su libro QED:La Extraña Teoría de la Luz y la Materia.
La energía de un fotón que llega a una molécula puede que concuerde con la energía requerida para cambiar el estado de la molécula, causando una transición en el estado cinético, rotacional, electrónica o vibracional de la energía. Cuando esto ocurre, puede que el fotón absorbido no se reemita o puede que se reemita con pérdida de energía. Estos efectos son conocidos como Raman, Brillouin.

Reflexión especular
En la siguiente escena se recrea un juego conocido como "escribir en espejo". Para empezar el juego pulsa sobre el botón ( }) ubicado a la derecha de la barra inferior luego mueve el punto azul sobre la parte izquierda de la escena tratando de no salirte del del camino marcado en la parte derecha (su imagen especular). Si haces click en el botón inicio aparecerán otros caminos diferentes.
Reflexión difusa – si la superficie de un material es ‘rugosa’, y no microscópicamente lisa, se producirán reflexiones difusas. Cada rayo de luz que cae en una partícula de la superficie obedecerá la ley básica de la reflexión, pero como las partículas están orientadas de manera aleatoria, las reflexiones se distribuirán de manera aleatoria. Una superficie perfecta de reflexión difusa en la práctica reflejaría la luz igualmente en todas direcciones, logrando una terminación mate perfecta.
Las superficies de vidrio con dibujo o delicadamente grabadas producen significativas reflexiones difusas.

jueves, 19 de noviembre de 2009

porque se refleja la luz




Problema de Reflejo de luz y brillo.
Hola buenas me llamo Ramón y soy algo novato en esto del 3d y tengo un problema con la iluminación, resulta que quiero conserguir algo de realismo a mi escena y no consigo darle el brillo natural del reflejo de la luz a las teclas de un piano. He puesto reflexión al material y todo tipo de luzes y conseguido reflejar un objeto pero lo que sería que se vea reflejado una línea suave de luz y brillo a las teclas me cuesta llevarlo a cabo.




definicion del flujo luminoso




Intensidad lumínica
Para poder definir más claramente la intensidad luminosa vamos a especificar una fuente patrón o manantial patrón. Un manantial patrón es cualquier cuerpo que radia energía, ahora bien, no toda la energía que radia es considerada energía luminosa (aquella que percibimos con el sentido de la vista) sino que parte de esa energía se transforma en calor y radiaciones no visibles, así que parte de esa energía emitida por un manantial no es energía visible. Las radiaciones luminosas provienen pues del calentamiento de un determinado material a consecuencia del cual radia energía.
Este manantial patrón es un tubo cilíndrico de material refractario (Torio), de punto de fusión muy elevado, rodeado de platino puro. El tubo se ensancha en su extremo formando un ángulo sólido de un estereorradián.
Cuando este radiador total está calentado a la temperatura de 2045ºK emite una determinada cantidad de energía radiante, 1m²/600000 de esta energía es nuestra medida de referencia y es lo que llamamos candela (cd).

La intensidad luminosa (I), característica fundamental de la fuente de radiación, viene dada por el flujo luminoso F emitido por unidad de ángulo sólido W en una dirección especificada o, lo que es lo mismo, la potencia luminosa propia de la fuente que se expresa en vatios.
Como el flujo luminoso se mide en lúmenes, la unidad de intensidad luminosa será el lumen por estereorradián, dicha unidad se llama candela (cd).
Sin embargo, no resulta fácil medir la potencia que corresponde exclusivamente a la región visible, ya que la mayoría de las fuentes emiten en una zona más amplia del espectro electromagnético.
Para medir la intensidad de una fuente, es necesario definir una unidad que debe ser constante e invariable en relación a una superficie determinada.
El Sistema Internacional de Unidades (SI) incorporó a la CANDELA como unidad de medida de intensidad luminosa de una fuente.
La candela (cd) se define como la intensidad luminosa en una determinada dirección, de una fuente emisora de radiación monocromática de frecuencia 540 x 1012 Hz, equivalente a 555 nm en el vacío, y que posee una intensidad de radiación en esa dirección de 1/683 vatios por estereorradián.
La ‘frecuencia escogida’ es aquella a la que el ojo es más sensible y normalmente es cuantificada en la Literatura Lumínica como la correspondiente a una longitud de onda de 555 nanómetros. La longitud de onda varía según el medio a través del cual pasa la luz, así que, para precisar esto, nuestra común descripción de longitud de onda luminosa no es la usada de modo estándar
La extraña elección del factor 683 es a fin de que el valor sea idéntico al obtenido con la previa versión de la unidad: la emisión de 1cm² de brillo de platino solidificado.
El estereorradián (sr)es el cono de luz difundido desde la fuente que ilumina 1m² de la superficie oscura de una esfera de un metro de radio alrededor de la fuente. (O sea, 1 estereorradián cubre 1m² de la superficie de una esfera de 1m de diámetro.)
El aparente brillo de una fuente cuando se mira directamente no se debe confundir con su emisión lumínica. El brillo de una fuente es medido en candela por metro cuadrado (cd/m²) y a su magnitud se la llama luminancia.
La luminancia (L) es la magnitud luminotécnica que determina la impresión de mayor o menor claridad producida por una superficie. La luminancia es un concepto propio del brillo de un objeto, bien con relación a la luz de producción propia, bien reflejada (fuente que emite luz, fuente de luz sólo reflejada o fuente de luz de ambas emisiones). Se define como la sensación luminosa, que por efecto de la luz, se produce en la retina del ojo. Es la densidad superficial de la intensidad luminosa y se expresa como la relación entre la intensidad luminosa y la superficie desde la cual se emite:
Curva V-LAMBDA
La medida de la intensidad luminosa requiere información sobre la sensibilidad relativa del ojo humano para diferentes longitudes de onda.
El ojo posee dos sensibilidades diferentes según el tipo de iluminación. La visión fotópica para iluminaciones normales o fuertes y la escotópica para iluminaciones bajas. Debido a este hecho para iguales cantidades de flujo luminoso de distintas longitudes de onda no se produce la misma sensación de brillo, así por ejemplo, para igual flujo radiante se obtiene una mayor sensación de brillo para el amarillo-verde que en los extremos del rojo-violeta.
La intensidad luminosa de una fuente de luz blanca está definida por el producto de los vatios emitidos para cada longitud de onda por el rendimiento de esa longitud de onda excitando el ojo, relativo el rendimiento a 555nm. Este factor de rendimiento se conoce como curva V-lambda.
La curva define la relación entre la sensación de luz humana y el concepto físico de luz, que es la cantidad a la cual los instrumentos de medida reaccionan.

Los vatios emitidos por una fuente de luz pueden ser medidos por absorción de toda la luz en una superficie negra ideal y midiendo el calor producido. Un filtro correspondiente a la curva V-lambda puede ser colocado delante de la superficie negra para transformar el resultado para que el ojo y cerebro humano estimen la luminosidad. Los instrumentos de medida tienen sensores de filtrado que transforman la luz absorbida por la V-lambda a corriente eléctrica.

El lumen y el lux
El flujo luminoso (f) es la potencia (energía por unidad de tiempo) de la energía luminosa medida en relación con su efecto visual (equivale a una candela x estereorradián). Es decir, indica la cantidad de luz emitida por unidad de tiempo en una determinada dirección (distribución espacial de la luz emitida por la fuente). Su unidad es el lumen (lm). 683 lúmenes equivalen a un vatio, emitidos a la longitud de onda de 555 nm, que corresponde a la máxima sensibilidad del ojo humano
La definición de lumen, la unidad de flujo luminoso, es:
“El flujo luminoso (dF) de una fuente de Intensidad luminosa I (cd) en ángulo con un elemento sólido está dado por dF=IdR”
Esto significa que el flujo de una fuente de luz es igual a su intensidad en candela multiplicado por el ángulo sólido sobre el cuál la luz es emitida, teniendo en cuenta la variación de intensidad que produce en diferentes direcciones.

En la imagen observamos como un punto de luz del rayo de color verde emite una intensidad luminosa de 300 cd para un ángulo de 30º.
Ya hemos visto el concepto de ángulo sólido; si consideramos una fuente que emite una determinada energía radiante y que supuestamente lo haga en todas direcciones podemos considerar ésta como una esfera. El ángulo sólido determinará un cono que abarca la superficie o área (s) determinada, con relación al radio unidad.
En estas condiciones, la medida en estereorradianes del ángulo sólido W viene definido por la siguiente razón:

Como el área de una esfera es 4πr2 al sustituir nos quedará:

Cuando S = r2 el ángulo sólido será de un estereorradián. Según esto podemos definir el lumen de la siguiente forma:
“Es el flujo luminoso que atraviesa en un segundo un ángulo sólido de un estereorradián, emitido por una fuente puntual cuya intensidad es de una candela.”

Una magnitud derivada del flujo luminoso es el rendimiento. Ya mencionamos al hablar de intensidad luminosa que no toda la energía eléctrica consumida por una lámpara (bombilla, fluorescente, etc.) se transforma en luz visible. Parte se pierde por calor, parte se pierde por radiación no visible (infrarrojo o ultravioleta) etc.
Definimos el rendimiento luminoso(h) como el cociente entre el flujo luminoso producido y la potencia eléctrica consumida, que viene con las características de las lámparas (25 W, 60 W...). Mientras mayor sea mejor será la lámpara y menos gastará. La unidad es el lumen por vatio (lm/W).






TEORÍAS HISTÓRICAS ACERCA DE LA LUZ
La naturaleza de la luz es un problema que ha ocupado la atención de los hombres desde tiempos remotos. La evolución de nuestros conocimientos sobre la luz ha ido aparejada a la evolución de la Física.
Ya durante la Grecia clásica se empezaron a formular teorías sobre la naturaleza de la luz. Demócrito y su escuela de atomistas consideraban la luz como un flujo de partículas que partían de los focos de luz. Aristóteles rechazó la idea, considerando la luz como algún tipo de interacción entre el ojo y el objeto visto. Para Euclides la luz era un tentáculo lanzado por el ojo hacia el objeto. Sin embargo estas ideas no pueden considerarse propiamente científicas, puesto que no se apoyaban más que en el ingenio y la intuición del autor.
Aproximadamente en el año 1000 un árabe, Al-Hazen, estableció que la luz se dirige desde la fuente externa que la emite hasta los ojos tras ser reflejada por los objetos visibles. Descubrió la ley de la reflexión, explicó rudimentariamente el mecanismo de visión e inició los estudios sobre la refracción.
No fue hasta 600 años más tarde cuando se iniciaron de una manera sistemática los estudios sobre la luz. Durante el siglo XVII se descubrieron todas las leyes experimentales de la Óptica geométrica y de lo que ahora llamamos Óptica física. En 1628 Snellius la ley de la refracción. Basándose en ella Kepler explicó el funcionamiento de las lentes ópticas. Römer determinó la velocidad de la luz (2,2 108 m/s).
A estas alturas se disponía ya de los conocimientos necesarios para formular una teoría sobre la naturaleza de la luz. Y se formularon dos:
En 1678 Huygens elaboró la teoría ondulatoria de la luz según la cual la luz era una onda longitudinal que utiliza como soporte material una sustancia que denominó éter. El éter lo llenaba todo y debía ser lo suficientemente elástico como para permitir a la luz una elevada velocidad.
La teoría ondulatoria explica fácilmente la reflexión. Para explicar la refracción supuso que la velocidad en el vidrio era menor que en el aire. En aquella época la comprobación de este dato era imposible. También pudo explicar la doble refracción en el espato de Islandia, con la aparición de una onda ordinaria y de otra extraordinaria debido a la existencia en el cristal de dos medios vibratorios.
Por contra su teoría es incapaz de explicar la propagación rectilínea y la polarización al atravesar dos cristales de espato de Islandia.
Paralelamente Newton, elaboró la teoría corpuscular de la luz según la cual la luz era un chorro de partículas que se originaba en el foco de luz.
Para la teoría corpuscular la reflexión no es mas que el rebote de las partículas sobre un cuerpo. La refracción se debería a que la componente perpendicular a la superficie de separación de los medios, de la velocidad de la partícula es mayor en el medio que en el aire. Justo al revés que la teoría ondulatoria.
La explicación de la doble refracción es más rebuscada; los corpúsculos tendrían forma de prisma, dos de cuyas caras interaccionarían con el espato y las otras no. La difracción se debería a la atracción ejercida sobre el corpúsculo por el cuerpo.
Para explicar los anillos de Newton sostuvo que al llegar la luz a la separación entre dos medios, se reflejará o transmitirá dependiendo del espesor del medio. Los colores los achaca al distinto tamaño de los corpúsculos.
Fue la teoría de Newton la que se impuso gracias a ser la más completa y al prestigio del autor. Hasta comienzos del siglo XIX fue unánimemente aceptada.
En 1800 Malus, científico francés, dio nombre a la luz polarizada. El descubrimiento tuvo lugar en el curso de unas investigaciones encaminadas a dar una explicación mejor que la de Newton al fenómeno de la doble refracción (birrefringencia). Ni Malus, ni Biot, ni Laplace, ni otros convencidos corpusculistas dieron a la luz polarizada una explicación convincente.
Thomas Young, científico inglés, resucitó la teoría ondulatoria y consiguió explicar las interferencias producidas por dos focos luminosos, demostrando que luz más luz puede dar oscuridad. Demostró que los anillos de Newton no son mas que el resultado de interferencias en láminas convergentes. Midió la longitud de onda de diversos colores. Sin embargo al no dar una adecuada forma matemática a sus descubrimientos estos tuvieron poco eco.
En 1814 Fresnel, ingeniero francés, partiendo del principio de Huygens, de que "cada elemento de la superficie de una onda puede actuar como fuente de ondas secundarias", confirmó las interferencias de Young y construyó una base conceptual y matemática para la Óptica física.
La teoría de Fresnel explicó la birrefringencia, la luz polarizada, la polarización circular, la elíptica y todas las predicciones que se derivaban de ella se veían confirmadas por la experiencia. Hacia 1850 la teoría ondulatoria era ya universalmente aceptada y un experimento le dio el triunfo definitivo: Foucault midió en su laboratorio la velocidad de la luz y confirmó la predicción de Huygens; la velocidad de la luz en el agua es 3/4 de su velocidad en el aire.
La teoría ondulatoria tenía aún un problema; era una teoría mecanicista, precisaba de una medio en el que se propagara la onda, el éter. Esta sustancia debía poseer una elasticidad infinita para que la luz se pudiera propagar con la velocidad que lo hacía.
En 1887 Hertz descubrió la existencia de un campo electromagnético, como había predicho Maxwell. En ese mismo año Michelson y Morley descubrieron que la Tierra no se desplazaba respecto al éter; por lo que no debería existir. En 1893 Hertz midió la velocidad de propagación de un campo electromagnético y resultó ser la misma que la de la luz.
En este momento la luz se deshizo del lastre mecanicista que arrastraba desde el principio de la ciencia. Era un fenómeno que nada tenia que ver con las leyes de Newton. En este punto de la historia la Física entendía tres realidades: la materia, a la que se le aplicaban las leyes de la mecánica de Newton; las radiaciones, con las leyes del electromagnetismo de Maxwell y la energía, con las leyes de la termodinámica.










«« Interferencia de ondas
Reflexión y refracción de ondas »»
Naturaleza de la luz. Ondas electromagnéticas
La comprensión de los fenómenos luminosos ha ocupado a los filósofos y pensadores de todos los tiempos. Según las consideraciones de la física, la luz visible (y las restantes ondas electromagnéticas) es al mismo tiempo de naturaleza corpuscular (formada por partículas elementales llamadas fotones) y ondulatoria, y sólo esta condición dual puede explicar sus peculiares características.
Primeras teorías sobre la luz
Durante los siglos XVII y XVIII se propusieron dos teorías alternativas sobre la naturaleza de la luz:
Teoría corpuscular, que interpretaba que la luz estaba formada por pequeños corpúsculos que se movían en línea recta y a gran velocidad.
Hipótesis ondulatoria, que sostenía que la luz era una onda que se desplazaba a través de un supuesto medio material que impregnaba todo el espacio, llamado éter.



Efecto fotoeléctrico
Uno de los fenómenos físicos que ayudaron a Albert Einstein a proponer su hipótesis ondulatoria-corpuscular para la luz fue el efecto fotoeléctrico, que sólo se explica suponiendo que la luz está compuesta por un haz de partículas (fotones) de energía proporcional a la frecuencia de la luz incidente. Este efecto, que hace que un material emita electrones cuando sobre él incide luz, se usa en numerosas aplicaciones (una de las más comunes es la célula fotoeléctrica, empleada en las puertas de apertura automática que detectan la presencia de las personas que se aproximan a ellas).












the energi (la luz)

1. EL VALLE
La sombra no existe; lo que tú llamas sombra es la luz que no ves.
Henri Barbusse

Escribir sobre la luz, como sobre el agua, precisa de una anécdota legendaria, ya sea real o ficticia, pues esto no importa cuando lo que se trata de explicar es un elemento que determina el mundo según sus leyes, que emite pero también refleja. La leyenda comienza en la Grecia clásica, el origen de todo, y el protagonista es el hombre que dijo era capaz de mover el mundo con una palanca lo suficientemente larga y un punto de apoyo: Arquímedes de Siracusa. El matemático, físico, ingeniero, astrónomo e inventor, según cuenta el historiador Luciano de Samosata, repelió durante el Sitio de Siracusa (213-211 a. C.) un ataque de la Flota romana con un espejo ustorio. Un artefacto cóncavo que, ubicado frente al sol, refleja sus rayos y los reúne en un foco de luz y calor capaz de incendiar los barcos enemigos.
Los antiguos, como Arquímedes, no tenían los instrumentos para estudiar con rigor la naturaleza de la luz y basaban su conocimiento en especulaciones. Parece que durante estos años lo que realmente intrigaba a los griegos era la naturaleza de la vista. Algunos sostenían que la fuente luminosa eran los ojos, otros defendían que se originaba en los objetos. Pasaron varios siglos hasta que el tema de la naturaleza fundamental de la luz se trató de forma más científica. Entre los siglos XVI y XVII se generalizó el empleo de lentes y espejos y se desarrolló la Óptica y sus leyes de la reflexión y la refracción. Estos avances resultarían decisivos para las conquistas del conocimiento de Kepler y Galileo. Sin embargo, estos descubrimientos no aportaron gran cosa sobre la naturaleza fundamental de la luz.
En realidad, fue Isaac Newton (1642-1726), siglos más tarde, el primero que estudió con rigor la naturaleza de la luz. Sugirió que estaba formada por partículas materiales que se propagaban en línea recta desde un cuerpo luminoso (emisor) hasta el receptor (ojo) en forma de diminutos corpúsculos a más velocidad en los medios más densos (como el sonido). Newton consiguió explicar el comportamiento de la luz en la reflexión y en la refracción suponiendo que aquélla consistía en una corriente de partículas. La reflexión luminosa la identificó con un rebote de partículas elásticas contra una pared rígida. Para demostrar el matrimonio entre su teoría y la refracción tuvo más problemas, pero la justificó asegurando que cerca de la superficie de separación de dos medios transparentes distintos, los corpúsculos de luz se encuentran con fuerzas atractivas que provocan un cambio de dirección y de velocidad en la luz.

Casi de modo contemporáneo, el holandés Christian Huygens (1629-1695) rivalizó con el modelo corpuscular y propuso la teoría ondulatoria de la luz, en la que sostenía que la luz viajaba más despacio en medios más densos. Para la propagación de las ondas se precisa de un soporte, que en aquella época Huygens identificó con el éter, el medio sutil y elástico que, entonces se pensaba, llenaba el vacío. El holandés consideró que todo objeto luminoso produce perturbaciones en el éter (del mismo modo que una piedra en un estanque) en forma de ondulaciones regulares, las cuales se propagan en todas las direcciones espaciales como ondas esféricas. Mediante este modelo se podía explicar tanto la propagación rectilínea de la luz como los fenómenos de la reflexión y la refracción, que ya eran comunes al resto de fenómenos ondulatorios conocidos en la época. Sin embargo, pese a ser una propuesta menos artificiosa que la desarrollada por Newton, pasó desapercibida en parte como consecuencia del enorme peso científico e influencia del inglés, cuya teoría corpuscular predominó durante el siglo XVIII.

No obstante, incluso el propio Newton no se mostró del todo convencido sobre ciertos puntos de su modelo de la luz como corpúsculos. En su Óptica menciona que la explicación de la naturaleza de la luz como partículas submicroscópicas era un modelo de explicación acorde con las evidencias disponibles en la época, pero nada demostrado. Además, el italiano Francesco Maria Grimaldi (1618-1663) observó que la luz no siempre lleva una trayectoria rectilínea, de vez en cuando los rayos de luz se doblan en torno a un obstáculo, provocando el fenómeno que se conoce como difracción. Parece ser que esta grieta del modelo corpuscular pasó desapercibida, quizá porque Grimaldi era un físico bastante desconocido. Sea como fuere, el modelo de Newton se impuso hasta la aparición de nuestro siguiente protagonista.

En 1801, Thomas Young (1773-1829) apostó en su trabajo Esbozos de experimentos e investigaciones respecto de la luz y el sonido por la teoría ondulatoria de la luz. Recogió los conceptos fundamentales de Huygens y, empleando como analogía el comportamiento de las ondas en la superficie del agua, les sumó un principio fundamental: la interferencia luminosa. Este fenómeno, que resultó difícil de explicar a la luz del modelo corpuscular, se basaba en la idea de que los pulsos luminosos tenían una periodicidad, ausente en el modelo de Huygens. “Si dos partes de una misma luz llegan al ojo por caminos diferentes, en direcciones muy próximas entre sí, la intensidad es máxima (las intensidades se suman) si la diferencia en los caminos recorridos es múltiplo de una cierta longitud, y mínima si el valor es de la mitad de ésta; dicha longitud sería diferente para la luz de distintos colores”, establecen Carlos Solís y Manuel Sellés en su Historia de la Ciencia.

Young elaboró un experimento, conocido como el de las “dos rendijas”, en el que muestra que cuando dos ondas procedentes de una misma fuente se superponen en una pantalla (tras atravesar dos orificios), aparecen alternativamente sobre ella franjas iluminadas y oscuras (patrones de interferencia). Esto se debe a que en ellas la cresta de una onda coincide con el valle de la otra, por lo que se destruyen mutuamente. Si la luz fuera un chorro de partículas como proponía el modelo corpuscular, al atravesar una pared en la que se han hecho dos rendijas, la luz debería seguir su camino por la zona situada inmediatamente detrás de cada orificio. En consecuencia, sobre la pantalla deberían observarse dos partes iluminadas acorde a las rendijas u orificios atravesados por la luz.

En cambio, si la luz fuera una onda y el tamaño de los orificios fuera igual o inferior a la longitud de onda, se debería producir el fenómeno de la difracción en cada rendija. Es decir, cuando las ondas alcanzan una abertura (u obstáculo) la difracción se manifiesta en ciertas perturbaciones que registra la propagación de la onda, ya sea rodeando el obstáculo o divergiendo a su paso por la abertura. De esta forma, y continuando con el experimento de las dos rendijas, una vez la luz cruza la cartulina con los dos orificios, se superpondrían dos ondas secundarias, una procedente de cada rendija. Esta superposición produciría interferencias, cuyo resultado visible sería la aparición en la pantalla de franjas iluminadas y oscuras alternativas, situándose la zona de máxima iluminación frente al punto medio entre las dos rendijas.



En otras palabras, cuando Young realizó el experimento en la reunión de la Royal Society de Londres, diseñó un mecanismo (observar dibujo) en el que la luz atraviesa primero una cartulina con una rendija y, posteriormente, otra cartulina con dos orificios más, muy cercanos entre sí y paralelos. Asimismo, empleó luz filtrada de un arco de mercurio para que la luz fuera lo más monocromática posible. Como ya se ha comentado, tras realizar la prueba, Young observó una serie de áreas iluminadas y oscuras y, además, se percató de que un punto en la pantalla se iluminaba cuando una de las aberturas era tapada, mientras que si ambas rendijas estaban al descubierto este mismo punto se convertía en una zona oscura. Para simplificar, la adición de la luz a la luz en determinados casos da como resultado luz y, en otros, oscuridad. Con el modelo corpuscular de la luz era imposible explicar este fenómeno, pues las intensidades individuales se sumarían y siempre habría luz. El modelo de Newton tampoco fue capaz de justificar los fenómenos de difracción cuando la luz bordea obstáculos, tal y como demuestra la existencia de una zona intermedia de penumbra entre las zonas extremas de luz y sombra.

A mitad del siglo XIX, la teoría de ondas ya había ganado la carrera al modelo corpuscular. Sin embargo, tenía un problema muy molesto. Como ya comentábamos previamente, las ondas precisan de un soporte para su propagación. Hasta entonces, se adoptó el éter como medio físico, pero la idea de un elemento invisible que todo lo llenaba se disolvió a medida que la Ciencia avanzaba. Para los científicos de la época resultaba bastante difícil concebir que la luz pudiera viajar a través del vacío. Fue Albert A. Michelson (1852-1931) el primero en zarandear las bases en las que se sustentaba la idea del éter. Para ello, inventó un instrumento capaz de dividir un rayo de luz en dos (el interferómetro) y comprobar si cada rayo viajaba a la misma velocidad durante la división o si, de lo contrario, se desplazaban a velocidades distintas. ¿Cómo hacerlo? Al reunirse los dos rayos divididos mostrarían zonas iluminadas y oscuras, es decir, el patrón de interferencia de Young. Así, junto con Edward Morley (1838-1923), Michelson usó este aparato para constatar la presencia del éter.

“Su razonamiento era bastante simple: si la Tierra se desplaza por el éter, entonces debe ejercer alguna clase de efecto detectable. Debería haber un ‘viento de éter’ que sopla a través de la superficie de la Tierra. Tal vez demasiado tenue para ser medido por los detectores comunes, pero las ondas de luz debían ser sensibles al viento de éter. Un rayo de luz se enviaría en la dirección del movimiento orbital de la Tierra a través del espacio. El otro se dirigiría en una dirección perpendicular a la primera. Si el éter existía, debía oponer más resistencia al rayo que brillaba a través del viento de éter que al que brillaba en esa misma dirección. La más leve resistencia se mostraría en los bordes de un patrón de interferencia en el detector del interferómetro”, explica Ben Bova en Historia de la Luz. Y añade: “No se vio ningún patrón de interferencia. Sin importar en qué dirección se ponía el interferómetro, los dos rayos de luz viajaban a exactamente la misma velocidad. No había viento de éter. El luminífero éter no existía”.


2. LA CRESTA

Hay dos maneras de difundir la luz…ser la lámpara que la emite, o el espejo que la refleja.
Lin Yutang

Aunque el éter no desapareció de la mente de los científicos de la noche a la mañana, las conclusiones del experimento desarrollado por Morley-Michelson parecían un nuevo callejón sin salida para la física. Si el éter no existe y las ondas no pueden desplazarse sin un medio ¿Qué es la luz? El desatascador en este caso fue el gran físico matemático James Clerk Maxwell (1831-1879), que logró desvelar qué eran las ondas luminosas. El escocés unificó la electricidad y el magnetismo, y demostró que eran una sola fuerza. La fuerza electromagnética se desplaza como una onda y se compone de un campo eléctrico y otro magnético, que vibran uno con otro en ángulos rectos. Estos campos podían propagarse tanto por el espacio vacío como por el interior de algunas sustancias materiales. Al calcular la velocidad a la que se mueve una onda electromagnética en el vacío, Maxwell descubrió una cifra que prácticamente coincidía con la velocidad de la luz (300.000 kilómetros por segundo). De esta forma, el físico identificó, de manera precipitada, las ondas luminosas con sus ondas electromágnéticas. Así lo acuñó en su día: “elaboré las ecuaciones en el campo antes de que tuviera alguna sospecha de la cercanía entre los dos valores de la velocidad de propagación de los efectos magnéticos y de la luz, de modo que pienso que los medios magnético y lumínico son idénticos…”

De modo que si las ondas electromágneticas pueden propagarse en el espacio vacío, la luz también puede hacerlo. La comprobación experimental de las suposiciones de Maxwell vino, en 1888, de la mano del alemán Heinrich Hertz (1857-1894). En su experimento, utilizó un transformador que conectó a dos varillas de cobre, en cuyos extremos colocó una bola grande y otra pequeña. Cada una de las esferas mayores era una especie de condensador para almacenar la carga eléctrica. Así, al conectar el mecanismo, el voltaje entre las bolas pequeñas era lo suficientemente poderoso como para producir una chispa eléctrica entre ellas, de forma que provocaría un campo eléctrico variable en una zona próxima a estas esferas, lo que induciría un campo magnético, también variable. Por tanto, debería producirse una onda electromagnética. Este aparato sería un radiador de ondas electromagnéticas.



http://bibliotecadigital.ilce.edu.mx

http://bibliotecadigital.ilce.edu.mx

Después, construyó un detector de ondas electromagnéticas. Revistió su laboratorio de un anillo de alambre interrumpido por un hueco con dos esferas del igual tamaño que la separación entre las dos bolas pequeñas del radiador. Cuando conectó la corriente eléctrica, provocó una chispa entre las bolas e, inmediatamente, otra chispa destelló en el anillo de alambre. Es decir, las ondas electromagnéticas se propagaron por todo el laboratorio. De esta forma, Hertz demostró que las ondas electromagnéticas invisibles pueden viajar desde un transmisor (radiador) a un receptor (detector) sin conexión alguna, es decir, sin soporte. Estas ondas, que en ese momento se conocían como ondas hertzianas, hoy son los que llamamos ondas de radio y se diferencian con las luminosas por su longitud de onda. Tras el experimento de Hertz, los investigadores se volcaron en la búsqueda de otras ondas electromagnéticas con longitudes de onda diferentes a las de la luz (como los rayos X, descubiertos por Roentgen). Hertz también hizo otro experimento fundamental, aunque nunca llegó a apreciar la importancia de haber descubierto el fenómeno fotoeléctrico que más tarde explicaremos.
Con todos estos descubrimientos, los albores del siglo XX contemplaron como la teoría de la naturaleza ondulatoria de la luz se establecía y parecía definitiva. Sin embargo, algunos experimentos posteriores dejarán en entredicho el modelo ondulatorio para describir plenamente el comportamiento de la luz. En aquella, época quizá pasó desapercibido todo esto, pero hoy podemos decir que las bases teóricas de Maxwell fueron el inicio de una nueva revolución en la física. Sin olvidar lo que sus observaciones supusieron para nuestra civilización contemporánea, caracterizada por las telecomunicaciones.
Max Planck (1858-1947), al estudiar los fenómenos de emisión y absorción de radiación electromagnética por parte de la materia, advirtió que los intercambios de energía entre materia y radiación no se llevan a cabo de forma continua, sino discreta, es decir como paquetes separados, que él denominó cuantos. Con esto, parecía que Planck volvía a resucitar los fantasmas de la teoría corpuscular. “Pero la física había progresado y llegado a una nueva sofisticación. Los cuantos de Planck no eran como las antiguas balas microscópicas de Newton. Los cuantos se pueden comportar como partículas, bastante cierto, pero también se pueden comportar como ondas”, resuelve Ben Bova.
Albert Einstein (1879-1955) ahondó en esta cuestión en 1905, su gran año. Para ello, sintetizó en un ensayo, que a la postre le valió el Premio Nobel, el experimento de Hertz sobre el efecto fotoeléctrico y la teoría de los cuanto de Planck. El efecto fotoeléctrico muestra que la energía electromagnética con una longitud de onda adecuada puede excitar los electrones que orbitan alrededor de un átomo provocando la fuga (de los más exteriores) del átomo (lo que puede provocar corriente eléctrica). Para que esto suceda, la energía no puede ser un flujo continuo, sino pequeños paquetes: los cuantos de Planck.
El trabajo de Einstein predecía que la energía con la que los electrones escapaban del átomo aumentaba linealmente con la frecuencia de la luz incidente. La conclusión de Einstein fue que que los electrones eran despedidos fuera del material por la incidencia de los cuantos de luz (más tarde conocidos como fotones). Cada fotón individual acarreaba una cantidad de energía E, que se encontraba relacionada con la frecuencia v de la luz, mediante la ecuación E=hv, donde h es la constante de Planck (la relación entre la cantidad de energía y de frecuencia asociadas a un cuanto). Es decir, sólo los fotones con una frecuencia alta podían provocar la corriente de electrones.
La interpretación efectuada por Einstein del efecto fotoeléctrico fue indiscutible, pero también lo fue la teoría de Maxwell sobre las ondas electromagnéticas. Ciertos comportamientos de la luz, como la interferencia y la difracción, pueden ser descritos sólo mediante la teoría ondulatoria, mientras que el fenómeno fotoeléctrico y otros fenómenos que fueron saliendo a la luz sólo podrían hilvanarse con el modelo corpuscular. Una vez las controversias fueron abandonadas por los científicos se pudo admitir que ambos modelos eran complementarios. El aspecto ondulatorio se pone de manifiesto a bajas frecuencias o grandes longitudes de onda, en tanto que el aspecto corpuscular se presenta a frecuencias elevadas o pequeñas longitudes de onda. A esta propiedad de la luz se la conoce como dualidad onda-fotón o corpúsculo.
Lo que hizo Arquímedes contra la Flota romana durante las Guerras Púnicas, aunque probablemente sólo sea una leyenda, se puede emplear como metáfora que signifique la multitud de artilugios y descubrimientos que ha aportado a nuestra civilización el conocimiento del comportamiento luminoso. Lentes y espejos, microscopios y telescopios, la fotografía y el cine, el láser, o los paneles fotovoltaicos…y la enumeración podría continuar cientos de páginas. De alguna forma, el progreso tecnológico humano ha seguido un camino paralelo a las evoluciones que siglo tras siglo surgían sobre la naturaleza y el comportamiento luminoso. La luz está tan presente en el mundo natural y en el mundo artificial que parece que todo dependa de ella. El escritor del Génesis bien lo intuyó y cuando narró la confección del mundo fue ésta su primera creación. ¡Hágase la luz!