martes, 20 de noviembre de 2012
Hidrodinámica
Esta rama de la mecánica de fluidos se ocupa de las leyes de los fluidos en movimiento; estas leyes son enormemente complejas, y aunque la hidrodinámica tiene una importancia práctica mayor que la hidrostática,sólo podemos tratar aquí algunos conceptos básicos.
Euler fue el primero en reconocer que las leyes dinámicas para los fluidos sólo pueden expresarse de forma relativamente sencilla si se supone que el fluido es incompresible e ideal, es decir, si se pueden despreciar los efectos del rozamiento y la viscosidad. Sin embargo, como esto nunca es así en el caso de los fluidos reales en movimiento, los resultados de dicho análisis sólo pueden servir como estimación para flujos en los que los efectos de la viscosidad son pequeños.
a) Flujos incompresibles y sin rozamiento
b) Flujos viscosos: movimiento laminar y turbulento
c) Flujos de la capa límite
d) Flujos compresibles
Viscosidad
Estos flujos cumplen el llamado teorema de Bernoulli, que afirma que la energía mecánica total de un flujo incompresible y no viscoso (sin rozamiento) es constante a lo largo de una línea de corriente. Las líneas de corriente son líneas de flujo imaginarias que siempre son paralelas a la dirección del flujo en cada punto, y en el caso de flujo uniforme coinciden con la trayectoria de las partículas individuales de fluido. El teorema de Bernoulli implica una relación entre los efectos de la presión, la velocidad y la gravedad, e indica que la velocidad aumenta cuando la presión disminuye. Este principio es importante para predecir la fuerza de sustentación de un ala en vuelo.
Ecuación de continuidad: (para flujo estacionario e incompresible, sin fuentes ni sumideros, por evaluarse a lo largo de una línea de corriente).
1) Ley de conservación de la masa en la dinámica de los fluidos:
A1.v1 = A2.v2 = constante.
Recordar que p = F/A ÞF = p.A
Flujo de volúmen: (caudal).
Φ = A .v [m ³/s]
Ecuación de Bernoulli: (principio de conservación de la energía) para flujo ideal (sin fricción).
p1 + δ.v1 ²/2 + δ.g.h1 = p2 + δ.v2 ²/2 + δ.g.h2 = constante
p1/δ + v1 ²/2 + g.h1 = p2/δ + v2 ²/2 + g.h2
p/ δ = energía de presión por unidad de masa.
g.h = energía potencial por unidad de masa.
v ²/2 = energía cinética por unidad de masa.
Ecuación de Bernoulli para flujo en reposo: v1 = v2 = 0
p1 + δ.g.h1 = p2 + δ.g.h2
Los primeros experimentos cuidadosamente documentados del rozamiento en flujos de baja velocidad a través de tuberías fueron realizados independientemente por Poiseuille y por Gotthilf Heinrich Ludwig Hagen. El primer intento de incluir los efectos de la viscosidad en las ecuaciones matemáticas se debió a Navier e, independientemente, a Sir George Gabriel Stokes, quien perfeccionó las ecuaciones básicas para los fluidos viscosos incompresibles. Actualmente se las conoce como ecuaciones de Navier-Stokes, y son tan complejas que sólo se pueden aplicar a flujos sencillos. Uno de ellos es el de un fluido real que circula a través de una tubería recta.
El teorema de Bernoulli no se puede aplicar aquí,porque parte de la energía mecánica total se disipa como consecuencia del rozamiento viscoso, lo que provoca una caída de presión a lo largo de la tubería. Las ecuaciones sugieren que, dados una tubería y un fluido determinados, esta caída de presión debería ser proporcional a la velocidad de flujo. Los experimentos demostraron que esto sólo era cierto para velocidades bajas; para velocidades mayores, la caída de presión era más bien proporcional al cuadrado de la velocidad.
Este problema se resolvió cuando Reynolds demostró la existencia de dos tipos de flujo viscoso en tuberías. A velocidades bajas, las partículas del fluido siguen las líneas de corriente (flujo laminar), y los resultados experimentales coinciden con las predicciones analíticas. A velocidades más elevadas, surgen fluctuaciones en la velocidad del flujo, o remolinos (flujo turbulento), en una forma que ni siquiera en la actualidad se puede predecir completamente.
Reynolds también determinó que la transición del flujo laminar al turbulento era función de un único parámetro, que desde entonces se conoce como número de Reynolds. Si el número de Reynolds (que carece de dimensiones y es el producto de la velocidad, la densidad del fluido y el diámetro de la tubería dividido entre la viscosidad del fluido) es menor de 2.000, el flujo a través de la tubería es siempre laminar; cuando los valores son mayores a 3000 el flujo es turbulento. El concepto de número de Reynolds es esencial para gran parte de la moderna mecánica de fluidos.
Los flujos turbulentos no se pueden evaluar exclusivamente a partir de las predicciones calculadas, y su análisis depende de una combinación de datos experimentales y modelos matemáticos; gran parte de la investigación moderna en mecánica de fluidos está dedicada a una mejor formulación de la turbulencia. Puede observarse la transición del flujo laminar al turbulento y la complejidad del flujo turbulento cuando el humo de un cigarrillo asciende en aire muy tranquilo. Al principio, sube con un movimiento laminar a lo largo de líneas de corriente, pero al cabo de cierta distancia se hace inestable y se forma un sistema de remolinos entrelazados.
Ecuación de Bernoulli para flujo real (con fricción)
p1/δ + v1 ²/2 + g.h1 = p2/δ + v2 ²/2 + g.h2 + H0
H0 = perdida de energía por rozamiento desde 1 hasta 2.
Los flujos pueden separarse en dos regiones principales. La región próxima a la superficie está formada por una delgada capa límite donde se concentran los efectos viscosos y en la que puede simplificarse mucho el modelo matemático. Fuera de esta capa límite, se pueden despreciar los efectos de la viscosidad, y pueden emplearse las ecuaciones matemáticas más sencillas para flujos no viscosos.
La teoría de la capa límite ha hecho posible gran parte del desarrollo de las alas de los aviones modernos y del diseño de turbinas de gas y compresores.
El interés por los flujos compresibles comenzó con el desarrollo de turbinas de vapor por el británico Parsons y el sueco Laval. En esos mecanismos se descubrió por primera vez el flujo rápido de vapor a través de tubos, y la necesidad de un diseño eficiente de turbinas llevó a una mejora del análisis de los flujos compresibles. El interés por los flujos de alta velocidad sobre superficies surgió de forma temprana en los estudios de balística,donde se necesitaba comprender el movimiento de los proyectiles.
Uno de los principios básicos del flujo compresible es que la densidad de un gas cambia cuando el gas se ve sometido a grandes cambios de velocidad y presión. Al mismo tiempo, su temperatura también cambia, lo que lleva a problemas de análisis más complejos. El comportamiento de flujo de un gas compresible depende de si la velocidad de flujo es mayor o menor que la velocidad del sonido.
El sonido es la propagación de una pequeña perturbación, u onda de presión, dentro de un fluido. Para un gas, la velocidad del sonido es proporcional a la raíz cuadrada de su temperatura absoluta. La velocidad del sonido en el aire a 20 °C (293 Kelvin en la escala absoluta), es de unos 344 metros por segundo. Si la velocidad de flujo es menor que la velocidad del sonido (flujo subsónico),las ondas de presión pueden transmitirse a través de todo el fluido y así adaptar el flujo que se dirige hacia un objeto. Por tanto, el flujo subsónico que se dirige hacia el ala de un avión se ajustará con cierta distancia de antelación para fluir suavemente sobre la superficie. En el flujo supersónico, las ondas de presión no pueden viajar corriente arriba para adaptar el flujo. Por ello, el aire que se dirige hacia el ala de un avión en vuelo supersónico no está preparado para la perturbación que va a causar el ala y tiene que cambiar de dirección repentinamente en la proximidad del ala, lo que conlleva una compresión intensa u onda de choque. El ruido asociado con el paso de esta onda de choque sobre los observadores situados en tierra constituye el estampido sónico de los aviones supersónicos. Frecuentemente se identifican los flujos supersónicos por su número de Mach, que es el cociente entre la velocidad de flujo y la velocidad del sonido. Por tanto, los flujos supersónicos tienen un número de Mach superior a 1.
Propiedad de un fluido que tiende a oponerse a su flujo cuando se le aplica una fuerza. Los fluidos de alta viscosidad presentan una cierta resistencia a fluir; los fluidos de baja viscosidad fluyen con facilidad. La fuerza con la que una capa de fluido en movimiento arrastra consigo a las capas adyacentes de fluido determina su viscosidad, que se mide con un recipiente (viscosímetro) que tiene un orificio de tamaño conocido en el fondo. La velocidad con la que el fluido sale por el orificio es una medida de su viscosidad.
La viscosidad de un fluido disminuye con la reducción de densidad que tiene lugar al aumentar la temperatura. En un fluido menos denso hay menos moléculas por unidad de volumen que puedan transferir impulso desde la capa en movimiento hasta la capa estacionaria. Esto, a su vez, afecta a la velocidad de las distintas capas. El momento se transfiere con más dificultad entre las capas, y la viscosidad disminuye. En algunos líquidos, el aumento de la velocidad molecular compensa la reducción de la densidad. Los aceites de silicona, por ejemplo, cambian muy poco su tendencia a fluir cuando cambia la temperatura, por lo que son muy útiles como lubricantes cuando una máquina está sometida a grandes cambios de temperatura.
lunes, 19 de noviembre de 2012
Construcción de un cohete
La idea de fabricar cohetes impulsados por aire a surgió el año 1983 como proyecto fin de carrera en una universidad de EEUU. Desde entonces, el prototipo de cohete propulsado con agua ha ido ganando popularidad hasta usado por la NASA en busca de nuevos talentos por colegios americanos.
¿Cómo es?
En su forma básica, el cohete no es más que un recipiente, en la mayoría de los casos una botella de plástico que será la que contenga el aire que propulsará el cohete.
Para obtener la presión, se colocará un corcho que hace de válvula. Además, se complementa con alerones y cono de fricción.
¿Cómo lo construyo?
Material - una botella de PVC, la parte superior de otra, madera o similar, un tapón de corcho, una aguja de inflar balones, una bomba de bici, base de lanzamiento.
Primero has de conseguir una botella de plástico, de refrescos. Debes también buscar un tapón de corcho que adapte en la boca de la botella, ni muy suelto ni demasiado grande. Se realiza un agujero pequeño en el tapón que lo atraviese.
Para los alerones usaremos madera de balsa, cartón piedra o similar. Y para el cono de fricción , nos bastará con acoplar la parte superior de otra botella (a modo de embudo). En las uniones de los alerones, se utilizará pegamento que no ataque al plástico.
A volar
Para hacer volar el cohete, es necesaria agua. Llenamos la botella hasta un tercio aproximadamente. Ponemos el tapón a presión y pinchamos en él una aguja de inflar balones, que deberá pasar sin complicaciones, pero sin dejar espacio libre a través del agujero que hemos realizado en el tapón.
Colocaremos el cohete en posición vertical, en la base de lanzamiento, enganchando una bomba de bicicleta a la aguja. Introducimos el aire y se deberá apreciar cómo ascienden las burbujas.
El cohete despegará en el momento en que alcance la presión necesaria para hacer saltar el tapón. UNA VEZ INICIADO EL LLENADO DE AIRE, NO SE DEBE MANIPULAR. Ya que podría saltar el tapón en cualquier momento.
Cómo funciona
El mecanismo es simple, se basa en la ley de Newton acción-reacción, al ejercer una fuerza en el interior de la botella (aumentando la presión), ésta presión hace que el aire salga despedido hacia abajo, haciendo que el cohete ascienda. El uso del agua no es sino para ralentizar el proceso de expulsión de aire y que la subida dure más.
¿Sube mucho?
La altura que alcance el cohete, depende de tres factores:
-el peso
-la cantidad de agua
-la fricción
Cohete hidráulico
Un cohete de agua o un cohete de botella es un tipo de cohete de modelismo que usa agua como propelente de reacción. La cámara de presión, motor del cohete, es generalmente una botella de plástico. El agua es lanzada fuera por un gas a presión, normalmente aire comprimido, lo que impulsa el cohete según la 3ª ley de Newton
El principio que explica la propulsión de un cohete de agua es la ley de la conservación de la cantidad de movimiento, que es otra forma de llamar a la3ª ley de Newton o principio de acción-reacción. Este principio establece que en ausencia de fuerzas externas la cantidad de movimiento de un sistema, p, que es el producto de su masa por su velocidad, permanece constante o lo que es lo mismo su derivada es igual a cero:
El principio que explica la propulsión de un cohete de agua es la ley de la conservación de la cantidad de movimiento, que es otra forma de llamar a la3ª ley de Newton o principio de acción-reacción. Este principio establece que en ausencia de fuerzas externas la cantidad de movimiento de un sistema, p, que es el producto de su masa por su velocidad, permanece constante o lo que es lo mismo su derivada es igual a cero:
De esta ley, con los oportunos pasos matemáticos y sustituciones, se deriva la ecuación del cohete de Tsiolskovski:
donde es la velocidad instantánea, la velocidad de salida del fluido por la boca, la masa total inicial y la masa en cada momento.
La propulsión del cohete de agua puede esquematizarse como un sistema en el cual se va a producir la expulsión hacia atrás de una parte de su masa (el agua) lo que provocará un empuje que propulsará al resto del sistema hacia delante (acción-reacción), compensándose la cantidad de movimiento total del sistema. Laenergía mecánica necesaria para la expulsión de esta fracción de masa se almacena en el sistema como energía potencial en forma de gas a presión. Con la expulsión esta energía se irá convirtiendo en energía cinética, las del movimiento del agua y el cohete.
La expansión del aire comprimido se produce relativamente deprisa, unos 0,2 s, lo que no permite un intercambio térmico, por lo que esta expansión puede considerarse un proceso adiabático. Aplicando esta consideración se puede derivar la fórmula que describe la fuerza teórica que sigue el agua al ser expulsada (la ecuación de la tobera De Laval) que será de la misma intensidad que la que empuja al cohete, quedando así:
donde es la fuerza de propulsión, es el radio de la boca y la diferencia de presión entre el interior y el exterior.
Además en su movimiento el cohete estará sometido a la fuerza de la gravedad y a la resistencia producida por la fricción con el aire que depende de las leyes de la fluidodinámica. La ecuación final de su trayectoria es muy compleja y se resuelve numéricamente por medio de varios programas de simulación disponibles en internet.
La estabilidad de vuelo del cohete estará condicionada por la posición del centro de masas y de la posición del centro de presión aerodinámica. El primero tiene que encontrarse siempre delante del segundo y a una distancia que se estima empíricamente como óptima cuando ambos están separados alrededor del doble del radio del cohete. Para distancias inferiores el vuelo puede resultar inestable.
El centro de presión aerodinámica representa el punto en el cual se podrían concentrar de forma equivalente todas las fuerzas que frenan el movimiento del cohete debido a la resistencia del aire. El cálculo de su posición es muy complejo, pero gracias al trabajo de James Barrowman (publicado en 1966) se puede resolver usando un sistema de ecuaciones simplificado. Un método alternativo más fácil es encontrar el (baricentro) de una silueta de papel con la misma forma que la proyección lateral del cohete. Este punto es muy cercano al verdadero centro de presión aerodinámica. Además la posición del centro de presión aerodinámica se puede ajustar en cierta medida modificando la posición y dimensiones de los alerones.
Añadir leyenda |
viernes, 14 de septiembre de 2012
La electricidad
La electricidad es un fenómeno físico cuyo origen son las cargas eléctricas y cuya energía se manifiesta en fenómenos mecánicos, térmicos, luminosos y químicos, entre otros.
También se denomina electricidad a la rama de la física que estudia las leyes que rigen el fenómeno y a la rama de la tecnología que la usa en aplicaciones prácticas. Desde que, en 1831, Faraday descubriera la forma de producir corrientes eléctricas por inducción —fenómeno que permite transformar energía mecánica en energía eléctrica.
La electricidad es originada por las cargas eléctricas, en reposo o en movimiento, y las interacciones entre ellas. Cuando varias cargas eléctricas están en reposo relativo se ejercen entre ellas fuerzas electrostáticas. Cuando las cargas eléctricas están en movimiento relativo se ejercen también fuerzas magnéticas. Se conocen dos tipos de cargas eléctricas: positivas y negativas. Los átomos que conforman la materia contienen partículas subatómicas positivas (protones), negativas (electrones) y neutras (neutrones). También hay partículas elementales cargadas que en condiciones normales no son estables, por lo que se manifiestan sólo en determinados procesos como los rayos cósmicos y las desintegraciones radiactivas.
La electricidad y el magnetismo son dos aspectos diferentes de un mismo fenómeno físico, denominado electromagnetismo, descrito matemáticamente por las ecuaciones de Maxwell. El movimiento de una carga eléctrica produce un campo magnético, la variación de un campo magnético produce un campo eléctrico y el movimiento acelerado de cargas eléctricas genera ondas electromagnéticas
También se denomina electricidad a la rama de la física que estudia las leyes que rigen el fenómeno y a la rama de la tecnología que la usa en aplicaciones prácticas. Desde que, en 1831, Faraday descubriera la forma de producir corrientes eléctricas por inducción —fenómeno que permite transformar energía mecánica en energía eléctrica.
La electricidad es originada por las cargas eléctricas, en reposo o en movimiento, y las interacciones entre ellas. Cuando varias cargas eléctricas están en reposo relativo se ejercen entre ellas fuerzas electrostáticas. Cuando las cargas eléctricas están en movimiento relativo se ejercen también fuerzas magnéticas. Se conocen dos tipos de cargas eléctricas: positivas y negativas. Los átomos que conforman la materia contienen partículas subatómicas positivas (protones), negativas (electrones) y neutras (neutrones). También hay partículas elementales cargadas que en condiciones normales no son estables, por lo que se manifiestan sólo en determinados procesos como los rayos cósmicos y las desintegraciones radiactivas.
La electricidad y el magnetismo son dos aspectos diferentes de un mismo fenómeno físico, denominado electromagnetismo, descrito matemáticamente por las ecuaciones de Maxwell. El movimiento de una carga eléctrica produce un campo magnético, la variación de un campo magnético produce un campo eléctrico y el movimiento acelerado de cargas eléctricas genera ondas electromagnéticas
El Campo Eléctrico
El Campo Eléctrico, E , en un punto P, se define como la fuerza eléctrica F, que actúa sobre una carga de prueba positiva +q0, situada en dicho punto. Es decir,
, y se representa con líneas tangentes a la dirección del campo. La dirección y el sentido de las líneas del campo eléctrico en un punto, se obtiene observando el efecto de la carga sobre la carga prueba colocada en ese punto.
, y se representa con líneas tangentes a la dirección del campo. La dirección y el sentido de las líneas del campo eléctrico en un punto, se obtiene observando el efecto de la carga sobre la carga prueba colocada en ese punto.
En las figuras 4 y 5 se presentan las líneas de campo eléctrico debido a cargas puntuales +q y -q, las cuales se alejan de la carga positiva y se dirigen a la negativa.
•En la figura 6 se muestra las líneas de una pareja de cargas iguales y opuestas; en la figura 7 se muestran las líneas de campo de una pareja de cargas positivas e iguales.
Charles-Augustin de Coulomb
(Angulema, Francia, 14 de junio de 1736 - París, 23 de agosto de 1806) fue un físico e ingeniero francés. Se recuerda por haber descrito de manera matemática la ley de atracción entre cargas eléctricas. En su honor la unidad decarga eléctrica lleva el nombre de culombio (C). Entre otras teorías y estudios se le debe la teoría de la torsión recta y un análisis del fallo del terreno dentro de la Mecánica de suelos.
Fue el primer científico en establecer las leyes cuantitativas de la electrostática, además de realizar muchas investigaciones sobre:magnetismo, fricción y electricidad. Sus investigaciones científicas están recogidas en siete memorias, en las que expone teóricamente los fundamentos del magnetismo y de la electrostática. En 1777 inventó la balanza de torsión para medir la fuerza de atracción o repulsión que ejercen entre sí dos cargas eléctricas, y estableció la función que liga esta fuerza con la distancia. Con este invento, culminado en 1785, Coulomb pudo establecer el principio, que rige la interacción entre las cargas eléctricas, actualmente conocido como ley de Coulomb: . Coulomb también estudió la electrización por frotamiento y la polarización, e introdujo el concepto de momento magnético. El culombio o coulomb (símbolo C), es la unidad derivada del Sistema Internacional de Unidades para la medida de la magnitud física cantidad de electricidad (carga eléctrica). Nombrada en honor de Charles-Augustin de Coulomb.
fuente: wikipedia- Charles Augustin de Coulomb
La ley de Coulomb.
La ley de Coulomb, que establece cómo es la fuerza entre dos cargas eléctricas puntuales, constituye el punto de partida de la Electrostática como ciencia cuantitativa.
Fue descubierta por Priestley en 1766, y redescubierta por Cavendish pocos años después, pero fue Coulomb en 1785 quien la sometió a ensayos experimentales directos.
Entendemos por carga puntual una carga eléctrica localizada en un punto geométrico del espacio. Evidentemente, una carga puntual no existe, es una idealización, pero constituye una buena aproximación cuando estamos estudiando la interacción entre cuerpos cargados eléctricamente cuyas dimensiones son muy pequeñas en comparación con la distancia que existen entre ellos.
La Ley de Coulomb dice que "la fuerza electrostática entre dos cargas puntuales es proporcional al producto de las cargas e inversamente proporcional al cuadrado de la distancia que las separa, y tiene la dirección de la línea que las une. La fuerza es de repulsión si las cargas son de igual signo, y de atracción si son de signo contrario".
Es importante hacer notar en relación a la ley de Coulomb los siguientes puntos:
a) cuando hablamos de la fuerza entre cargas eléctricas estamos siempre suponiendo que éstas se encuentran en reposo (de ahí la denominación de Electrostática);
Nótese que la fuerza eléctrica es una cantidad vectorial, posee magnitud, dirección y sentido.
b) las fuerzas electrostáticas cumplen la tercera ley de Newton (ley de acción y reacción); es decir, las fuerzas que dos cargas eléctricas puntuales ejercen entre sí son iguales en módulo y dirección, pero de sentido contrario:
Fq1 → q2 = −Fq2 → q1 ;
Representación gráfica de la Ley de Coulomb para dos cargas del mismo signo. |
En términos matemáticos, esta ley se refiere a la magnitud F de la fuerza que cada una de las dos cargas puntuales q1y q2 ejerce sobre la otra separadas por una distancia r y se expresa en forma de ecuación como:
k es una constante conocida como constante Coulomb y las barras denotan valor absoluto.
F es el vector Fuerza que sufren las cargas eléctricas. Puede ser de atracción o de repulsión, dependiendo del signo que aparezca (en función de que las cargas sean positivas o negativas).
- Si las cargas son de signo opuesto (+ y –), la fuerza "F" será negativa, lo que indica atracción
- Si las cargas son del mismo signo (– y – ó + y +), la fuerza "F" será positiva, lo que indica repulsión.
En el gráfico vemos que, independiente del signo que ellas posean, las fuerzas se ejercen siempre en la misma dirección (paralela a la línea que representa r), tienen siempre igual módulo o valor (q1 x q2 = q2 x q1) y siempre se ejercen en sentido contrario entre ellas.
Recordemos que la unidad por carga eléctrica en el Sistema Internacional (SI) es el Coulomb.
c) hasta donde sabemos la ley de Coulomb es válida desde distancias de muchos kilómetros hasta distancias tan pequeñas como las existentes entre protones y electrones en un átomo.
Historia y funcionamiento de la cámara fotográfica
La cámara fotográfica tal y como la conocemos en la actualidad, puede parecernos algo normal no muy impresionante, pero para que se llegara a lo que es hoy, se fueron desarrollando una serie de descubrimientos, pruebas y demás experimentos, para así poder tomar una fotografía.
Las primeras pautas para su origen, las dieron los Árabes en el año 1000. A partir de ese momento, se fue evolucionando con el pasar de los años y de los siglos. En un principio las fotos solos eran unas formaciones de sombras, nada nítidas, las cuales duraban horas para ser realizadas. Con el tiempo se fue reduciendo el tiempo de exposición, salieron las fotografías a color y muy nítidas, hasta llegar a las fotografías digitales, de alta velocidad, que llegan a fotografiar a un proyectil a más de 2000 km./h.
La cámara oscura original era una habitación cuya única fuente de luz era un minúsculo orificio en una de la paredes. La luz que penetraba en ella por aquel orificio proyectaba una imagen del exterior en la pared opuesta. Aunque la imagen así formada resultaba invertida y borrosa, los artistas utilizaron esta técnica, mucho antes de que se inventase la película, para esbozar escenas proyectadas por la cámara. En el transcurso de tres siglos la cámara oscura evolucionó y se convirtió en una pequeña caja manejable, y al orificio se le instaló una lente óptica para conseguir una imagen más clara y definida.a
En el siglo XV, Leonardo Da Vinci definió una cámara oscura. Decía que si se coloca una hoja de papel en blanco verticalmente en una habitación oscura, el observador verá proyectada en ella los objetos del exterior, con sus formas y colores. "Parecerá como si estuvieran pintados en el papel", escribió. Lo único que faltaba, era descubrir la forma de fijar la imagen. O sea, hallar una emulsión sensible a la luz (que se oscureciera al recibir los rayos luminosos) con la que recubrir el papel y un medio de fijarla para que no continuara oscureciéndose. No llegó a descubrirlo.
En el siglo XVI se colocó, en la pequeña abertura de la caja, un lente que no sólo concentraba la luz, sino que también proporcionaba cierto control sobre la distancia necesaria para enfocar la imagen en la pantalla (dirigiendo la imagen al interior oscuro y enderezando la imagen invertida mediante espejos).
Hacia el siglo XVII, se sabía que ciertos compuestos de plata se ennegrecían al exponerlos al sol, pero se ignoraba si era el calor o la luz lo que lo causaba.
A fines del siglo XVII Jihann Heinri Schulze, Profesor de Anatomía de la Universidad de Altdorf (Alemania), descubrió que era la luz la que causaba este ennegrecimiento. Con lo que, en el siglo XVIII, los científicos británicos Thomas Wedgwood y sir Humphry Davy comenzaron sus experimentos para obtener imágenes fotográficas. Consiguieron producir imágenes de cuadros, siluetas de hojas y perfiles humanos utilizando papel recubierto de cloruro de plata. Estas fotos no eran permanentes ya que después de exponerlas a la luz, toda la superficie del papel se ennegrecía.
En 1725, Schulze descubrió por accidente que el compuesto que usaba en un matraz para sus experimentos, adquiría, donde lo iluminaba el sol, una coloración púrpura negruzca.
Recortó varias palabras de una hoja de papel y las colocó alrededor del matraz. Situó esta cerca de una llama, pero no se produjo ningún cambio de color. Cuando lo colocó al sol y luego de un tiempo lo sacó, las palabras aparecieron en el matraz, tal como habían sido cortadas; "fotografiadas" por el nitrato de plata oscurecido.
Sus hallazgos constituyeron la base de investigaciones posteriores sobre sustancias sensibles a la luz.
A partir de ese momento, fueron muchos los que intentaron o "lograron" tomar fotografías, pero fue Joseph Nicéphore, en 1827, quién obtuvo la primera fotografía conservada de la historia: Con una cámara produjo en una placa de peltre la imagen de la vista desde la ventana de su estudio. La placa de peltre estaba pulida y pulverizada con una especie de asfalto mezclado con petróleo. La exposición duró ocho horas. En las zonas de luz, el betún se endureció y se blanqueó según la intensidad de luz recibida. Las zonas no endurecidas se limpiaron con disolvente de petróleo y luego se oscurecieron con vapor de yodo para aumentar el contraste.
"La cour du domaine du Gras"
primera fotografía de la historia tomada por Joseph Nicéphore en 1827.
Alrededor de 1831 el pintor francés Louis Jacques Mandé Daguerre realizó fotografías en planchas recubiertas con una capa sensible a la luz de yoduro de plata. Después de exponer la plancha durante varios minutos, Daguerre empleó vapores de mercurio para revelar la imagen fotográfica positiva. Pero con el paso del tiempo, la imagen terminaba desapareciendo porque las planchas se ennegrecían. En las primeras fotografías permanentes conseguidas por el pintor la plancha de revelado se recubría con una disolución concentrada de sal común. Este proceso de fijado descubierto por el inventor británico William Henry Talbot, hacía que las partículas no expuestas al yoduro de plata resultaran insensibles a la luz con lo que se evitaba el ennegrecimiento total de la plancha. El método Daguerre conseguía una imagen única en la plancha de plata por cada exposición.
Mientras Daguerre perfeccionaba su sistema, Talbot desarrolló un método fotográfico que consistía en utilizar un papel negativo a partir del cual podía obtener un número ilimitado de copias.
Además de estos hubo muchos descubrimientos posteriores que finalizaron en las actuales cámaras fotográficas, mecánicas, automáticas, rápidas, muy precisas y con fotos en blanco y negro y color.
"Boulevard du Temple"
a primera fotografía en la que apareció un ser humano fue tomada por Louis Daguerre a finales de 1838 o principios de 1839.
El fenómeno de la refracción
La refracción es un fenómeno que afecta a los rayos de luz que atraviesan la frontera entre dos medios de distinta densidad óptica.
Un rayo, con una dada inclinación respecto a la perpendicular a esa frontera, que pasa del medio menos denso al más denso, se desvía aproximándose a la normal.
La relación entre los ángulos de llegada y salida del rayo está determinada por la llamada Ley de LENZ. En cualquier material, no todos los rayos que llegan a la frontera son refractados, sino que un porcentaje es reflejado y otro porcentaje es absorbido.
Un rayo que va de un medio más denso a uno menos denso se aleja de la normal, y allí se da un fenómeno interesante, porque si la inclinación supera cierto ángulo el rayo "rebota" en la frontera, produciéndose la llamada "reflexión total".
Las características ópticas de las lentes sencillas (únicas) o compuestas (sistemas de lentes que contienen dos o más elementos individuales) vienen determinadas por dos factores: la distancia focal de la lente y la relación entre la distancia focal y el diámetro de la lente. La distancia focal de una lente es la distancia del centro de la lente a la imagen que forma de un objeto situado a distancia infinita. La distancia focal se mide de dos formas: en unidades de longitud normales, como por ejemplo 20 cm o 1 m, o en unidades llamadas dioptrías, que corresponden al inverso de la distancia focal medida en metros. Por ejemplo, una lente de 1 dioptría tiene una distancia focal de 1 m, y una de 2 dioptrías tiene una distancia focal de 0,5 m. La relación entre la distancia focal y el diámetro de una lente determina su capacidad para recoger luz, o "luminosidad", y su inversa es la abertura relativa.
Un lente convexo tiene un foco real (lupa), es decir los rayos que vienen del infinito se concentran –convergen- en un punton real, observándose que cuanto mayor es la curvatura de la lente, menor es la distancia focal.
Si la lente es de mucha curvatura los rayos dejan de converger a un único punto, y se produce la llamada "aberración óptica".
Para ver el gráfico seleccione la opción "Descargar"
En un lente cóncavo los rayos que vienen del infinito salen en forma divergente, como si provinieran de un punto que estuviera detrás de la lente (es decir, tiene un foco virtual).
En los lentes cóncavos también se observa que cuanto mayor es la curvatura de la lente, menor es la distancia focal, y que lentes de mucha curvatura presentan "aberración óptica".
sábado, 21 de julio de 2012
¿Que es la luz?
Para la mayoría de las personas, la luz es algo tan natural y cotidiano que perdemos conciencia de su existencia. Estamos muy acostumbrados a despertar, abrir los ojos y mirar todo el entorno hasta volver a cerrar los ojos. Casi nunca pensamos que, en realidad, lo que vemos es luz reflejada (o bien luz producida) por los objetos, luz que llega a nuestros ojos. De lo contrario simplemente no podríamos ver.
¿Cómo llega la luz a nuestros ojos? ¿Cómo se propaga? o más aún, ¿qué es la luz?. Muchas personas se lo han preguntado, sin embargo fue hasta el siglo XVII, con Sir Isaac Newton, que se inició un estudio formal de la luz. Él consideraba a la luz como un conjunto de bolitas (corpúsculos) con masa que dependía del color. Así, Newton pudo explicar ciertos fenómenos como la descomposición de la luz blanca y el cambio en la dirección de la luz al pasar por diferentes medios (como el aire y el agua). La gente de esos días no gustaba de estas ideas, pues no empataba con su sentido común. Después de todo, nadie había visto que de una vela encendida salieran bolitas luminosas. En esta misma época surgió otra interpretación de la luz, la ondulatoria, propuesta por Christiaan Huygens. Esta idea fue más aceptada porque explicaba de una forma más natural el comportamiento de la luz. De esta manera se consideraba a la luz como un rayo con propiedades ondulatorias iguales a las ondas en la superficie del agua. Esta teoría se popularizó al ser base de la explicación para muchos fenómenos como la interferencia y difracción, fenómenos que ya se conocían en las ondas y que la teoría corpuscular (teoría de Newton) no podía explicar. El formalismo matemático que concluyó el estudio de la luz en su interpretación ondulatoria, lo dio el físico escocés James Clerk Maxwell en un artículo publicado en 1873. En este artículo, Maxwell coloca a la luz visible (la que podemos ver con nuestros ojos) dentro del gran conjunto de ondas, las ondas electromagnéticas. Para entonces, dados los experimentos realizados, los problemas del comportamiento de la luz y su naturaleza estaban totalmente resueltos: la luz tiene una parte eléctrica y otra magnética, y se comporta como una onda de acuerdo a las leyes de Maxwell. Sin embargo, el éxito de la interpretación ondulatoria de la luz no duró mucho tiempo.
A finales del siglo XIX, surgió un experimento que revolucionó la forma de pensar la luz. Gracias a diversos experimentos, se sabía que la luz era una forma de energía, y si se hacía incidir sobre algo, ésta le cedería energía a ese algo. Por ejemplo, si se hacía incidir sobre una placa metálica, se sabía que la energía de la luz cedería su energía principalmente a los electrones hasta desprenderlos de la placa. Como es muy natural pensar, entre más luz se incida sobre la placa, más energía se cede y más electrones se desprenden de la placa. Este experimento se realizó y, para sorpresa de todos, la cantidad de electrones que se desprendían de la placa, tenían un límite. Es decir, había un punto en el que a pesar de incrementar la intensidad de la luz, ya no se desprendían más electrones. La sorpresa fue aún mayor cuando se dieron cuenta de que este límite cambiaba si se hacía incidir luz de otro color sobre la placa. Lo que estaba diciendo la naturaleza es que la energía absorbida por los electrones no dependía tanto de la intensidad de la luz como del color. Esto se conoce como el efecto fotoeléctrico, y fue resuelto por Albert Einstein en 1905 (razón por la cuál obtuvo el premio Nobel en 1921), basado en ideas que Max Planck propuso en 1901. La solución de este problema se basa en el hecho de que la energía, en muy pequeñas escalas, se cede y se absorbe en cantidades fijas y bien determinadas. Es decir, no se puede ceder ni absorber cualquier cantidad de energía, sino sólo múltiplos de un mínimo al que se le llama “cuanto” de energía.
Más tarde, en 1925 Louis de Broglie propuso que las partículas podían tener propiedades de onda y viceversa. Esta idea revolucionó la concepción de partícula y onda, pues ahora parecían ser lo mismo. De ser así, la luz, a la que se había aceptado como una onda y se le habían comprobado experimentalmente propiedades ondulatorias, podía ser un conjunto de partículas. De un momento a otro, resurgía la interpretación que Newton le daba a la luz. Para desgracia del mundo científico, las ideas novedosas derivadas de la física cuántica, no se podían comprobar tan fácil, pues sólo se manifestaban claramente en escalas tan pequeñas como la de los electrones, y en esos días no se tenía el equipo necesario para hacer los experimentos a esta escala.
*Facultad de ciencias de la Universidad Nacional Autónoma de México.
Descomposición de la luz
La naturaleza de la luz ha fascinado siempre a los científicos. Newton, el científico más creativo y completo que ha dado la Historia, no escapó a esa fascinación. En 1667 presentó ante la Royal Society su experimento sobre la descomposición de la luz solar.
En aquella época dominaba la idea de Descartes de que la luz estaba compuesta por pequeños corpúsculos. Los colores eran la mezcla de luz y oscuridad, en distintas proporciones. Antes que Newton, Descartes ya intentó descomponer la luz, pero sólo logró obtener los colores rojo y azul.
Newton empleó un par de prismas de vidrio que, por entonces, eran populares como juguetes infantiles. Así que fue un experimento muy barato. Preparó una estancia en total oscuridad. Sólo a través de un agujero en la ventana entraba un rayo de luz solar. Colocó el prisma delante del rayo de luz, de modo que lo atravesara y reflejara la luz en la pared opuesta, a 7 metros de distancia. En la pared aparecían los colores del arco iris de forma alargada, uno sobre otro.
Cabían dos posibilidades. O bien el prisma daba color a la luz, o la luz era la mezcla de todos los colores y el prisma se limitaba a descomponerla. Para comprobarlo, utilizó el segundo prisma. Tras la luz descompuesta en colores colocó otra pantalla con un agujero, a unos 3 metros. Por este agujero fue haciendo pasar los colores de uno en uno. De modo que, detrás de la pantalla, sólo podía verse el color elegido. Por ejemplo, el rojo. Una vez aislado un color, lo hacía pasar a través del segundo prisma y lo reflejaba en otra pared.
Comprobó que ahora sólo cambiaba el ángulo, pero no el color. Es decir, si habíamos aislado el rojo, al atravesar el segundo prisma seguía saliendo rojo. Y así con todos los colores. Dedujo que los colores del arco iris eran colores puros, mientras que la luz blanca era la mezcla de todos ellos. El prisma no añadía ninguna cualidad a la luz, sino que la descomponía. Al proyectar los colores y juntarlos de nuevo, la luz volvía a ser blanca.
Newton empleó un par de prismas de vidrio que, por entonces, eran populares como juguetes infantiles. Así que fue un experimento muy barato. Preparó una estancia en total oscuridad. Sólo a través de un agujero en la ventana entraba un rayo de luz solar. Colocó el prisma delante del rayo de luz, de modo que lo atravesara y reflejara la luz en la pared opuesta, a 7 metros de distancia. En la pared aparecían los colores del arco iris de forma alargada, uno sobre otro.
Cabían dos posibilidades. O bien el prisma daba color a la luz, o la luz era la mezcla de todos los colores y el prisma se limitaba a descomponerla. Para comprobarlo, utilizó el segundo prisma. Tras la luz descompuesta en colores colocó otra pantalla con un agujero, a unos 3 metros. Por este agujero fue haciendo pasar los colores de uno en uno. De modo que, detrás de la pantalla, sólo podía verse el color elegido. Por ejemplo, el rojo. Una vez aislado un color, lo hacía pasar a través del segundo prisma y lo reflejaba en otra pared.
Comprobó que ahora sólo cambiaba el ángulo, pero no el color. Es decir, si habíamos aislado el rojo, al atravesar el segundo prisma seguía saliendo rojo. Y así con todos los colores. Dedujo que los colores del arco iris eran colores puros, mientras que la luz blanca era la mezcla de todos ellos. El prisma no añadía ninguna cualidad a la luz, sino que la descomponía. Al proyectar los colores y juntarlos de nuevo, la luz volvía a ser blanca.
El experimento causó sensación en la Royal Society. Newton logró descomponer la luz solar, pero siguió sin saber porqué. Entonces aún no se conocía la naturaleza ondulatoria de la luz. Los colores son ondas, y cada color tiene una longitud de onda diferente. Las longitudes de onda son más largas cuanto más se acercan al rojo, y más cortas hacia el violeta. Cuando la luz blanca entra en el prisma, cada color toma un camino distinto y lo atraviesa a distinta velocidad. Salen reflejados con distinto ángulo. Por eso los colores se separan y se ven en la pared de forma alargada uno sobre otro, y no circular.
Es el mismo proceso que forma el arco iris. Las gotas de agua actúan como el prisma. La luz solar se refleja en la cara interna de las gotas de lluvia y se descompone en colores. Una curiosidad: Newton estableció que la luz blanca se descomponía en siete colores. Podría haber dicho seis u otra cifra (¿qué clase de color es el añil?). Se debe al peso de la tradición griega en nuestra cultura europea, donde el número siete es fundamental. De ahí que se repita tanto, incluso en los cuentos infantiles de tradición europea. Es la misma razón que llevó a Pitágoras a fijar en siete las notas musicales.
Es el mismo proceso que forma el arco iris. Las gotas de agua actúan como el prisma. La luz solar se refleja en la cara interna de las gotas de lluvia y se descompone en colores. Una curiosidad: Newton estableció que la luz blanca se descomponía en siete colores. Podría haber dicho seis u otra cifra (¿qué clase de color es el añil?). Se debe al peso de la tradición griega en nuestra cultura europea, donde el número siete es fundamental. De ahí que se repita tanto, incluso en los cuentos infantiles de tradición europea. Es la misma razón que llevó a Pitágoras a fijar en siete las notas musicales.
miércoles, 18 de julio de 2012
Como percibimos los colores.
En la especie humana y en muchos otros primates, existen tres tipos diferentes de células fotosensibles llamadas conos cada uno de ellos es sensible de forma selectiva a la luz de una longitud de onda determinada, verde, roja y azul. Esta sensibilidad especifica se debe a la presencia de unas sustancias llamadas opsinas. La eritropsina tiene mayor sensibilidad para las longitudes de onda largas de alrededor de 650 nanómetros (luz roja), la cloropsina para longitudes de onda medias de unos 530 nanómetros (luz verde) y por último la cianopsina con mayor sensibilidad para las longitudes de onda pequeñas de unos 430 nanómetros (luz azul). El cerebro interpreta los colores a partir de la razón de estimulación de los tres tipos de conos.
Los conos de la curva de sensibilidad espectral de longitud de onda mediana («M») coinciden con los de las longitudes de onda corta («S») y larga («L»). La luz de cualquier longitud de onda que interactúa con los conos M también pueden interactuar con los conos S y L, o ambos, hasta cierto punto. Por lo tanto, no existe una longitud de onda, y no hay distribución espectral de energía no negativa, que excite sólamente conos M sin excitar los conos S o L. La excitación hipotética del cono M solo correspondería a un color verdoso imaginario que cualquier verde físico, correspondiendo a un distribución espectral de energía con un poder positivo en la longitud de onda (media) y poder negativo (no físico) del verde en las las longitudes de onda rojo y azul (largo y corto).
En pocas palabras: no existe una longitud de onda o estímulo físico capaz de excitar un solo cono sin excitar los otros dos.
El diagrama de color CIE 1931. Las regiones blancas corresponden a los colores imaginarios.
Los conos de la curva de sensibilidad espectral de longitud de onda mediana («M») coinciden con los de las longitudes de onda corta («S») y larga («L»). La luz de cualquier longitud de onda que interactúa con los conos M también pueden interactuar con los conos S y L, o ambos, hasta cierto punto. Por lo tanto, no existe una longitud de onda, y no hay distribución espectral de energía no negativa, que excite sólamente conos M sin excitar los conos S o L. La excitación hipotética del cono M solo correspondería a un color verdoso imaginario que cualquier verde físico, correspondiendo a un distribución espectral de energía con un poder positivo en la longitud de onda (media) y poder negativo (no físico) del verde en las las longitudes de onda rojo y azul (largo y corto).
En pocas palabras: no existe una longitud de onda o estímulo físico capaz de excitar un solo cono sin excitar los otros dos.
El diagrama de color CIE 1931. Las regiones blancas corresponden a los colores imaginarios.
percepción de colores imaginarios
Si un verde saturado se mira hasta que los receptores verdes se fatigan y luego se mira un rojo saturado entonces se experimenta la visión de un rojo aún más intenso que cualquier rojo puro que pueda percibirse. Esto es debido a la fatiga de los receptores verdes y su consiguiente falta de capacidad para desaturar la respuesta perceptiva de la salida de los receptores de color rojo.
Experimento: "El eclipse de Titán" o de cómo luce el verdadero color cyan
Vamos a poner en práctica lo dicho en el párrafo anterior, amplia la imagen, mira fijamente el punto blanco del círculo rojo por más de dos minutos, puedes parpadear, respirar, pero no le quites los ojos de encima al punto blanco ni muevas la cabeza, empezarás a notar que el circulo empieza a tener una especie de brillo en el borde, espera un poco más... y mueve la cabeza hacia atrás lentamente.
Vas a poder ver un círculo color Cyan con una saturación y profundidad que ni el más sofisticado monitor puede reproducir, y por cierto tus ojos tampoco pueden verlo en condiciones normales.
El gradiente junto al círculo no hace parte del efecto, es sólo para mostrarte que el color producido por la ilusión no está en ningun lado dentro de la paleta de colores que puede mostrar tu monitor.
Más Experimentos:
Sigue las mismas reglas del anterior.
martes, 17 de julio de 2012
Suscribirse a:
Entradas (Atom)