4 PERIODO

 

ELECTROSTATICA

La electrostática es la rama de la física que estudia los fenómenos producidos por distribuciones de cargas eléctricas, esto es, el campo electrostático de un cuerpo cargado.

Históricamente, la electrostática fue la rama del electromagnetismo que primero se desarrolló. Con la postulación de la Ley de Coulomb fue descrita y utilizada en experimentos de laboratorio a partir del siglo XVII, y ya en la segunda mitad del siglo XIX las leyes de Maxwell concluyeron definitivamente su estudio y explicación, y permitieron demostrar cómo las leyes de la electrostática y las leyes que gobiernan los fenómenos magnéticos pueden ser estudiadas en el mismo marco teórico denominado electromagnetismo.

La existencia del fenómeno electrostático es bien conocido desde la antigüedad, existen numerosos ejemplos ilustrativos que hoy forman parte de la enseñanza moderna, como el hecho de que ciertos materiales se cargan de electricidad por simple frotamiento y atraen pequeños trozos de papel o pelo, por ejemplo un globo inflado que previamente se ha frotado con un paño seco.

Desarrollo histórico

Representación de campo eléctrico producido por dos cargas.

Alrededor del 600 a. C. el filósofo griego Tales de Mileto descubrió que si frotaba un trozo de la resina vegetal fósil llamada ámbar, en griego élektron, este cuerpo adquiría la propiedad de atraer pequeños objetos. Algo más tarde, otro griego, Teofrasto (310 a. C.), realizó un estudio de los diferentes materiales que eran capaces de producir fenómenos eléctricos y escribió el primer tratado sobre la electricidad.

A principios del siglo XVII comienzan los primeros estudios sobre la electricidad y el magnetismo orientados a mejorar la precisión de la navegación con brújulas magnéticas. El físico real británico William Gilbert utiliza por primera vez la palabra electricidad, creada a partir del término griego elektron (ámbar). El jesuita italiano Niccolo Cabeo analizó sus experimentos y fue el primero en comentar que había fuerzas de atracción entre ciertos cuerpos y de repulsión entre otros.

Alrededor de 1672 el físico alemán Otto von Guericke construye la primera máquina electrostática capaz de producir y almacenar energía eléctrica estática por rozamiento. Esta máquina consistía en una bola de azufre atravesada por una varilla que servía para hacer girar la bola. Las manos aplicadas sobre la bola producían una carga mayor que la conseguida hasta entonces. Francis Hawksbee perfeccionó hacia 1707 la máquina de fricción usando una esfera de vidrio.

En 1733 el francés Francois de Cisternay du Fay propuso la existencia de dos tipos de carga eléctrica, positiva y negativa, constatando que:

  • Los objetos frotados contra el ámbar se repelen.
  • También se repelen los objetos frotados contra una barra de vidrio.
  • Sin embargo, los objetos frotados con el ámbar atraen los objetos frotados con el vidrio.

Du Fay y Stephen Gray fueron dos de los primeros “físicos eléctricos” en frecuentar plazas y salones para popularizar y entretener con la electricidad. Por ejemplo, se electriza a las personas y se producen descargas eléctricas desde ellas, como en el llamado beso eléctrico: se electrificaba a una dama y luego ella daba un beso a una persona no electrificada.[1]

En 1745 se construyeron los primeros elementos de acumulación de cargas, los condensadores, hoy también llamados capacitores, desarrollados en la Universidad de Leyden (hoy Leiden) por Ewald Jürgen Von Kleist y Pieter Van Musschenbroeck. Estos instrumentos, inicialmente denominados botellas de Leyden, fueron utilizados como curiosidad científica durante gran parte del siglo XVIII. En esta época se construyeron diferentes instrumentos para acumular cargas eléctricas, en general variantes de la botella de Leyden, y otros para manifestar sus propiedades, como los electroscopios.

En 1767, Joseph Priestley publicó su obra The History and Present State of Electricity sobre la historia de la electricidad hasta esa fecha. Este libro sería durante un siglo el referente para el estudio de la electricidad. En él, Priestley anuncia también alguno de sus propios descubrimientos, como la conductividad del carbón. Hasta entonces se pensaba que sólo el agua y los metales podían conducir la electricidad.[2]

Portrait of Joseph Priestley

 

En 1785 el físico francés Charles Coulomb publicó un tratado en el que se describían por primera vez cuantitativamente las fuerzas eléctricas, se formulaban las leyes de atracción y repulsión de cargas eléctricas estáticas y se usaba la balanza de torsión para realizar mediciones. En su honor, el conjunto de estas leyes se conoce con el nombre de ley de Coulomb. Esta ley, junto con una elaboración matemática más profunda a través del teorema de Gauss y la derivación de los conceptos de campo eléctrico y potencial eléctrico, describe la casi totalidad de los fenómenos electrostáticos.

  

Durante todo el siglo posterior se sucedieron avances significativos en el estudio de la electricidad, como los fenómenos eléctricos dinámicos producidos por cargas en movimiento en el interior de un material conductor. Finalmente, en 1864 el físico escocés James Clerk Maxwell unificó las leyes de la electricidad y el magnetismo en un conjunto reducido de leyes matemáticas.

 

Electricidad estática

Artículo principal: Electricidad estática

La electricidad estática es un fenómeno que se debe a una acumulación de cargas eléctricas en un objeto. Esta acumulación puede dar lugar a una descarga eléctrica cuando dicho objeto se pone en contacto con otro.

Antes del año 1832, que fue cuando Michael Faraday publicó los resultados de sus experimentos sobre la identidad de la electricidad, los físicos pensaban que la electricidad estática era algo diferente de la electricidad obtenida por otros métodos. Michael Faraday demostró que la electricidad inducida desde un imán, la electricidad producida por una batería, y la electricidad estática son todas iguales.

La electricidad estática se produce cuando ciertos materiales se frotan uno contra el otro, como lana contra plástico o las suelas de zapatos contra la alfombra, donde el proceso de frotamiento causa que se retiren los electrones de la superficie de un material y se reubiquen en la superficie del otro material que ofrece niveles energéticos más favorables. O cuando partículas ionizadas se depositan en un material, como ocurre en los satélites al recibir el flujo del viento solar y de los cinturones de radiación de Van Allen. La capacidad de electrificación de los cuerpos por rozamiento se denomina efecto triboeléctrico; existe una clasificación de los distintos materiales denominada secuencia triboeléctrica.

La electricidad estática se utiliza comúnmente en la xerografía, en filtros de aire, en algunas pinturas de automóvil, en algunos aceleradores de partículas subatómicas, etc. Los pequeños componentes de los circuitos eléctrónicos pueden dañarse fácilmente con la electricidad estática. Sus fabricantes usan una serie de dispositivos antiestáticos y embalajes especiales para evitar estos daños. Hoy la mayoría de los componentes semiconductores de efecto de campo, que son los más delicados, incluyen circuitos internos de protección antiestática.

Aislantes y conductores

Los materiales se comportan de forma diferente en el momento de adquirir una carga eléctrica. Así, una varilla metálica sostenida con la mano y frotada con una piel no resulta cargada. Sin embargo, sí es posible cargarla cuando al frotarla se usa para sostenerla un mango de vidrio o de plástico y el metal no se toca con las manos al frotarlo. La explicación es que las cargas pueden moverse libremente entre el metal y el cuerpo humano, lo que las iría descargando en cuanto se produjeran, mientras que el vidrio y el plástico no permiten la circulación de cargas porque aíslan eléctricamente la varilla metálica del cuerpo humano.

Esto se debe a que en ciertos materiales, típicamente en los metales, los electrones más alejados de los núcleos respectivos adquieren fácilmente libertad de movimiento en el interior del sólido. Estos electrones libres son las partículas que transportarán la carga eléctrica. Al depositar electrones en ellos, se distribuyen por todo el cuerpo, y viceversa, al perder electrones, los electrones libres se redistribuyen por todo el cuerpo para compensar la pérdida de carga. Estas sustancias se denominan conductores.

En contrapartida de los conductores eléctricos, existen materiales en los que los electrones están firmemente unidos a sus respectivos átomos. En consecuencia, estas sustancias no poseen electrones libres y no será posible el desplazamiento de carga a través de ellos. Al depositar una carga eléctrica en ellos, la electrización se mantiene localmente. Estas sustancias son denominadas aislantes o dieléctricos. El vidrio y los plásticos son ejemplos típicos.

La distinción entre conductores y aislantes no es absoluta: la resistividad de los aislantes no es infinita (pero sí muy grande), y las cargas eléctricas libres, prácticamente ausentes de los buenos aislantes, pueden crearse fácilmente suministrando la cantidad adecuada de energía para separar a un electrón del átomo al que esté ligado (por ejemplo, mediante irradiación o calentamiento). Así, a una temperatura de 3000 K, todos los materiales que no se descomponen por la temperatura, son conductores.

Entre los buenos conductores y los dieléctricos existen múltiples situaciones intermedias. Entre ellas destacan los materiales semiconductores por su importancia en la fabricación de dispositivos electrónicos que son la base de la actual revolución tecnológica. En condiciones ordinarias se comportan como dieléctricos, pero sus propiedades conductoras se modifican mediante la adición de una minúscula cantidad de sustancias dopantes. Con esto se consigue que pueda variarse la conductividad del material semiconductor como respuesta a la aplicación de un potencial eléctrico variable en su electrodo de control.

Ciertos metales adquieren una conductividad infinita a temperaturas muy bajas, es decir, la resistencia al flujo de cargas se hace cero. Se trata de los superconductores. Una vez que se establece una corriente eléctrica de circuito cerrado en un superconductor, los electrones fluyen por tiempo indefinido.

 

 

Generadores electrostáticos

  Este artículo o sección necesita referencias que aparezcan en una publicación acreditada, como revistas especializadas, monografías, prensa diaria o páginas de Internet fidedignas.
Puedes añadirlas así o avisar al autor principal del artículo en su página de discusión pegando: {{subst:Aviso referencias|Electrostática}} ~~~~

Los generadores de electricidad estática son máquinas que producen altísimas tensiones con una muy pequeña intensidad de corriente. Hoy se utilizan casi exclusivamente para demostraciones escolares de física. Ejemplos de tales generadores son el electróforo, la máquina de Wimshurst y el generador de Van de Graaff.

Al frotar dos objetos no conductores se genera una gran cantidad de electricidad estática. En realidad, este efecto no se debe a la fricción, pues dos superficies no conductoras pueden cargarse con sólo apoyar una sobre la otra. Sin embargo, al frotar dos objetos aumenta el contacto entre las dos superficies, lo que aumentará la cantidad de electricidad generada. Habitualmente los aislantes son buenos para generar y para conservar cargas superficiales. Algunos ejemplos de estas sustancias son el caucho, los plásticos y el vidrio. Los objetos conductores raramente generan desequilibrios de cargas, excepto, por ejemplo, cuando una superficie metálica recibe el impacto de un sólido o un líquido no conductor, como en los transportes de combustibles líquidos. La carga que se transfiere durante la electrificación por contacto se almacena en la superficie de cada objeto, a fin de estar lo más separada posible y así reducir la repulsión entre las cargas.

 

Carga inducida

La carga inducida se produce cuando un objeto cargado repele o atrae los electrones de la superficie de un segundo objeto. Esto crea una región en el segundo objeto que está con una mayor carga positiva, creándose una fuerza atractiva entre los objetos. Por ejemplo, cuando se frota un globo, el globo se mantendrá pegado a la pared debido a la fuerza atractiva ejercida por dos superficies con cargas opuestas (la superficie de la pared gana una carga eléctrica inducida pues los electrones libres de la superficie del muro son repelidos por los electrones que ha ganado el globo al frotarse; se crea así por inducción electrostática una superficie de carga positiva en la pared, que atraerá a la superficie negativa del globo).

Carga por fricción

En la carga por fricción se transfiere gran cantidad de electrones porque la fricción aumenta el contacto de un material con el otro. Los electrones más internos de un átomo están fuertemente unidos al núcleo, de carga opuesta, pero los más externos de muchos átomos están unidos muy débilmente y pueden desalojarse con facilidad. La fuerza que retiene a los electrones exteriores en el átomo varia de una sustancia a otra. Por ejemplo los electrones son retenidos con mayor fuerza en la resina que en la lana, y si se frota una torta de resina con un tejido de lana bien seco, se transfieren los electrones de la lana a la resina. Por consiguiente la torta de resina queda con un exceso de electrones y se carga negativamente. A su vez, el tejido de lana queda con una deficiencia de electrones y adquiere una carga positiva. Los átomos con deficiencia de electrones son iones, iones positivos porque, al perder electrones (que tienen carga negativa), su carga neta resulta positiva.

 

Carga por inducción

Se puede cargar un cuerpo por un procedimiento sencillo que comienza con el acercamiento a él de una varilla de material aislante, cargada. Considérese una esfera conductora no cargada, suspendida de un hilo aislante. Al acercarle la varilla cargada negativamente, los electrones de conducción que se encuentran en la superficie de la esfera emigran hacia el lado lejano de ésta; como resultado, el lado lejano de la esfera se carga negativamente y el cercano queda con carga positiva. La esfera oscila acercándose a la varilla, porque la fuerza de atracción entre el lado cercano de aquélla y la propia varilla es mayor que la de repulsión entre el lado lejano y la varilla. Vemos que tiene una fuerza eléctrica neta, aun cuando la carga neta en las esfera como un todo sea cero. La carga por inducción no se restringe a los conductores, sino que puede presentarse en todos los materiales.

 

 

 

Aplicaciones

La electricidad estática se usa habitualmente en xerografía en la que un pigmento en polvo (tinta seca o toner) se fija en las áreas cargadas previamente, lo que hace visible la imagen impresa.

En electrónica, la electricidad estática puede causar daños a los componentes, por lo que los operarios han de tomar medidas para descargar la electricidad estática que pudieran haber adquirido. Esto puede ocurrir a una persona por frotamiento de las suelas de los zapatos (de materiales como la goma) contra suelos de tela o alfombras, o por frotamiento de su vestimenta contra una silla de plástico. Las tensiones generadas así serán más altas en los días con baja humedad relativa ambiente. Hoy las alfombras y las sillas se hacen con materiales que generen poca electricidad por frotamiento. En los talleres de reparación o en fábricas de artefactos electrónicos se tiene el cuidado de evitar la generación o de descargar estas cargas electrostáticas.

Al aterrizar un avión se debe proceder a su descarga por seguridad. En los automóviles también puede ocurrir la electrificación al circular a gran velocidad en aire seco (el aire húmedo produce menores cargas), por lo que también se necesitan medidas de seguridad para evitar las chispas eléctricas.

Se piensa que la explosión en 2003 de un cohete en el Centro de Lanzamiento de Alcántara en Brasil, que mató a 21 personas, se debió a chispas originadas por electricidad estática.

Conceptos matemáticos fundamentales

La ley de Coulomb

La ecuación fundamental de la electrostática es la ley de Coulomb, que describe la fuerza entre dos cargas puntuales Q1 y Q2. Dentro de un medio homogéneo como es el aire, la relación se expresa como:

  

donde F es la fuerza,  es una constante característica del medio, llamada la « permitividad ». En el caso del vacío, se denota como  0. La permitividad del aire es solo un 0,5‰ superior a la del vacío, por lo que a menudo se usan indistintamente.

Las cargas del mismo signo se repelen entre sí, mientras que las cargas de signo opuesto se atraen entre sí. La fuerza es proporcional al producto de las cargas eléctricas e inversamente proporcional al cuadrado de la distancia entre las cargas.

La acción a distancia se efectúa por medio del campo eléctrico existente en el punto en el cual está situado cada carga.así mismo es….

  

El campo eléctrico

El campo eléctrico (en unidades de voltios por metro) se define como la fuerza (en newtons) por unidad de carga (en coulombs). De esta definición y de la ley de Coulomb, se desprende que la magnitud de un campo eléctrico E creado por una carga puntual Q es:

  

La ley de Gauss

La ley de Gauss establece que el flujo eléctrico total a través de una superficie cerrada es proporcional a la carga eléctrica total encerrada dentro de la superficie. La constante de proporcionalidad es la permitividad del vacío.

Matemáticamente, la ley de Gauss toma la forma de una ecuación integral:

  

Alternativamente, en forma diferencial, la ecuación es

  

La ecuación de Poisson

La definición del potencial electrostático, combinada con la forma diferencial de la ley de Gauss, provee una relación entre el potencial Φ y la densidad de carga ρ:

  

Esta relación es una forma de la ecuación de Poisson.

Ecuación de Laplace

En ausencia de carga eléctrica, la ecuación es

  

que es la ecuación de Laplace.

Electroscopio

Véase también: Electroscopio

El electroscopio es un instrumento que permite determinar la presencia de carga s eléctricas y su signo.

DIFERENCI POTENCIAL

La tensión, voltaje o diferencia de potencial es una magnitud física que impulsa a los electrones a lo largo de un conductor en un circuito eléctrico cerrado, provocando el flujo de una corriente eléctrica. La diferencia de potencial también se define como el trabajo por unidad de carga ejercido por el campo eléctrico, sobre una partícula cargada, para moverla de un lugar a otro. Se puede medir con un voltímetro.[1]

En el Sistema Internacional de Unidades, la diferencia de potencial se mide en voltios ( V ), al igual que el potencial.

La tensión es independiente del camino recorrido por la carga, y depende exclusivamente del potencial eléctrico de los puntos A y B en el campo.

Si dos puntos que tienen una diferencia de potencial se unen mediante un conductor, se producirá un flujo de electrones. Parte de la carga que crea el punto de mayor potencial se trasladará a través del conductor al punto de menor potencial y, en ausencia de una fuente externa (generador), esta corriente cesará cuando ambos puntos igualen su potencial eléctrico (ley de Henry). Este traslado de cargas es lo que se conoce como corriente eléctrica.

Cuando se habla sobre una diferencia de potencial en un sólo punto, o potencial, se refiere a la diferencia de potencial entre este punto y algún otro donde el potencial sea cero.

Polaridad

Figura 1: Polaridad de una diferencia de potencial.

Cuando por dos puntos de un circuito puede circular una corriente eléctrica, la polaridad de la caída de tensión viene determinada por la dirección convencional de la misma; esto es, del punto de mayor potencial al de menor. Por lo tanto, si por el resistor R de la figura 1 circula una corriente de intensidad I, desde el punto A hacia el B, se producirá una caída de tensión en la misma con la polaridad indicada, y se dice que el punto A es más positivo que el B.

Otra de las formas de expresar la tensión entre dos puntos es en función de la intensidad de corriente y la resistencia existentes entre ellos; así se obtiene uno de los enunciados de la ley de Ohm, que dice:

V = {R} \cdot{I} \,

Es importante destacar que ( V ) no se refiere al potencial eléctrico sino a la diferencia de potencial ( ΔV ) entre dos puntos.

Carga eléctrica

De Wikipedia, la enciclopedia libre
Artículo bueno

Interacciones entre cargas de igual y distinta naturaleza.

En física, la carga eléctrica es una propiedad intrínseca de algunas partículas subatómicas (pérdida o ganancia de electrones) que se manifiesta mediante atracciones y repulsiones que determinan las interacciones electromagnéticas entre ellas. La materia cargada eléctricamente es influida por los campos electromagnéticos siendo, a su vez, generadora de ellos. La interacción entre carga y campo eléctrico origina una de las cuatro interacciones fundamentales: la interacción electromagnética.

La carga eléctrica es de naturaleza discreta, fenómeno demostrado experimentalmente por Robert Millikan. Por razones históricas, a los electrones se les asignó carga negativa: –1, también expresada –e. Los protones tienen carga positiva: +1 o +e. A los quarks se les asigna carga fraccionaria: ±1/3 o ±2/3, aunque no se han podido observar libres en la naturaleza.[1

Carga eléctrica elemental

Las investigaciones actuales de la física apuntan a que la carga eléctrica es una propiedad cuantizada. La unidad más elemental de carga se encontró que es la carga que tiene el electrón, es decir alrededor de 1.6 x 10-19 culombios y es conocida como carga elemental. El valor de la carga eléctrica de un cuerpo, representada como q o Q, se mide según el número de electrones que posea en exceso o en ausencia.[4]

En el Sistema Internacional de Unidades la unidad de carga eléctrica se denomina culombio (símbolo C) y se define como la cantidad de carga que a la distancia de 1 metro ejerce sobre otra cantidad de carga igual, la fuerza de 9x109 N.

Un culombio corresponde a 6,24 × 1018 electrones.[5] El valor de la carga del electrón fue determinado entre 1910 y 1917 por Robert Andrews Millikan y en la actualidad su valor en el Sistema Internacional de acuerdo con la última lista de constantes del CODATA publicada es:[6]

 

Como el culombio puede no ser manejable en algunas aplicaciones, por ser demasiado grande, se utilizan también sus submúltiplos:

1 miliculombio =
1 microculombio =

Frecuentemente se usa también el sistema CGS cuya unidad de carga eléctrica es el Franklin (Fr). El valor de la carga elemental es entonces de aproximadamente 4.803 x 10–10 Fr.

Circuito

Circuitos eléctricos
Ohms law voltage source.svg
 

Un circuito es una red eléctrica (interconexión de dos o más componentes, tales como resistencias, inductores, capacitores, fuentes, interruptores y semiconductores) que contiene al menos una trayectoria cerrada.

Los circuitos que contienen solo fuentes, componentes lineales (resistores, capacitores, inductores), y elementos de distribución lineales (líneas de transmisión o cables) pueden analizarse por métodos algebraicos para determinar su comportamiento en corriente directa o en corriente alterna.

Un circuito que tiene componentes electrónicos es denominado un circuito electrónico. Estas redes son generalmente no lineales y requieren diseños y herramientas de análisis mucho más complejos.

artes

Figura 1: circuito ejemplo.

  • Componente: Un dispositivo con dos o más terminales que puede fluir carga dentro de él. En la figura 1 se ven 8 componentes entre resistores y fuentes.
  • Nodo: Punto de un circuito donde concurren varios conductores distintos. A, B, D, E son nodos. Nótese que C no es consdierado como un nodo puesto que es el mismo nodo A al no existir entre ellos diferencia de potencial o tener tensión 0 (VA – VC = 0).
  • Rama: Conjunto de todos los elementos de un circuito comprendidos entre dos nodos consecutivos. En la figura 1 se hallan siete ramales: AB por la fuente, AB por R1, AD, AE, BD, BE y DE. Obviamente, por un ramal sólo puede circular una corriente.
  • Malla: Un grupo de ramas que están unidas en una red y que a su vez forman un lazo.
  • Fuente: Componente que se encarga de transformar algún tipo de energía en energía eléctrica. En el circuito de la figura 1 hay tres fuentes, una de intensidad, I, y dos de tensión, E1 y E2.
  • Conductor: Comúnmente llamado cable; es un hilo de resistencia despreciable (idealmente cero) que une los elementos para formar el circuito.

[editar] Clasificación

Los circuitos eléctricos se clasifican de la siguiente forma:

   {\color{Blue}\mbox{Tipo de señal}}    \quad    \begin{cases}       \mbox{Corriente continua} \\       \mbox{Corriente alterna}    \end{cases}
   {\color{Blue}\mbox{Tipo de Régimen}}    \quad    \begin{cases}       \mbox{Corriente periódica}   \\       \mbox{Corriente transitoria} \\       \mbox{Permanente}    \end{cases}
   {\color{Blue}\mbox{Tipo de Componentes}}    \quad    \begin{cases}       \mbox{Eléctricos} \\       \mbox{Electrónicos} \quad       {\begin{cases}          \mbox{Digitales}\\          \mbox{Analógicos} \\          \mbox{Mixtos}       \end{cases}}    \end{cases}
   {\color{Blue}\mbox{Configuración}}    \quad    \begin{cases}       \mbox{Serie}    \\       \mbox{Paralelo} \\       \mbox{Mixto}    \end{cases}

Circuito en paralelo

De Wikipedia, la enciclopedia libre

El circuito en paralelo es una conexión donde los bornes o terminales de entrada de todos los dispositivos (generadores, resistencias, condensadores, etc.) conectados coincidan entre sí, lo mismo que sus terminales de salida.

Siguiendo un símil hidráulico, dos tinacos de agua conectados en paralelo tendrán una entrada común que alimentará simultáneamente a ambos, así como una salida común que drenará a ambos a la vez. Las bombillas de iluminación de una casa forman un circuito en paralelo.

En función de los dispositivos conectados en paralelo, el valor total o equivalente se obtiene con las siguientes expresiones:

  • Para generadores
Interu 12.svg Componente 07.svg Interu 15.svg
Interu 14.svg Componente 07.svg Interu 17.svg
Interu 20.svg Componente 07.svg Interu 20.svg
{V_{T}} = {V_1} = {V_2} = ... = {V_n}\,
{I_{T}} = {I_1} + {I_2} + ... + {I_n}\,
  • Para Resistencias
Interu 12.svg Componente 01.svg Interu 15.svg
Interu 14.svg Componente 01.svg Interu 17.svg
Interu 20.svg Componente 01.svg Interu 20.svg
{1 \over R_{T}} = {1 \over R_1} + {1 \over R_2} + ... + {1 \over R_n}\,
  • Para Condensadores
Interu 12.svg Componente 04.svg Interu 15.svg
Interu 14.svg Componente 04.svg Interu 17.svg
Interu 20.svg Componente 04.svg Interu 20.svg
{C_{T}} = {C_1} + {C_2} + ... + {C_n}\,
  • Para Interruptores
Interu 12.svg Interu 01.svg Interu 15.svg
Interu 14.svg Interu 01.svg Interu 17.svg
Interu 20.svg Interu 01.svg Interu 20.svg
Interruptor 1 Interruptor 2 Salida
Abierto Abierto Abierto
Abierto Cerrado Cerrado
Cerrado Abierto Cerrado
Cerrado Cerrado Cerrado

 
Otra configuración posible, para la disposición de componentes eléctricos, es el circuito en serie. En el cual, los valores equivalentes se calculan de forma inversa al circuito paralelo.

COMPUERTAS LÓGICAS

Las computadoras digitales utilizan el sistema de números binarios, que tiene dos dígitos 0 y 1. Un dígito binario se denomina un bit. La información está representada en las computadoras digitales en grupos de bits. Utilizando diversas técnicas de codificación los grupos de bits pueden hacerse que representen no solamente números binarios sino también otros símbolos discretos cualesquiera, tales como dígitos decimales o letras de alfabeto. Utilizando arreglos binarios y diversas técnicas de codificación, los dígitos binarios o grupos de bits pueden utilizarse para desarrollar conjuntos completos de instrucciones para realizar diversos tipos de cálculos.

La información binaria se representa en un sistema digital por cantidades físicas denominadas señales, Las señales eléctricas tales como voltajes existen a través del sistema digital en cualquiera de dos valores reconocibles y representan una variable binaria igual a 1 o 0. Por ejemplo, un sistema digital particular puede emplear una señal de 3 volts  para representar el binario “1″ y 0.5 volts  para el binario “0″. La siguiente ilustración muestra un ejemplo de una señal binaria.

Como se muestra en la figura, cada valor binario tiene una desviación aceptable del valor nominal. La región intermedia entre las dos regiones permitidas se cruza solamente durante la transición de estado.  Los terminales de entrada de un circuito digital aceptan señales binarias dentro de las tolerancias permitidas y los circuitos responden en los terminales de salida con señales binarias que caen dentro de las tolerancias permitidas.

La lógica binaria tiene que ver con variables binarias y con operaciones que toman un sentido lógico. La manipulación de información binaria se hace por circuitos lógicos que se denominan Compuertas.

Las compuertas son bloques del hardware que producen señales en binario 1 ó 0 cuando se satisfacen los requisitos de entrada lógica. Las diversas compuertas lógicas se encuentran comúnmente en sistemas de computadoras digitales. Cada compuerta tiene un símbolo gráfico diferente y su operación puede describirse por medio de una función algebraica. Las relaciones entrada – salida de las variables binarias para cada compuerta pueden representarse en forma tabular en una tabla de verdad.

A continuación se detallan los nombres, símbolos, gráficos, funciones algebraicas, y tablas de verdad de las compuertas más usadas.

Compuerta AND:  (ver funcionamiento)Cada compuerta tiene dos variables de entrada designadas por A y B y una salida binaria designada por x.
La compuerta AND produce la multiplicación lógica AND: esto es: la salida es 1 si la entrada A y la entrada B están ambas en el binario 1: de otra manera, la salida es 0.
Estas condiciones también son especificadas en la tabla de verdad para la compuerta AND. La tabla muestra que la salida x es 1 solamente cuando ambas entradas A y B están en 1.
El símbolo de operación algebraico de la función AND es el mismo que el símbolo de la multiplicación de la aritmética ordinaria (*).
Las compuertas AND pueden tener más de dos entradas y por definición, la salida es 1 si todas las entradas son 1.
 
Compuerta OR:  (ver funcionamiento)La compuerta OR produce la función sumadora, esto es, la salida es 1 si la entrada A o la entrada B o ambas entradas son 1; de otra manera, la salida es 0.
El símbolo algebraico de la función OR (+), es igual a la operación de aritmética de suma.
Las compuertas OR pueden tener más de dos entradas y por definición la salida es 1 si cualquier entrada es 1.
Compuerta NOT: (ver funcionamiento)El circuito NOT es un inversor que invierte el nivel lógico de una señal binaria. Produce el NOT, o función complementaria. El símbolo algebraico utilizado para el complemento es una barra sobra el símbolo de la variable binaria.
Si la variable binaria posee un valor 0, la compuerta NOT cambia su estado al valor 1 y viceversa.
El círculo pequeño en la salida de un símbolo gráfico de un inversor designa un inversor lógico. Es decir cambia los valores binarios 1 a 0 y viceversa.
Compuerta Separador (yes): Un símbolo triángulo por sí mismo designa un circuito separador, el cual no produce ninguna función lógica particular puesto que el valor binario de la salida es el mismo de la entrada.
Este circuito se utiliza simplemente para amplificación de la señal. Por ejemplo, un separador que utiliza 5 volt para el binario 1, producirá una salida de 5 volt cuando la entrada es 5 volt. Sin embargo, la corriente producida a la salida es muy superior a la corriente suministrada a la entrada de la misma.
De ésta manera, un separador puede excitar muchas otras compuertas que requieren una cantidad mayor de corriente que de otra manera no se encontraría en la pequeña cantidad de corriente aplicada a la entrada del separador.
 
Compuerta NAND: (ver funcionamiento)Es el complemento de la función AND, como se indica por el símbolo gráfico, que consiste en una compuerta AND seguida por un pequeño círculo (quiere decir que invierte la señal).
La designación NAND se deriva de la abreviación NOT – AND. Una designación más adecuada habría sido AND invertido puesto que es la función AND la que se ha invertido.
Las compuertas NAND pueden tener más de dos entradas, y la salida es siempre el complemento de la función AND.
 
Compuerta NOR: (ver funcionamiento)La compuerta NOR es el complemento de la compuerta OR y utiliza el símbolo de la compuerta OR seguido de un círculo pequeño (quiere decir que invierte la señal). Las compuertas NOR pueden tener más de dos entradas, y la salida es siempre el complemento de la función OR.  

Circuito integrado 555

De Wikipedia, la enciclopedia libre

El circuito integrado 555 es de bajo costo y de grandes prestaciones. Inicialmente fue desarrollado por la firma Signetics. En la actualidad es construido por muchos otros fabricantes. Entre sus aplicaciones principales cabe destacar las de multivibrador astable (dos estados metaestables) y monoestable (un estado estable y otro metaestable), detector de impulsos, etcétera.

us características

Esquema en bloques del circuito integrado del 555.

Este Circuito Integrado (C.I.) es para los experimentadores y aficionados, un dispositivo barato con el cual pueden hacer muchos proyectos. Este temporizador es tan versátil que se puede utilizar para modular una señal en Amplitud Modulada (A.M.)

Está constituido por una combinación de comparadores lineales, flip-flops (biestables digitales), transistor de descarga y excitador de salida.

Las tensiones de referencia de los comparadores se establecen en 2/3 V para el primer comparador C1 y en 1/3 V para el segundo comparador C2, por medio del divisor de tensión compuesto por 3 resistencias iguales R. En el gráfico se muestra el número de pin con su correspondiente función.

En estos días se fabrica una versión CMOS del 555 original, como el Motorola MC1455, que es muy popular. Pero la versión original de los 555 sigue produciéndose con mejoras y algunas variaciones a sus circuitos internos. El 555 esta compuesto por 23 transistores, 2 diodos, y 16 resistencias encapsulados en silicio. Hay un circuito integrado que se compone de dos temporizadores en una misma unidad, el 556, de 14 pines y el poco conocido 558 que integra cuatro 555 y tiene 16 pines.

Hoy en día, si ha visto algún circuito comercial moderno, no se sorprenda si se encuentra un circuito integrado 555 trabajando en él. Es muy popular para hacer osciladores que sirven como reloj (base de tiempo) para el resto del circuito.

Descripción de las terminales del Temporizador 555

Pines del 555.

  • GND (normalmente la 1): es el polo negativo de la alimentación, generalmente tierra.
  • Disparo (normalmente la 2): Es en esta patilla, donde se establece el inicio del tiempo de retardo, si el 555 es configurado como monostable. Este proceso de disparo ocurre cuando este pin va por debajo del nivel de 1/3 del voltaje de alimentación. Este pulso debe ser de corta duración, pues si se mantiene bajo por mucho tiempo la salida se quedará en alto hasta que la entrada de disparo pase a alto otra vez.
  • Salida (normalmente la 3): Aquí veremos el resultado de la operación del temporizador, ya sea que esté conectado como monostable, astable u otro. Cuando la salida es alta, el voltaje será el voltaje de alimentación (Vcc) menos 1.7 Voltios. Esta salida se puede obligar a estar en casi 0 voltios con la ayuda de la patilla de reset (normalmente la 4).
  • Reset (normalmente la 4): Si se pone a un nivel por debajo de 0.7 Voltios, pone la patilla de salida a nivel bajo. Si por algún motivo esta patilla no se utiliza hay que conectarla a Vcc para evitar que el 555 se “resetee”.
  • Control de voltaje (normalmente la 5): Cuando el temporizador se utiliza en el modo de controlador de voltaje, el voltaje en esta patilla puede variar casi desde Vcc (en la práctica como Vcc -1 voltio) hasta casi 0 V (aprox. 2 Voltios). Así es posible modificar los tiempos en que la salida está en alto o en bajo independiente del diseño (establecido por las resistencias y condensadores conectados externamente al 555). El voltaje aplicado a la patilla de control de voltaje puede variar entre un 45 y un 90 % de Vcc en la configuración monostable. Cuando se utiliza la configuración astable, el voltaje puede variar desde 1.7 voltios hasta Vcc. Modificando el voltaje en esta patilla en la configuración astable causará la frecuencia original del astable sea modulada en frecuencia (FM). Si esta patilla no se utiliza, se recomienda ponerle un condensador de 0.01μF para evitar las interferencias.
  • Umbral (normalmente la 6): Es una entrada a un comparador interno que tiene el 555 y se utiliza para poner la salida a nivel bajo.
  • Descarga (normalmente la 7): Utilizado para descargar con efectividad el condensador externo utilizado por el temporizador para su funcionamiento.
  • V+ (normalmente la 8): También llamado Vcc, alimentación, es el pin donde se conecta el voltaje de alimentación que va de 4.5 voltios hasta 18 voltios (máximo). Hay versiones militares de este integrado que llegan hasta 18 Voltios.

Funcionamiento del Circuito Integrado 555

El temporizador 555 se puede conectar para que funcione de diferentes maneras, entre los más importantes están: como multivibrador astable y como multivibrador monoestable. Puede también configurarse para generar formas de onda tipo Rampa.

[editar] Multivibrador Astable

Esquema de la aplicación de multivibrador astable del 555.

Este tipo de funcionamiento se caracteriza por una salida con forma de onda cuadrada (o rectangular) continua de ancho predefinido por el diseñador del circuito. El esquema de conexión es el que se muestra. La señal de salida tiene un nivel alto por un tiempo t1 y un nivel bajo por un tiempo t2. La duración de estos tiempos dependen de los valores de R1, R2 y C, según las fórmulas siguientes:

t1 = \ln(2)\cdot (R1+R2) \cdot C \approx 0,693 \cdot (R1+R2) \cdot C (en segundos)

y

t2 = \ln(2)\cdot R2 \cdot C \approx 0,693 \cdot R2 \cdot C (en segundos)
La frecuencia con que la señal de salida oscila está dada por la fórmula: f \approx \frac{1}{0,693 \cdot C \cdot (R1+2 \cdot R2)}

el período es simplemente: T = \frac{1}{f}

También decir que si lo que queremos es un generador con frecuencia variable, debemos variar la capacidad de condensador, ya que si el cambio lo hacemos mediante las resistencias R1 y/o R2, también cambia el ciclo de trabajo o ancho de pulso (D) de la señal de salida según la siguiente expresión:

D = \frac{R1+R2}{(R1+2 \cdot R2)}

Hay que recordar que el período es el tiempo que dura la señal hasta que ésta se vuelve a repetir (Tb – Ta).

Si se requiere una señal cuadrada donde el ciclo de trabajo D sea del 50%, es decir que el tiempo t1 sea igual al tiempo t2, es necesario añadir un diodo en paralelo con R2 según se muestra en la figura. Ya que, según las fórmulas, para hacer t1 = t2 sería necesario que R1 fuera cero, lo cual en la práctica no funcionaría.

[editar] Multivibrador monoestable

Esquema de la aplicación de multivibrador monoestable del 555.

En este caso el circuito entrega a su salida un solo pulso de un ancho establecido por el diseñador.

El esquema de conexión es el que se muestra. La fórmula para calcular el tiempo de duración (tiempo en el que la salida está en nivel alto) es:

 T = \ln(3) \cdot R \cdot C (en segundos).

 T \approx 1,1 \cdot R \cdot C (en segundos).

Nótese que es necesario que la señal de disparo, en la terminal #2 del 555, sea de nivel bajo y de muy corta duración para iniciar la señal de salida.

Historia [editar]

Busto de Arquímedes.

El concepto de fuerza fue descrito originalmente por Arquímedes, si bien únicamente en términos estáticos. Arquímedes y otros creyeron que el “estado natural” de los objetos materiales en la esfera terrestre era el reposo y que los cuerpos tendían, por sí mismos, hacia ese estado si no se actuaba sobre ellos en modo alguno. De acuerdo con Aristóteles la perseverancia del movimiento requería siempre una causa eficiente (algo que parece concordar con la experiencia cotidiana, donde las fuerzas de fricción pueden pasar desapercibidas).

Galileo Galilei (1564 – 1642) sería el primero en dar una definición dinámica de fuerza, opuesta a la de Arquímedes, estableciendo claramente la ley de la inercia, afirmando que un cuerpo sobre el que no actúa ninguna fuerza permanece en movimiento inalterado. Esta ley, que refuta la tesis de Arquímedes, aún hoy día no resulta obvia para la mayoría de las personas sin formación científica

Se considera que fue Isaac Newton el primero que formuló matemáticamente la moderna definición de fuerza, aunque también usó el término latino vis (‘fuerza’) para otros conceptos diferentes. Además, Isaac Newton postuló que las fuerzas gravitatorias variaban según la ley de la inversa del cuadrado de la distancia.

Charles Coulomb fue el primero que comprobó que la interacción entre cargas eléctricas o electrónicas puntuales. variaba también según la ley de la inversa del cuadrado de la distancia (1784).

En 1798, Henry Cavendish logró medir experimentalmente la fuerza de atracción gravitatoria entre dos masas pequeñas utilizando una balanza de torsión. Gracias a lo cual pudo determinar el valor de la constante de la gravitación universal y, por tanto, pudo calcular la masa de la Tierra.

Con el desarrollo de la electrodinámica cuántica, a mediados del siglo XX, se constató que la “fuerza” era una magnitud puramente macroscópica surgida de la conservación del momento lineal o cantidad de movimiento para partículas elementales. Por esa razón las llamadas fuerzas fundamentales suelen denominarse “interacciones fundamentales”.

Fuerza en mecánica newtoniana [editar]

En mecánica newtoniana la fuerza se puede definir tanto a partir de la aceleración y la masa, como a partir de la derivada temporal del momento lineal, ya que para velocidades pequeñas comparadas con la luz ambas definiciones coinciden:

\mathbf{F} = \frac{d(m\mathbf{v})}{dt} = m\mathbf{a}

En el caso de la estática, donde no existen aceleraciones, las fuerzas actuantes pueden deducirse de consideraciones de equilibrio.

Fuerza gravitatoria [editar]

Fuerzas gravitatorias entre dos partículas.

En mecánica newtoniana la fuerza de atracción entre dos masas, cuyos centros de gravedad están lejos comparadas con las dimensiones del cuerpo,[1] viene dada por la ley de la gravitación universal de Newton:

 \mathbf{F}_{21} =  -G\frac{m_1m_2}{|\mathbf{r}_{21}|^2}\mathbf{e}_{21} = -G\frac{m_1m_2}{|\mathbf{r}_{21}|^3}\mathbf{r}_{21}

Donde:

\mathbf{F}_{21} es la fuerza que actúa sobre el cuerpo 2, ejercida por el cuerpo 1.
G\, constante de la gravitación universal.
\mathbf{r}_{21}=\mathbf r_2 -\mathbf r_1 vector de posición relativo del cuerpo 2 respecto al cuerpo 1.
\mathbf{e}_{21} es el versor dirigido hacía 2 desde 1.
m_1, m_2\, masas de los cuerpos 1 y 2.

Cuando la masa de uno de los cuerpos es muy grande en comparación con la del otro (por ejemplo, si tiene dimensiones planetarias), la expresión anterior se transforma en otra más simple:

 \mathbf{F} =  -m\left(G\frac{M}{R_0^2}\right) \hat\mathbf{u}_r = -mg\hat\mathbf{u}_r =  m\mathbf{g}

Donde:

\mathbf{F} es la fuerza del cuerpo de gran masa (“planeta”) sobre el cuerpo pequeño.
\mathbf{u}_r es un versor cuya dirigido desde el centro del “planeta” al del cuerpo de pequeña masa.
R_0\, es la distancia entre el centro del “planeta” y el del cuerpo pequeño..

Fuerzas internas y de contacto [editar]

FN representa la fuerza normal ejercida por el plano inclinado sobre el objeto situado sobre él.

En los sólidos, el principio de exclusión de Pauli conduce junto con la conservación de la energía a que los átomos tengan sus electrones distribuidos en capas y tengan impenetrabilidad a pesar de estar vacíos en un 99%. La impenetrabildad se deriva de que los átomos sean “extensos” por el principio de Pauli y que los electrones de las capas exteriores ejerzan fuerzas electrostáticas de repulsión que hacen que la materia sea macroscópicamente impenetrable. Lo anterior se traduce en que dos cuerpos puestos en “contacto” experimentarán superficialmente fuerzas resultantes normales (o aproximadamente normales) a la superficie que impedirán el solapamiento de las nubes electrónicas de ambos cuerpos.

Las fuerzas internas son similares a las fuerzas de contacto entre ambos cuerpos y si bien tienen una forma más complicada, ya que no existe una superficie macroscópica a través de la cual se den la superficie. La complicación se traduce por ejemplo en que las fuerzas internas necesitan ser modelizadas mediante un tensor de tensiones en que la fuerza por unidad de superficie que experimenta un punto del interior depende de la dirección a lo largo de la cual se consideren las fuerzas.

Lo anterior se refiere a sólidos, en los fluidos en reposo las fuerzas internas dependen esencialmente de la presión, y en los fluidos en movimiento la viscosidad puede desempeñar un papel

Fricción [editar]

Artículo principal: Fricción

La fricción puede darse entre las superficies libres de sólidos, en el tratamiento de los problemas mediante mecánica newtoniana la fricción entre sólidos frecuentemente se modeliza como una fuerza sobre el plano tangente del contacto entre sólidos, de valor porporcional a la fuerza normal.

El rozamiento entre sólido líquido y en el interior de un líquido o un gas depende esencialmente de si el flujo se considera laminar o turbulento, de la ecuación constitutiva.

Fuerzas de campos estacionarios [editar]

En mecánica newtoniana también es posible modelizar algunas fuerzas constantes en el tiempo como campos de fuerza. Por ejemplo la fuerza entre dos cargas eléctricas inmóviles, puede representarse adecuadamente mediante la ley de Coulomb:

\mathbf{F}_{12} = -\kappa\frac{q_1q_2}{\|\mathbf{r}_{12}\|^3}\mathbf{r}_{12}

Donde:

\mathbf{F}_{12} es la fuerza ejercida por la carga 1 sobre la carga 2.
\kappa\, una constante que dependerá del sistema de unidades para la carga.
\mathbf{r}_{12} vector de posición de la carga 2 respecto a la carga 1.
q_1, q_2\, valor de las cargas.

También los campos magnéticos estáticos y los debidos a cargas estáticas con distribuciones más complejas pueden resumirse en dos funciones vectoriales llamadas campo eléctrico y campo magnético tales que una partícula en movimiento respecto a las fuentes estáticas de dichos campos viene dada por la expresión de Lorentz:

\mathbf{F} = q (\mathbf{E} + \mathbf{v} \times \mathbf{B}),

Donde:

\mathbf{E} es el campo eléctrico.
\mathbf{B} es el campo magnético.
\mathbf{v} es la velocidad de la partícula.
q\, es la carga total de la partícula.

Los campos de fuerzas no constantes sin embargo presentan una dificultad especialmente cuando están creados por partículas en movimiento rápido, porque en esos casos los efectos relativistas de retardo pueden ser importantes, y la mecánica clásica, da lugar a un tratamiento de acción a distancia que puede resultar inadecuado si las fuerzas cambian rápidamente con el tiempo.

 I PERIODO

Principio de Pascal

En física, el principio de Pascal o ley de Pascal, es una ley enunciada por el físico y matemático francés Blaise Pascal (1623-1662) que se resume en la frase: «el incremento de presión aplicado a una superficie de un fluido incompresible (líquido), contenido en un recipiente , se transmite con el mismo valor a cada una de las partes del mismo».

El Principio de Pascal PUEDE comprobarse utilizando Una Esfera hueca, perforada en Diferentes Lugares ProVista y de las Naciones, Unidas embolo. Al Agua Llenar Con La Esfera y ejercer Presión Sobre Ella MEDIANTE El embolo, sí Observaciones Que El Agua Todos por La Venta de Los Agujeros Con La Misma Presión.

Podemos ver también Aplicaciones del Principio de Pascal en Las Prensas hidráulicas

//

El Trabajo es Una Física magnitud Escalar Que Si Con representan la letra (Del castellano Trabajo) Y Si Expresa en Unidades de Energía, ESTO ES EN Julios o Julios (J) En El Internacional Sistema de Unidades.

Matemáticamente lo expresamos en la forma:

  

/ /

El Trabajo en la Mecánica

Trabajo de Una Fuerza.

Consideremos Una partícula P Sobre La Que Actúa Una Fuerza F, Función de la posicion de la partícula en El Espacio, es ESTO F = F(r) D, y Marr elemental pecado Desplazamiento (infinitesimales) Experimentado Por la partícula Durante, el pecado Intervalo de Tiempo dt. Llamamos Trabajo elemental, dW, De La Fuerza F Durante, El Desplazamiento Elementales dr al Producto Escalar de F Por dr, Es ésto,

  

El Trabajo en la Termodinámica

En El caso de termodinámico Sistema de las Naciones, Unidas, El Trabajo no es necesariamente de Naturaleza puramente Mecánica, ya Que La Energía intercambiada en Las Interacciones Puede Ser Magnética Mecánica Eléctrica, Química, etc …, lo Por Que No Siempre la podra expresarse en forma de Trabajo Mecánico.

Unidades de Trabajo

Internacional Sistema de Unidades

  • Julio, Unidad de Trabajo en El SI
  • Kilojulio: 1 kJ = 103 J

Sistema Técnico de Unidades

  • kilográmetro o kilopondímetro:
  • 1 kilográmetro (kgm) = 1 kilogramo-metro x 1 Fuerza
  • 1 kg = 9,80665 J

Sistema Cegesimal

Sistema castellano

Energía

El Término Energía (del griego ἐνέργεια /energeia,, Operación Actividad; ἐνεργóς / energos =Fuerza de Acción o Fuerza Trabajando) Tiene DIVERSAS acepciones y Definiciones, relacionadas Con la idea de obrar Una Capacidad para, Transformar o poner en Movimiento. En Física, «Energía» en Sí définir Como La Capacidad de las Naciones, realizar El párrafo Unidas Trabajo. En Tecnología y Economía, «Energía» en Sí Refiere A UN recurso natural (Incluyendo la ONU Su Tecnología Asociada) párr extraerla, transformarla, y luego!! Darle el pecado USO Económico o industrial.

Energía Cinética

La Energía Cinética Cuerpo de la ONU es Una Energía Aumento Que En El Fenómeno del Movimiento. Como esta definida El Trabajo Necesario párr Acelerar la ONU Cuerpo de Una masa dada Desde El Reposo Hasta la posée Que Velocidad. Una Vez conseguida esta Durante, la Energía Aceleración, El Cuerpo Mantiene Su Energía Cinética Que salva Rapidez Cambie SU. Para qué El Cuerpo Regrese A Su Estado de Reposo Sí requiere de la ONU Trabajo Negativo de la Misma Su magnitud Que Cinética Energía.

Energía potencial

La Energía potencial Qué es la Capacidad Tienen párr Los Cuerpos realizar el pecado Trabajo ( ), Dependiendo de la configuracion Que Tengan Sistema de las Naciones Unidas “Cuerpos” Que ejercen en Fuerzas Entre Sí. PUEDE pensarse Como La Energía almacenada En Un Sistema, o Como una Medida del Trabajo Que Sistema de las Naciones, Unidas PUEDE Entregar. Más Rigurosamente, la Energía es Una potencial magnitud Asociada Escalar las Naciones Unidas Campo de Fuerzas (Naciones, Unidas o de elasticidad en Como Campo tensorial de Tensiones). Cuando La Energía Asociada pecado ESTÁ potencial de las Naciones Unidas Campo de Fuerzas, La Diferencia Entre Los Valores del campo en dos Puntos A, B y A. Igual es al Trabajo Realizado Por la Fuerza PARA CUALQUIER Entre Recorrido B ya

  

Gravitatòria Energía potencial (EPG)

Es La Que Tienen Los Cuerpos DEBIDO A la Gravedad de la Tierra. Se Cálculo El multiplicando por Peso la Altura. Se planteo Suele Que Una ANU Altura cero es cero la hpg, Por lo Tanto Sí Cálculo como:

H HPG = P
HPG = m g h

P = Peso
h = Altura
m = Masa
g = Aceleración de la Gravedad
Gravitatòria hpg = Energía potencial

Energía potencial elástica (Epe)

Es la Energía acumulada en Las Naciones, Unidas Cuerpo Elástico Tal Como un Resorte. Se Cálculo como:

K = Constante del Resorte
Δx = Desplazamiento DESDE la posicion normal
Elastica Epe = Energía pote

 

 

 

2 periodo

EVENTOS

ONDULATORIOS
Movimiento circular uniforme

Se define movimiento circular como aquél cuya trayectoria es una circunferencia. Una vez situado el origen O de ángulos describimos el movimiento circular mediante las siguientes magnitudes.

Un movimiento circular uniforme es aquél cuya velocidad angular es constante, por
tanto, la aceleración angular es cero. La posición angular del móvil en el instante t lo
podemos calcular:
W- Teta/c
W = 2 Pi/V
Movimiento oscilatorio

Un movimiento periódico se caracteriza porque el cuerpo que los describe alcanza las mismas posiciones cada determinado tiempo. Un ejemplo de este movimiento son las manecillas de un reloj.

El período :es el intervalo de tiempo en que el cuerpo con este tipo de movimiento
tarda en regresar al punto de inicio después de haber efectuado todas las
trayectorias.
El movimiento oscilatorio se define por una serie de elementos: la oscilación, la
elongación, la amplitud, el período y la frecuencia.

La oscilaci ón es el recorrido que se completa cuando a partir de determinada posición, el objeto vuelve a alcanzarla después de pasar por todas la posiciones de la trayectoria.

La e long ac i ón es la distancia que existe entre la posición del objeto en cualquier punto y la posición de equilibrio (posición simétrica que ocupa un cuerpo sucesivamente respecto a una posición determinada).

Amplitud(A) es la máxima distancia que el cuerpo alcanza con respecto a la posición
de equilibrio.
Elperíod o (T) es el tiempo que emplea el objeto un hacer una oscilación completa.
La fr e cue n cia (f) es el número de oscilaciones que hace el objeto en cada unidad de
tiempo.
Movimiento armónico simple (M.A.S)

Es un tiempo especial de movimiento oscilatorio, el cual ocurre cuando la magnitud de la fuerza recuperadora (fuerza dirigida hacia la posición de equilibrio) es directamente proporcional a la elongación (movimiento sin considerar la fricción).

Fuerza = -k x
x = estiramiento k = constante elástica
Todo cuerpo que describe un movimiento armónico simple se considera como un
oscilador armónico.
Al interpretar geométricamente el Movimiento Armónico Simple (M. A. S.),
relacionándolo con el movimiento circular uniforme.
Cuando la partícula está desplazadax de la posición de equilibrio, actúa sobre ella una
fuerzaelástica que es proporcional ax, y de sentido contrario, tal como se muestra en la figura.
Cuando golpeamos una campana o encendemos la radio, el sonido se escucha en lugares distantes de la campana o de la radio. Si arrojamos una piedra a un estanque observamos que en el agua se forma una ondulación y que esta se propaga. Cuando se enciende la lámpara de un cuarto este se ilumina. Las imágenes producidas en un estudio de televisión viajan a través del espacio hasta los receptores que se encuentran en nuestros hogares. Todo los procesos mencionados tienen algo en común: son situaciones físicas producidas en un punto del espacio que se propagan a través del mismo y se reciben en otro punto. Todos estos procesos son ejemplos del movimiento ondulatorio o dicho de otra manera son ondas.
Se puede definir como movimiento ondulatorio; la propagación de una perturbación en un medio.
Veamos algunos ejemplos.

Sujetamos un extremo de una cuerda en la pared. Tomamos el otro extremo con la mano y le damos una sacudida. A lo largo de la cuerda se va propagando una ondulación. En este caso la perturbación no es otra que un desplazamiento vertical de una parte de la cuerda y el medio en el que se propaga es la propia cuerda.

Lanzamos una piedra a un estanque en reposo y observamos como se forma una pequeña ola que avanza en todas direcciones. Aquí la perturbación es un desplazamiento arriba y abajo de las moléculas de agua y el medio el agua del estanque.

ONDA

Cuando se arroja una piedra al agua se origina una perturbación que se denomina onda, que se propaga en círculos concéntricos y después de cierto tiempo se extienden en todas las direcciones. Al trasladarse la perturbación, se ha remitido energía de un lugar a otro desde el punto de impacto (foco emisor) hasta donde termine la perturbación.

Aunque el término de onda no presenta mayor complejidad, si tiene un sin número de cualidades y aplicaciones que se comenzarán a explicar haciendo una clasificación de éstas. Las ondas se han clasificado teniendo en cuenta cuatro factores que son: Medio de propagación. Dirección de

propagación. Número de vibraciones. Dimensión de propagación

Cresta: puntos superiores de la onda.
Valles: puntos inferiores de la onda. Nivel de referencia (línea central R).
Nodos: son los puntos de intersección de la onda con el nivel de referencia.
Elongación (x): es la distancia que hay entre cada punto de la onda y el nivel de referencia.

Amplitud (A): es la máxima elongación posible (distancia entre una cresta o un valle al punto de
referencia).
Período (T): tiempo que tarda en completar una oscilación (tiempo que tarda una partícula en
recorrer una longitud de onda).
Frecuencia: es el número de oscilaciones por unidad de tiempo. Por lo tanto, la frecuencia de una
onda f, es el número de oscilaciones completas por segundo y se mide en hertz. La frecuencia y
el periodo están relacionados por la ecuación:f = 1 / T
Dirección de propagación:es la dirección en que se dirige la onda, se toma positivo el que indica
la gráfica.
Fenomenos Ondulatorios
 

Las propiedades de las ondas se manifiestan a través de una serie de fenómenos que constituyen lo esencial del comportamiento ondulatorio. Así, las ondas rebotan ante una barrera, cambian de dirección cuando pasan de un medio a otro, suman sus efectos de una forma muy especial y pueden salvar obstáculos o bordear las esquinas.

El estudio de los fenómenos ondulatorios supone la utilización de conceptos tales como periodo, frecuencia, longitud de onda y amplitud, y junto a ellos el de frente de onda, el cual es característico de las ondas bi y tridimensionales.

Se denomina frente de ondas al lugar geométrico de los puntos del medio que son alcanzados en
un mismo instante por la perturbación.
Las ondas que se producen en la superficie de un lago, como consecuencia de una vibración
producida en uno de sus punt
3 PERIODO

QUE ES EL SONIDO

El sonido, en física, es cualquier fenómeno que involucre la propagación en forma de ondas elásticas (sean audibles o no), generalmente a través de un fluido (u otro medio elástico) que esté generando el movimiento vibratorio de un cuerpo.

El sonido humanamente audible consiste en ondas sonoras consistentes en oscilaciones de la presión del aire, que son convertidas en ondas mecánicas en el oído humano y percibidas por el cerebro. La propagación del sonido es similar en los fluidos, donde el sonido toma la forma de fluctuaciones de presión. En los cuerpos sólidos la propagación del sonido involucra variaciones del estado tensional del medio.

Representación esquemática del oído. (Azul: ondas sonoras. Rojo: tímpano. Amarillo: Cóclea. Verde: células de receptores auditivos. Púrpura: espectro de frecuencia de respuesta del oído. Naranja: impulso del nervio.)

La propagación del sonido involucra transporte de energía sin transporte de materia, en forma de ondas mecánicas que se propagan a través de la materia sólida, líquida o gaseosa. Como las vibraciones se producen en la misma dirección en la que se propaga el sonido, se trata de una onda longitudinal. El sonido es un fenómeno vibratorio transmitido en forma de ondas. Para que se genere un sonido es necesario que vibre alguna fuente. Las vibraciones pueden ser transmitidas a través de diversos medios elásticos, entre los más comunes se encuentran el aire y el agua. La fonética acústica concentra su interés especialmente en los sonidos del habla: cómo se generan, cómo se perciben, y cómo se pueden describir gráfica y/o cuantitativamente.

Propagación del sonido

Artículo principal: Propagación del sonido

Ciertas características de los fluidos y de los sólidos influyen en la onda de sonido. Es por eso que el sonido se propaga en los sólidos y en los líquidos con mayor rapidez que en los gases. En general cuanto mayor sea la compresibilidad (1/K) del medio tanto menor es la velocidad del sonido. También la densidad es un factor importante en la velocidad de propagación, en general a mayor sea la densidad (ρ), a igualdad de todo lo demás, tanto menor es la velocidad de la propagación del sonido. La velocidad del sonido se relaciona con esas magnitudes mediante:

En los gases, la temperatura influye tanto la compresibilidad como la densidad, de tal manera que el factor de importancia suele ser la temperatura misma.

Para que el sonido se transmita se necesita que las moléculas vibren en torno a sus posiciones de equilibrio.

En algunas zonas de las moléculas de aire, al vibrar se juntan (zonas de compresión) y en otras zonas se alejan (zonas de rarefacción), esta alteración de las moléculas de aire es lo que produce el sonido.

Magnitudes físicas del sonido

Artículo principal: Onda sonora

Como todo movimiento ondulatorio, el sonido puede representarse como una suma de curvas sinusoides con un factor de amplitud, que se pueden caracterizar por las mismas magnitudes y unidades de medida que a cualquier onda de frecuencia bien definida: Longitud de onda (λ), frecuencia (f) o inversa del período (T), amplitud (que indica la cantidad de energía que contiene una señal sonora) y no hay que confundir amplitud con volumen o potencia acústica. Y finalmente cuando se considera la superposición de diferentes ondas es importante la fase que representa el retardo relativo en la posición de una onda con respecto a otra.

Sin embargo, un sonido complejo cualquiera no está caracterizado por los parámetros anteriores, ya que en general un sonido cualquiera es una combinación de ondas sonoras que difieren en los cinco parámetros anteriores. La caracterización de un sonido arbitrariamente complejo implica analizar tanto la energía transmitida como la distribución de dicha energía entre las diversas ondas componentes, para ello resulta útil investigado.

Velocidad del sonido

Artículo principal: Velocidad del sonido

  • El sonido tiene una velocidad de 331,5 m/s cuando: la temperatura es de 0 °C, la presión atmosférica es de 1 atm (nivel del mar) y se presenta una humedad relativa del aire de 0 % (aire seco). Aunque depende muy poco de la presión del aire.
  • La velocidad del sonido depende del tipo de material. Cuando el sonido se desplaza en los sólidos tiene mayor velocidad que en los líquidos, y en los líquidos es más veloz que en los gases. Esto se debe a que las partículas en los sólidos están más cercanas.

Archivo:FA-18 Hornet breaking sound barrier (7 July 2012) – filtered.jpg

U.S. Navy F/A-18 Avión rompiendo la barrera del sonido.

Comportamiento de las ondas de sonido a diferentes velocidades

La velocidad del sonido en el aire se puede calcular en relación a la temperatura de la siguiente manera:

Donde:

, es la temperatura en grados Celsius.

Si la temperatura ambiente es de 15 °C, la velocidad de propagación del sonido es 340 m/s (1224 km/h ). Este valor corresponde a 1 MACH.

desparecen. Nuestra sensación, no obstante, no es la de escuchar sonidos separados, ya que el cerebro los integra en un único precepto, siempre que las reflexiones lleguen con una separación menor de unos 50 milisegundos. Esto es lo que se denomina efecto Haas o efecto de precedencia.

La espectrografía de la voz humana revela su rico contenido armónico.

La voz humana se produce por la vibración de las cuerdas vocales, lo cual genera una onda sonora que es combinación de varias frecuencias y sus correspondientes armónicos. La cavidad buco-nasal sirve para crear ondas cuasiestacionarias por lo que ciertas frecuencias denominadas formantes. Cada segmento de sonido del habla viene caracterizado por un cierto espectro de frecuencias o distribución de la energía sonora en las diferentes frecuencias. El oído humano es capaz de identificar diferentes formantes de dicho sonido y percibir cada sonido con formantes diferentes como cualitativamente diferentes, eso es lo que permite por ejemplo distinguir dos vocales. Típicamente el primer formante, el de frecuencia más baja está relacionada con la abertura de la vocal que en última instancia está relacionada con la frecuencia de las ondas estacionarias que vibran verticalmente en la cavidad. El segundo formante está relacionado con la vibración en la dirección horizontal y está relacionado con si la vocal es anterior, central o posterior.

La voz masculina tiene un tono fundamental de entre 100 y 200 Hz, mientras que la voz femenina es más aguda, típicamente está entre 150 y 300 Hz. Las voces infantiles son aún más agudas. Sin el filtrado por resonancia que produce la cavidad buco nasal nuestras emisiones sonoras no tendrían la claridad necesaria para ser audibles. Ese proceso de filtrado es precisamente lo que permite generar los diversos formantes de cada unidad segmental del habla.

.Resonancia

Artículo principal: Resonancia (mecánica)

Es el fenómeno que se produce cuando los cuerpos vibran con la misma frecuencia, uno de los cuales se puso a vibrar al recibir las frecuencias del otro. Para entender el fenómeno de la resonancia existe un ejemplo muy sencillo, Supóngase que se tiene un tubo con agua y muy cerca de él (sin éstos en contacto) tenemos un diapasón, si golpeamos el diapasón con un metal, mientras echan agua en el tubo, cuando el agua alcance determinada altura el sonido será más fuerte; esto se debe a que la columna de agua contenida en el tubo se pone a vibrar con la misma frecuencia que la que tiene el diapasón, lo que evidencia por qué las frecuencias se refuerzan y en consecuencia aumenta la intensidad del sonido. Un ejemplo es el efecto de afinar las cuerdas de la guitarra, puesto que al afinar, lo que se hace es igualar las frecuencias, es decir poner en resonancia el sonido de las cuerdas.

Propiedades

Las cuatro cualidades básicas del sonido son la altura, la duración, el timbre o color y la intensidad, fuerza o potencia.

Cualidad Característica Rango
Altura Frecuencia de onda Agudo, medio, grave
Intensidad Amplitud de onda Fuerte, débil o suave
Timbre Armónicos de onda o forma de la onda Fuente emisora del sonido
Duración tiempo de vibración Largo o corto

] La altura

Véanse también: Tono y altura (música)

Indica si el sonido es grave, agudo o medio, y viene determinada por la frecuencia fundamental de las ondas sonoras, medida en ciclos por segundo o hercios (Hz).

  • vibración lenta = baja frecuencia = sonido grave.
  • vibración rápida = alta frecuencia = sonido agudo.

Para que los humanos podamos percibir un sonido, éste debe estar comprendido entre el rango de audición de 16 y 20.000 Hz. Por debajo de este rango tenemos los infrasonidos y por encima los ultrasonidos. A esto se le denomina rango de frecuencia audible. Cuanta más edad se tiene, este rango va reduciéndose tanto en graves como en agudos.

CUALIDADES DEL SONIDO

La intensidad

Véanse también: Intensidad de sonido y sonoridad

Es la cantidad de energía acústica que contiene un sonido, es decir, lo fuerte o suave de un sonido. La intensidad viene determinada por la potencia, que a su vez está determinada por la amplitud y nos permite distinguir si el sonido es fuerte o débil.

Los sonidos que percibimos deben superar el umbral auditivo (0 dB) y no llegar al umbral de dolor (140 dB). Esta cualidad la medimos con el sonómetro y los resultados se expresan en decibelios (dB) en honor al científico e inventor Alexander Graham Bell.

En música se escriben así:

Nombre Intensidad
piano pianissimo(ppp) más suave que pianissimo
Pianissimo (pp) muy suave
Piano (p) suave
Mezzo Piano (mp) medio suave
Mezzo Forte (mf) medio fuerte
Forte (f) fuerte
Fortissimo (ff) muy fuerte
forte fortissimo (fff) más fuerte que fortissimo

El timbre

Artículo principal: Timbre (acústica)

Es la cualidad que confiere al sonido los armónicos que acompañan a la frecuencia fundamental. La voz propia de cada instrumento que distingue entre los sonidos y los ruidos.

Esta cualidad es la que permite distinguir dos sonidos, por ejemplo, entre la misma nota (tono) con igual intensidad producida por dos instrumentos musicales distintos. Se define como la calidad del sonido. cada cuerpo sonoro vibra de una forma distinta. Las diferencias se dan no solamente por la naturaleza del cuerpo sonoro (madera, metal, piel tensada, etc.), sino también por la manera de hacerlo sonar (golpear, frotar, rascar).

Una misma nota suena distinta si la toca una flauta, un violín, una trompeta, etc. Cada instrumento tiene un timbre que lo identifica o lo diferencia de los demás. Con la voz sucede lo mismo. El sonido dado por un hombre, una mujer, un/a niño/a tienen distinto timbre. El timbre nos permitirá distinguir si la voz es áspera, dulce, ronca o aterciopelada. También influye en la variación del timbre la calidad del material que se utilice. Así pues, el sonido será claro, sordo, agradable o molesto.

La duración

Es el tiempo durante el cual se mantiene un sonido. Podemos escuchar sonidos largos, cortos, muy cortos, etc.

Los únicos instrumentos acústicos que pueden mantener los sonidos el tiempo que quieran, son los de cuerda con arco, como el violín, y los de viento (utilizando la respiración circular o continua); pero por lo general, los de viento dependen de la capacidad pulmonar, y los de cuerda según el cambio del arco producido por el ejecutante.

Fuentes del sonido

El sonido es un tipo de ondas mecánicas longitudinales producidas por variaciones de presión del medio. Estas variaciones de presión (captadas por el oído humano) producen en el cerebro la percepción del sonido.

Existen en la naturaleza sonidos generados por diferentes fuentes de sonido y sus características de frecuencia (altura), intensidad (fuerza), forma de la onda (timbre) y envolvente (modulación) los hacen diferentes e inconfundibles, por ejemplo, el suave correr del agua por un grifo tiene las mismas características en frecuencia, timbre y envolvente que el ensordecedor correr del agua en las cataratas del Iguazú, con sus aproximadamente 100 metros de altura de caída libre, pero la intensidad (siempre medida en decibelios a un metro de distancia de la zona de choque) es mucho mayor.

De los requisitos apuntados, el de la envolvente es el más significativo, puesto que es “la variación de la intensidad durante un tiempo, generalmente el inicial, considerado”, el ejemplo de la diferencia de envolventes es la clara percepción que tenemos cuando algún instrumento de cuerda raspada (violín, violoncelo) son ejecutados “normalmente” (con el arco raspando las cuerdas” o cuando son pulsados (pizzicato); mientras que en el primer caso el sonido tiene aproximadamente la misma intensidad durante toda su ejecución, en el segundo caso el sonido parte con una intensidad máxima (la cuerda tensa soltada por el músico) atenuándose rápidamente con el transcurso del tiempo y de una manera exponencial, de manera que la oscilación siguiente a la anterior sigue una ley de variación descendente. Entre los instrumentos que exhiben una envolvente constante tenemos primordialmente el órgano de tubos (y sus copias electrónicas), el saxofón (también de aire, como el órgano) y aquellos instrumentos que, no siendo de envolvente fija, pueden fácilmente controlar esta función, como la flauta (dulce y armónica), la tuba, el clarinete y las trompetas, pífano y pitos, bocinas de medios de transportes (instrumentos de advertencia); entre los instrumentos de declinación exponencial tenemos todos los de percusión que forman las “baterías”: bombos, platillos, redoblantes, tumbadoras (en este ramo debemos destacar los platillos, con un tiempo largo de declinación que puede ser cortado violentamente por el músico) mediante un pedal.

Tubos sonoros

Se llaman tubos sonoros aquellos que contienen una columna gaseosa (columna de aire) capaz de producir sonido al ser convenientemente excitada. El cuerpo sonoro es la columna gaseosa, y no el tubo que la contiene; en efecto, éste tiene la importante función de definir la forma de aquella pero fuera de esto, influye relativamente poco sobre los fenómenos sonoros. Los tubos sonoros pueden ser cerrados, es decir, que poseen una sola abertura y tubos abiertos, que poseen dos o más

Vibración de la columna de aire contenida en un tubo

Las columnas de aire contenidas en los tubos sonoros se comportan, desde ciertos puntos de vista, como cuerdas musicales, por lo tanto las columnas de aire vibrantes poseen nodos, o sea puntos donde la vibración es nula, y vientres, equidistantes de los anteriores, donde la vibración alcanza su máxima amplitud.

La vibración de las columnas de aire es longitudinal; los nodos serán por tanto, puntos de condensación y los vientres puntos de dilatación o rarefacción; en los extremos cerrados siempre se producen nodos y en los extremos abiertos generalmente se producen vientres. El punto de excitación no puede ser un nodo, pero no necesita ser un vientre, pudiendo estar en un punto intermedio. No es necesario que las aberturas de un tubo coincidan con los extremos, pudiendo éstos estar cerrados y haber una o más aberturas en otras partes del tubo (la gaita).

Una columna de aire puede vibrar con toda su longitud o dividida en segmentos iguales lo mismo que las cuerdas; en el primer caso se obtiene el sonido llamado fundamental, y en los otros los armónicos: segundo, si la columna vibra dividida en mitades; tercero, si vibra en tercios, etc.

Tomando como punto de partida el que en los extremos de un tubo abierto, sólo pueden haber vientres de vibración, el tubo producirá su fundamental cuando vibre con un nodo único en su centro. Cuando el tubo produce su segundo armónico, producirá dos nodos y tres vientres; cuando produce su tercer amónico, producirá tres nodos y 4 vientres, y así sucesivamente

Tubos sonoros abiertos.

En los Tubos Cerrados, la onda se forma con un nodo en el extremo cerrado y un vientre en el extremo abierto.

A igualdad de longitud de tubo, el tubo abierto produce un sonido de frecuencia doble que el cerrado. Los tubos abiertos emiten la serie completa de armónicos correspondientes a su longitud, mientras que los cerrados, emiten sólo los armónicos de orden impar. Como tubo cerrado está la Flauta Travesera y como tubos abiertos todos los demás: Clarinetes*, Oboes, Fagotes, Saxofones, Trompetas, Trompas, etc.

Efecto Doppler

De Wikipedia, la enciclopedia libre

Saltar a navegación, búsqueda

El efecto Doppler, llamado así por el austríaco Christian Andreas Doppler, es el aparente cambio de frecuencia de una onda producido por el movimiento relativo entre la fuente, el emisor y/o el medio. Doppler propuso este efecto en 1842 en su tratado Über das farbige Licht der Doppelsterne und einige anderdae Gestirne des Himmels (Sobre el color de la luz en estrellas binarias y otros astros).

El científico neerlandés Christoph Hendrik Diederik Buys Ballot investigó esta hipótesis en 1845 para el caso de ondas sonoras y confirmó que el tono de un sonido emitido por una fuente que se aproxima al observador es más agudo que si la fuente se aleja. Hippolyte Fizeau descubrió independientemente el mismo fenómeno en el caso de ondas electromagnéticas en 1848. En Francia este efecto se conoce como “efecto Doppler-Fizeau” y en los Países Bajos como el “efecto Doppler-Gestirne”.

Un micrófono inmóvil registra las sirenas de los policías en movimiento en diversos tonos dependiendo de su dirección relativa.

En el caso del espectro visible de la radiación electromagnética, si el objeto se aleja, su luz se desplaza a longitudes de onda más largas, desplazándose hacia el rojo. Si el objeto se acerca, su luz presenta una longitud de onda más corta, desplazándose hacia el azul. Esta desviación hacia el rojo o el azul es muy leve incluso para velocidades elevadas, como las velocidades relativas entre estrellas o entre galaxias, y el ojo humano no puede captarlo, solamente medirlo indirectamente utilizando instrumentos de precisión como espectrómetros. Si el objeto emisor se moviera a fracciones significativas de la velocidad de la luz, cuando el cuerpo sí seria apreciable de forma directa la variación de longitud de onda.

Sin embargo hay ejemplos cotidianos de efecto Doppler en los que la velocidad a la que se mueve el objeto que emite las ondas es comparable a la velocidad de propagación de esas ondas. La velocidad de una ambulancia (50 km/h) puede parecer insignificante respecto a la velocidad del sonido al nivel 8, sin embargo se trata de aproximadamente un 4% de la velocidad del sonido, fracción suficientemente grande como para provocar que se aprecie claramente el cambio del sonido de la sirena desde un tono más agudo a uno más grave, justo en el momento en que el vehículo pasa al lado del observador.

Observador acercándose a una fuente

Imaginemos que un observador O se mueve con una velocidad que tiene una dirección y sentido hacia una fuente de sonido S que se encuentra en reposo. El medio es aire y también se encuentra en reposo. La fuente emite un sonido de velocidad V, frecuencia y longitud de onda . Por lo tanto, la velocidad de las ondas respecto del observador no será , sino la siguiente:

Sin embargo, no debemos olvidar que como la velocidad del medio no cambia, la longitud de onda será la misma, por lo tanto, si:

Pero como mencionamos en la primera explicación, el observador al acercarse a la fuente oirá un sonido más agudo, esto implica que su frecuencia es mayor. A esta frecuencia mayor captada por el observador se la denomina frecuencia aparente, que la denominamos f’.

El observador escuchará un sonido de mayor frecuencia debido a que

Observador alejándose de una fuente

Analicemos el caso contrario: cuando el observador se aleja de la fuente, la velocidad será y de manera superior usando el teorema de pitagoras análoga podemos deducir que

Fuente acercándose al observador

En este caso la frecuencia aparente percibida por el observador será mayor que la frecuencia real emitida por la fuente, lo que genera que el observador perciba un sonido más agudo.

Por tanto, la longitud de onda percibida para una fuente que se mueve con velocidad será:

Como podemos deducir que:

Fuente alejándose del observador

Haciendo un razonamiento análogo para el caso contrario: fuente alejándose; podemos concluir que la frecuencia percibida por un observador en reposo con una fuente en movimiento será:

Cuando la fuente se acerque al observador se pondrá un signo (-) en el denominador, y cuando la fuente se aleje se reemplazará por (+).

Al terminar de leer lo anteriormente expuesto surge la siguiente pregunta: ¿Qué pasará si la fuente y el observador se mueven al mismo tiempo?. En este caso particular se aplica la siguiente fórmula, que no es más que una combinación de las dos:

Los signos y deben ser aplicados de la siguiente manera: si el numerador es una suma, el denominador debe ser una resta y viceversa.

Ejemplo

Un observador se mueve a una velocidad de 42 m/s hacia un trompetista en reposo. El trompetista está tocando (emitiendo) la nota La (440 Hz). ¿Qué frecuencia percibirá el observador, sabiendo que = 340 m/s

Solución: Si el observador se acerca hacia la fuente, implica que la velocidad con que percibirá cada frente de onda será mayor, por lo tanto la frecuencia aparente será mayor a la real (en reposo). Para que esto ocurra debemos aplicar el signo (+) en la ecuación.

En este caso particular, el trompetista emite la nota La a 440 Hz; sin embargo, el observador percibe una nota que vibra a una frecuencia de 494,353 Hz, que es la frecuencia perteneciente a la nota Si. Musicalmente hablando, el observador percibe el sonido con un tono más agudo del que se emite realmente

QUE ES  LA LUZ

Se llama luz (del latín lux, lucis) a la radiación electromagnética que puede ser percibida por el ojo humano. En física, el término se usa en un sentido más amplio e incluye el rango entero de radiación conocido como el espectro electromagnético, mientras que la expresión luz visible denota la radiación en el espectro visible.

La ciencia que estudia las principales formas de producir luz, así como su control y aplicaciones, se denomina óptica.

Naturaleza de la luz

La luz presenta una naturaleza compleja: depende de cómo la observemos se manifestará como una onda o como una partícula. Estos dos estados no se excluyen, sino que son complementarios (véase Dualidad onda corpúsculo). Sin embargo, para obtener un estudio claro y conciso de su naturaleza, podemos clasificar los distintos fenómenos en los que participa según su interpretación teórica:

Teoría ondulatoria

Descripción

Esta teoría considera que la luz es una onda electromagnética, consistente en un campo eléctrico que varía en el tiempo generando a su vez un campo magnético y viceversa, ya que los campos eléctricos variables generan campos magnéticos (ley de Ampère) y los campos magnéticos variables generan campos eléctricos (ley de Faraday). De esta forma, la onda se autopropaga indefinidamente a través del espacio, con campos magnéticos y eléctricos generándose continuamente. Estas ondas electromagnéticas son sinusoidales, con los campos eléctrico y magnético perpendiculares entre sí y respecto a la dirección de propagación .

Vista lateral (izquierda) de una onda electromagnética a lo largo de un instante y vista frontal (derecha) de la misma en un momento determinado. De color rojo se representa el campo magnético y de azul el eléctrico.

Para poder describir una onda electromagnética podemos utilizar los parámetros habituales de cualquier onda:

  • Amplitud (A): Es la longitud máxima respecto a la posición de equilibrio que alcanza la onda en su desplazamiento.
  • Periodo (T): Es el tiempo necesario para el paso de dos máximos o mínimos sucesivos por un punto fijo en el espacio.
  • Frecuencia (v): Número de oscilaciones del campo por unidad de tiempo. Es una cantidad inversa al periodo.
  • Longitud de onda (λ): Es la distancia lineal entre dos puntos equivalentes de ondas sucesivas.
  • Velocidad de propagación (V): Es la distancia que recorre la onda en una unidad de tiempo. En el caso de la rapidez de propagación de la luz en el vacío, se representa con la letra c.

La velocidad, la frecuencia, el periodo y la longitud de onda están relacionadas por las siguientes ecuaciones:

Teoría corpuscular

[editar] Descripción

La teoría corpuscular estudia la luz como si se tratase de un torrente de partículas sin carga y sin masa llamadas fotones, capaces de portar todas las formas de radiación electromagnética. Esta interpretación resurgió debido a que, la luz, en sus interacciones con la materia, intercambia energía sólo en cantidades discretas (múltiplas de un valor mínimo) de energía denominadas cuantos. Este hecho es difícil de combinar con la idea de que la energía de la luz se emita en forma de ondas, pero es fácilmente visualizado en términos de corpúsculos de luz o fotones.

[editar] Fenómenos corpusculares

Max Planck

Existen tres efectos que demuestran el carácter corpuscular de la luz. Según el orden histórico, el primer efecto que no se pudo explicar por la concepción ondulatoria de la luz fue la radiación del cuerpo negro.

un cuerpo negro teóricamente perfecto que absorbe toda la luz que incide en él y por eso, cuando se calienta se convierte en un emisor ideal de radiación térmica, que permite estudiar con claridad el proceso de intercambio de energía entre radiación y materia. La distribución de frecuencias observadas de la radiación emitida por la caja a una temperatura de la cavidad dada, no se correspondía con las predicciones teóricas de la física clásica. Para poder explicarlo, Max Planck, al comienzo del siglo XX, postuló que para ser descrita correctamente, se tenía que asumir que la luz de frecuencia ν es absorbida por múltiplos enteros de un cuanto de energía igual a , donde h es una constante física universal llamada Constante de Planck.

En 1905, Albert Einstein utilizó la teoría cuántica recién desarrollada por Planck para explicar otro fenómeno no comprendido por la física clásica: el efecto fotoeléctrico. Este efecto consiste en que cuando un rayo monocromático de radiación electromagnética ilumina la superficie de un sólido (y, a veces, la de un líquido), se desprenden electrones en un fenómeno conocido como fotoemisión o efecto fotoeléctrico externo. Estos electrones poseen una energía cinética que puede ser medida electrónicamente con un colector con carga negativa conectado a la superficie emisora. No se podía entender que la emisión de los llamados “fotoelectrones” fuese inmediata e independiente de la intensidad del rayo. Eran incluso capaces de salir despedidos con intensidades extremadamente bajas, lo que excluía la posibilidad de que la superficie acumulase de alguna forma la energía suficiente para disparar los electrones. Además, el número de electrones era proporcional a la intensidad del rayo incidente. Einstein demostró que el efecto fotoeléctrico podía ser explicado asumiendo que la luz incidente estaba formada de fotones de energía , parte de esta energía 0 se utilizaba para romper las fuerzas que unían el electrón con la materia, el resto de la energía aparecía como la energía cinética de los electrones emitidos:

donde m es la masa del electrón, vmáx la velocidad máxima observada, ν es la frecuencia de la luz iluminante y ν0 es la frecuencia umbral característica del sólido emisor.

La demostración final fue aportada por Arthur Compton que observó como al hacer incidir rayos X sobre elementos ligeros, estos se dispersaban con menor energía y además se desprendían electrones (fenómeno posteriormente denominado en su honor como efecto Compton). Compton, ayudándose de las teorías anteriores, le dio una explicación satisfactoria al problema tratando la luz como partículas que chocan elásticamente con los electrones como dos bolas de billar. El fotón, corpúsculo de luz, golpea al electrón: el electrón sale disparado con una parte de la energía del fotón y el fotón refleja su menor energía en su frecuencia. Las direcciones relativas en las que salen despedidos ambos están de acuerdo con los cálculos que utilizan la conservación de la energía y el momento.

Otro fenómeno que demuestra la teoría corpuscular es la presión

Fenómenos ondulatorios

Véase también: Movimiento ondulatorio

Algunos de los fenómenos más importantes de la luz se pueden comprender fácilmente si se considera que tiene un comportamiento ondulatorio.

El principio de superposición de ondas nos permite explicar el fenómeno de la interferencia: si juntamos en el mismo lugar dos ondas con la misma longitud de onda y amplitud, si están en fase (las crestas de las ondas coinciden) formarán una interferencia constructiva y la intensidad de la onda resultante será máxima e igual a dos veces la amplitud de las ondas que la conforman. Si están desfasadas, habrá un punto donde el desfase sea máximo (la cresta de la onda coincida exactamente con un valle) formándose una interferencia destructiva, anulándose la onda. El experimento de Young, con sus rendijas, nos permite obtener dos focos de luz de la misma longitud de onda y amplitud, creando un patrón de interferencias sobre una pantalla.

Las ondas cambian su dirección de propagación al cruzar un obstáculo puntiagudo o al pasar por una abertura estrecha. Como recoge el principio de Fresnel – Huygens, cada punto de un frente de ondas es un emisor de un nuevo frente de ondas que se propagan en todas las direcciones. La suma de todos los nuevos frentes de ondas hace que la perturbación se siga propagando en la dirección original. Sin embargo, si por medio de una rendija o de un obstáculo puntiagudo, se separa uno o unos pocos de los nuevos emisores de ondas, predominará la nueva dirección de propagación frente a la original.

La difracción de la luz se explica fácilmente si se tiene en cuenta este efecto exclusivo de las ondas. La refracción, también se puede explicar utilizando este principio, teniendo en cuenta que los nuevos frentes de onda generados en el nuevo medio, no se transmitirán con la misma rapidez que en el anterior medio, generando una distorsión en la dirección de propagación:

Otro fenómeno de la luz fácilmente identificable con su naturaleza ondulatoria es la polarización. La luz no polarizada está compuesta por ondas que vibran en todos los ángulos, al llegar a un medio polarizador, sólo las ondas que vibran en un ángulo determinado consiguen atravesar el medio, al poner otro polarizador a continuación, si el ángulo que deja pasar el medio coincide con el ángulo de vibración de la onda, la luz pasará íntegra, si no sólo una parte pasará hasta llegar a un ángulo de 90º entre los dos polarizadores, donde no pasará nada de luz.

Este efecto, además, permite demostrar el carácter transversal de la luz (sus ondas vibran en dirección perpendicular a la dirección de propagación).

El efecto Faraday y el cálculo de la rapidez de la luz, c, a partir de constantes eléctricas (permitividad, ) y magnéticas (permeabilidad, μ0) por parte de la teoría de Maxwell:

confirman que las ondas de las que está compuesta la luz son de naturaleza electromagnética. Esta teoría fue capaz, también, de eliminar la principal objeción a la teoría ondulatoria de la luz, que era encontrar la manera de que las ondas se trasladasen sin un medio material.

Electromagnetismo

De Wikipedia, la enciclopedia libre

Saltar a navegación, búsqueda

Ferrofluido que se agrupa cerca de los polos de un magneto poderoso.

El electromagnetismo es una rama de la Física que estudia y unifica los fenómenos eléctricos y magnéticos en una sola teoría, cuyos fundamentos fueron sentados por Michael Faraday y formulados por primera vez de modo completo por James Clerk Maxwell. La formulación consiste en cuatro ecuaciones diferenciales vectoriales que relacionan el campo eléctrico, el campo magnético y sus respectivas fuentes materiales (corriente eléctrica, polarización eléctrica y polarización magnética), conocidas como ecuaciones de Maxwell.

El electromagnetismo es una teoría de campos; es decir, las explicaciones y predicciones que provee se basan en magnitudes físicas vectoriales dependientes de la posición en el espacio y del tiempo. El electromagnetismo describe los fenómenos físicos macroscópicos en los cuales intervienen cargas eléctricas en reposo y en movimiento, usando para ello campos eléctricos y magnéticos y sus efectos sobre las sustancias sólidas, líquidas y gaseosas. Por ser una teoría macroscópica, es decir, aplicable sólo a un número muy grande de partículas y a distancias grandes respecto de las dimensiones de éstas, el Electromagnetismo no describe los fenómenos atómicos y moleculares, para los que es necesario usar la Mecánica Cuántica.

El electromagnetismo considerado como fuerza es una de las cuatro fuerzas fundamentales del universo actualmente conocido.

Reflexión (física)

De Wikipedia, la enciclopedia libre

Saltar a navegación, búsqueda

Para otros usos de este término, véase Reflejo (desambiguación).

Reflejo del Monte Hood en el lago Trillium.

Reflejo sobre una burbuja de jabón.

La reflexión es el cambio de dirección de un rayo o una onda que ocurre en la superficie de separación entre dos medios, de tal forma que regresa al medio inicial. Ejemplos comunes son la reflexión de la luz, el sonido y las ondas en el agua.

Contenido

Leyes de la reflexión regular y especular

Cuando la superficie reflectante es muy lisa ocurre una reflexión de luz llamada especular o regular. Para este caso las leyes de la reflexión son las siguientes:

  1. El rayo incidente, el rayo reflejado y la recta normal, deben estar en el mismo plano (mismo medio), con respecto a la superficie de reflexión en el punto de incidencia.
  2. El ángulo formado entre el rayo incidente y la recta normal es igual al ángulo que existe entre el rayo reflejado y la recta normal.

θi = θr

Reflexión interna total

Cuando en la refracción el ángulo de incidencia es mayor que el ángulo crítico ocurre lo que se conoce como reflexión interna total.

Otros tipos de reflexión

Retrorreflexión

Principio de funcionamiento de un reflector de esquina.

Artículo principal: Retrorreflector

La retrorreflexión es la capacidad que tienen algunas superficies que por su estructura pueden reflejar la luz de vuelta hacia la fuente, sin que importe el ángulo de incidencia original. Este comportamiento se puede observar en un espejo, pero únicamente cuando éste se encuentra perpendicular a la fuente; es decir, cuando el ángulo de incidencia es igual a 90°. Se puede construir un retrorreflector simple colocando tres espejos ordinarios de forma que todos sean perpendiculares entre sí (un reflector esquinero). La imagen que se produce es igual a la imagen producida por un espejo pero invertida. Tal como se observa en la figura, la combinación de las diferentes superficies hace que el haz de luz sea reflejado de vuelta a la fuente.

Si a una superficie se le aplica una pequeña capa de esferas reflectivas es posible obtener una superficie con una capacidad limitada de retrorreflexión. El mismo efecto se puede obtener si se dota a la superficies con una estructura similar a pequeñas pirámides (reflexión esquinera). En ambos casos, la estructura interna de la superficie refleja la luz que incide sobre ella y la envía directamente hacia la fuente. Este tipo de superficies se utilizan para crear las señales de tránsito y las placas de los automóviles; en este caso particular no se desea una retrorreflexión perfecta, pues se quiere que la luz retorne tanto hacia las luces del vehículo que emite el haz de luz como a los ojos de la persona que lo va conduciendo.

Reflexión acoplada compleja

La luz se refleja exactamente en la dirección de la fuente de donde proviene debido a un proceso óptico no lineal. En este tipo de reflexión, no solo se invierte la dirección de la luz; también se invierte el frente de la onda. Un reflector acoplado se puede utilizar para remover aberraciones en un haz de luz, reflejándola y haciéndola pasar de nuevo por el dispositivo óptico que causa

Reflexión de neutrones

Materiales que reflejan neutrones, como por ejemplo el berilio, son utilizados en reactores nucleares y en armas atómicas. En las ciencias físicas y químicas, la reflexión de neutrones es utilizada para determinar la estructura y composición interna de un material. refl HD.htm

Reflexión del sonido

Cuando una onda sonora golpea una superficie plana es reflejada de manera coherente asumiendo que el tamaño de la superficie reflectiva es lo suficientemente larga con relación a la longitud de la onda que incide. Tómese en cuenta que las ondas del sonido audible tienen un amplio rango de frecuencias (de 20 Hz hasta 20000 Hz), al igual que la longitud de onda (que pude variar de 20 mm hasta 17 m). Como resultado, se obtiene que la naturaleza en general, así como el comportamiento del fenómeno de reflexión varía de acuerdo con la estructura y la textura de las superficies de reflexión; por ejemplo, una superficie porosa tiende a absorber grandes cantidades de energía, mientras que una superficie áspera (donde áspero es relativo a la longitud de onda) reflejará las ondas en todas direcciones dispersando la energía de la onda, en lugar de reflejar el sonido en forma coherente. Esto nos lleva al campo de la Acústica arquitectónica, porque la naturaleza de estas reflexiones son críticas para la sensación del espacio en un auditorio.

Reflexión sísmica

Las ondas sísmicas producidas por terremotos o por otras fuentes tales como explosiones, pueden ser reflejadas por capas dentro de la Tierra. El estudio de las ondas sísmicas reflejadas en las profundidades ha dado a los sismólogos la oportunidad de determinar las capas que conforman la estructura de la Tierra. El estudio de las ondas sísmicas reflejadas de poca profundidad se utiliza en sismología por reflexión, que estudia la corteza de la Tierra en general, y en particular para encontrar posibles yacimientos de petróleo o gas natural.

Interpretación cuántica

Todas la interacciones entre fotones y materia se describen como una serie de absorciones y emisiones de fotones. Cuando un fotón que llega golpea una molécula en la superficie de la materia, es absorbido y casi de inmediato vuelto a emitir. El “nuevo” fotón puede emitirse en cualquier dirección; esto causaría una reflexión difusa. [se necesita cita].

La reflexión especular (siguiendo la ley de la reflexión equi-angular de Herón) es un efecto de la mecánica cuántica, explicado como la suma de los caminos más probables tomados por los fotones. La interacción con materia liviana es un tópico de la electrodinámica cuántica, descrita por Richard Feynman en su libro QED:La extraña teoría de la luz y la materia.

La energía de un fotón que llega a una molécula puede que concuerde con la energía requerida para cambiar el estado de la molécula, causando una transición en el estado cinético, rotacional, electrónica o vibracional de la energía. Cuando esto ocurre, puede que el fotón absorbido no se reemita o puede que se reemita con pérdida de energía. Estos efectos son co¿Qué son?

  Un espejo plano es una superficie plana muy pulimentada que puede reflejar la luz que le llega con una capacidad reflectora de la intensidad de la luz incidente del 95% (o superior) .Los espejos planos se utilizan con mucha frecuencia. Son los que usamos cada mañana para mirarnos. En ellos vemos nuestro reflejo, una imagen que no está distorsionada.Prueba a ir a este enlace y dibujar en la parte izquierda. Mueve el punto rojo de la izquierda. ¿Qué ves?

¿Cómo se hacen?

Cuando los pueblos antiguos lograron dominar la metalurgia, hicieron espejos puliendo superficies metálicas (plata).

Los espejos corrientes son placas de vidrio plateadas. Para construir un espejo se limpia muy bien un vidrio y sobre él se deposita plata metálica por reducción del ión plata contenido en una disolución amoniacal de nitrato de plata. Después se cubre esta capa de plata con una capa de pintura protectora.

El espejo puede estar plateado por la cara anterior o por la posterior, aunque lo normal es que esté plateada la posterior y la anterior protegida por pintura. La parte superior es de vidrio, material muy inalterable frente a todo menos al impacto.

Consejos de como pegar un espejo y calidades de los espejos. Pulsa aquí.

¿Qué imágenes dan?

Una imagen en un espejo se ve como si el objeto estuviera detrás y no frente a éste ni en la superficie. (Ojo, es un error frecuente el pensar que la imagen la vemos en la superficie del espejo).

El sistema óptico del ojo recoge los rayos que salen divergentes del objeto y los hace converger en la retina.

El ojo identifica la posición que ocupa un objeto como el lugar donde convergen las prolongaciones del haz de rayos divergentes que le llegan. Esas prolongaciones no coinciden con la posición real del objeto. En ese punto se forma la imagen virtual del objeto.

La imagen obtenida en un espejo plano no se puede proyectar sobre una pantalla, colocando una pantalla donde parece estar la imagen no recogería nada. Es, por lo tanto virtual, una copia del objeto “que parece estar” detrás del espejo.

El espejo sí puede reflejar la luz de un objeto y recogerse esta sobre una pantalla, pero esto no es lo que queremos decir cuando afirmamos que la imagen virtual no se recoge sobre una pantalla. El sistema óptico del ojo es el que recoge los rayos divergentes del espejo y el cerebro interpreta como procedentes de detrás del espejo (justo donde se cortan sus prolongaciones)

La imagen formada es:

simétrica, porque aparentemente está a la misma distancia del espejo

virtual, porque se ve como si estuviera dentro del espejo, no se puede formar sobre una pantalla pero puede ser vista cuando la enfocamos con los ojos.

del mismo tamaño que el objeto.

derecha, porque conserva la misma orientación que el objeto.


Cuando la luz llega a la superficie de un cuerpo, parte de la luz se refleja y parte entra en el cuerpo donde puede ser absorbida o transmitida, absorbiéndose siempre una parte de ella mientras lo atraviesa (ej. vidrio).

La luz reflejada cumple las leyes de la reflexión.

La cantidad de luz reflejada por un cuerpo depende de:

  • La naturaleza de la superficie (composición, estructura, densidad, color, entre otras)
  • La textura de la superficie (plana, rugosa, regular, irregular, opaca, pulida , etc.)
  • La longitud de onda de la luz, y de si está o no polarizada.
  • El ángulo de incidencia de la luz sobre la superficie.

La reflexión de la luz se puede realizar de dos maneras: reflexión irregular o difusa y reflexión regular o especular.


Reflexión regular o especular

Tiene lugar cuando los rayos de luz inciden sobre una superficie lisa. Algunos metales como la plata y el aluminio absorben poco la luz blanca y si construimos con ellos láminas metálicas muy pulimentadas podemos lograr que reflejen la luz de tal manera que los rayos reflejados se vean con una intensidad comparable a la de los rayos incidentes. A estas superficies les llamamos espejos y pueden ser planos o curvos. Hoy en día los espejos se construyen de vidrio, pero en la antigüedad los primeros espejos eran de metal.

La física estudia las leyes de la formación de imágenes en los espejos planos. ¿Quieres conocerlas?

Deslumbramiento

  De los focos luminosos sale la luz en todas las direcciones. Sale radialmente, como si el foco de luz fuera el centro de una esfera y los rayos sus radios. Cada dirección de propagación se idealiza y se le asigna un único rayo.En la realidad, del foco sale un paquete de rayos paralelos que llamamos haz.Este haz es una onda electromagnética y dentro de ella lleva fotones que contienen energía.

Cuando los rayos del haz están lejos del foco se puede considerar que son paralelos entre sí y que, para pequeños recorridos, a esa gran distancia del foco, la separación entre el principio y el fin de ese trozo de rayo es “inapreciable”.

  Como los espejos planos reflejan mas del 95% de la intensidad de la luz incidente, un haz de luz procedente del Sol que se refleje en un espejo puede deslumbrarnos.En este gráfico un rayo que procede del Sol incide en un espejo y se refleja hacia el ojo del observador.

En el gráfico anterior hay un error. ¿Puedes descubrirlo?.

¿Como puedes lograr deslumbrar a una persona con un espejo?

¿Conoces algún caso histórico (¿?) en el que se usaron espejos en alguna guerra?. ¿Quién fue Arquímedes?. Una experiencia reciente demostró que para concentrar energía capaz de incendiar naves a distancia se necesitan espejos de un tamaño imposibles de construir con la tecnología de la época de Arquímedes

nocidos como Raman, Brillouin.pollo

Espejos esféricos

De Wikilibros, la colección de libros de texto de contenido libre.

< Física | Óptica

Saltar a navegación, buscar

Elementos de um espelho esférico

Los espejos esféricos tienen la forma de la superficie que resulta cuando una esfera es cortada por un plano. Si la superficie reflectora está situada en la cara interior de la esfera se dice que el espejo es cóncavo. Si está situada en la cara exterior se denomina convexo. Las características ópticas fundamentales de todo espejo esférico son las siguientes:

Centro de curvatura C: Es el centro de la superficie esférica que constituye el espejo.

Radio de curvatura R: Es el radio de dicha superficie.

Vértice V: Coincide con el centro del espejo.

Eje principal: Es la recta que une el centro de curvatura C con el vértice V.

Foco: Es un punto del eje por el que pasan o donde convergen todos los rayos reflejados que inciden paralelamente al eje. En los espejos esféricos se encuentra en el punto medio entre el centro de curvatura y el vértice.

Formación de imágenes en espejos esféricos

Cuando un rayo incidente pasa por el centro de curvatura, el rayo reflejado recorre el mismo camino, pero en sentido inverso debido a que la incidencia es normal o perpendicular.

Asimismo, cuando un rayo incide paralelamente al eje, el rayo reflejado pasa por el foco, y, viceversa, si el rayo incidente pasa por el foco el reflejado marcha paralelamente al eje. Es ésta una propiedad fundamental de los rayos luminosos que se conoce como reversibilidad.

Con estas reglas, que son consecuencia inmediata de las leyes de la reflexión, es posible construir la imagen de un objeto situado sobre el eje principal cualquiera que sea su posición. Basta trazar dos rayos incidentes que, emergiendo del extremo superior del objeto discurran uno paralelamente al eje y el otro pasando por el centro de curvatura C; el extremo superior del objeto vendrá determinado por el punto en el que ambos rayos convergen. Cuando la imagen se forma de la convergencia de los rayos y no de sus prolongaciones se dice que la imagen es real.

En la construcción de imágenes en espejos cóncavos y según sea la posición del objeto, se pueden plantear tres situaciones diferentes que pueden ser analizadas mediante diagramas de rayos:

a) El objeto está situado respecto del eje más allá del centro de curvatura C. En tal caso la imagen formada es real, invertida y de menor tamaño que el objeto.

b) El objeto está situado entre el centro de curvatura C y el foco F. La imagen resulta entonces real, invertida y de mayor tamaño que el objeto.

c) El objeto está situado entre el foco F y el vértice V. El resultado es una imagen virtual, directa y de mayor tamaño que el objeto.

Para espejos convexos sucede que cualquiera que fuere la distancia del objeto al vértice del espejo la imagen es virtual, directa y de mayor tamaño. Dicho resultado puede comprobarse efectuando la construcción de imágenes mediante diagramas de rayos de acuerdo con los criterios anteriormente expuestos

Formación de imágenes en los espejos cóncavos 

  Un cuerpo iluminado o que emite o refleja luz se considera  un Objeto en óptica geométrica. Colocando un objeto delante de un espejo cóncavo este formará una Imagen real de ese objeto.
Todos los rayos emitidos por la punta de la vela Q son reflejados por el espejo y se cruzan en Q’ (se enfocan en ese punto).Todos los rayos emitidos por el punto M del objeto llegan, una vez reflejados, al punto M’.Cada punto del objeto vela, situado sobre QM emitirá rayos. Todos juntos darán la  imagen correspondiente, Q’M’.Colocando una pantalla en esta zona se formará sobre ella una imagen nítida y claramente definida.Debido a que la imagen  se puede formar sobre una pantalla, se llama imagen real. Si vamos alejando la pantalla,  la imagen se va  haciendo cada vez menos nítida.

Si miramos el objeto a través de un espejo es exactamente en el punto de enfoque (convergencia de los rayos) donde nos parece que está situado el objeto.

os, poseen frentes de onda circulares. Cada uno de esos frentes se