Bienvenido a PRACTICA CIENCIA. Este es un blog dedicado a la divulgación científica. Su principal característica es un enfoque basado en la experimentación como punto de partida y en presentar cada nueva entrada justo cuando las anteriores han fijado de manera sólida los conocimientos previos necesarios. Este blog hace uso sistemático de vídeos de youtube, ya que el autor considera que no hay nada como ver para creer y hoy en día hay excelente material didáctico en la red el cual puede ser legalmente utilizado ya que apuntamos directamente a la fuente y al autor del mismo. Así, este blog está cogiendo el formato de lo que podríamos denominar una "youtupedia": entradas apoyadas por vídeos donde hay multitud de enlaces que nos derivan a otras entradas y en el que además se intenta que haya siempre un hilo conductor. Todo ello amenizado por los propios comentarios del autor que son fruto de su experiencia en el campo, tras años de estudio y autoindagación.

lunes, 8 de junio de 2015

DEMONIO DE MAXWELL Y MÓVIL PERPETUO DE SEGUNDA ESPECIE


Una de la paradojas más interesantes de la Ciencia es la del demonio de Maxwell que pretende recrear un experimento mental para contradecir el Segundo Principio de la Termodinámica construyendo lo que se conoce como móvil perpetuo de segunda especie.

Este experimento mental consiste en imaginarse a dos gases contenidos en dos recipientes que están en contacto por una membrana, la cual dispone de una puerta o apertura que un demonio puede abrir haciéndolo deliberadamente siempre en la misma dirección. El demonio actuaría de forma inteligente de forma que dejara pasar solamente las moléculas energéticas en una dirección. De esta forma, en el recipiente de la izquierda, por ejemplo, se acumularían más moléculas y más energéticas que en el de la derecha, de forma que aumentaría la presión y la temperatura. Y eso se podría aprovechar, por ejemplo, para mover las aspas de un sencillo y ligero molinillo. Pasado un tiempo, el demonio abriría la compuerta para que se mezclaran otra vez los gases hasta alcanzar el equilibrio en el punto de máxima entropía y reiniciaría el proceso de nuevo.

Este mecanismo fue ingeniado por Maxwell en 1869.

Según Léon Brouillin y otros científicos la posible explicación a la paradoja de Maxwell se sustentaría en dos principios:
  • a la propia decisión del demonio requiere el uso de una información en la que subyace un gasto de energía que hay que tener en cuenta. Esta consideración abre la puerta a un interesante campo de la ciencia que sugiere que la entropía tiene una contraparte lógica que es susceptible de ser estudiada en sistemas de información como los binarios que usan los ordenadores y cuya unidad es el bit.
  • a la energía cinética involucrada para abrir la puerta por el demonio siempre en la misma dirección.
Este es un tema apasionante que tuve ocasión de profundizar gracias a una edición monográfica de la revista Investigación y Ciencia que llevaba por título El Orden y el Caos. Lamentablemente este monográfico se encuentra agotado desde hace algunos años por lo que es bastante difícil de conseguir. Pero podemos al menos consultar el desglose de temas que incluye y una breve introducción a los mismos pinchando en el siguiente link.

Aunque el demonio de Maxwell sea un mero artificio intelectual, en el mundo real al procesos equivalentes, cómo la catalización de determinadas reacciones químicas por encimas que actúan en función de la información que obtienen de la información genética sintetizada en una proteína. Por supuesto que en este caso este proceso ocurre en un sistema abierto y, aunque la entropía en la reacción química en si pueda disminuir, no así si se tiene en cuenta la del entorno.

jueves, 4 de junio de 2015

LINEAS ESPECTRALES DEL ÁTOMO DE HIDRÓGENO


Hydrogen spectrum sl

Poco tiempo después de observar la serie espectral de Balmer se observaron también las series de Lymann, Bracket, Paschen y Pfund, cuya diferencia esencial era en nivel energético atómico de procedencia en las transiciones de los electrones que provocaban la emisión de un fotón (n = 1, 3, 4, y 5 respectivament).

Todas estas lineas espectrales incluida la serie de Balmer podían ser explicadas por la siguiente fórmula empírica.

SERIE DE BALMER


El análisis de las lineas espectrales de emisión del hidrógeno obtenidas al calentar el mismo por alto voltaje y separadas por mediación de un prisma llevó a la definición de una fórmula empírica que se conoce como serie de Balmer y que hoy en día sabemos que se corresponde con la luz emitida al saltar un electrón desde el nivel energético n = 2 a cualquier otro de energía menos (m > 2).

Este espectro puede ser observado con instrumentos ópticos convencionales porque su longitud de onda cae dentro del visible.

Visible spectrum of hydrogen

Tanto el espectro correspondiente a la serie de Balmer como las otras lineas espectrales que se descubrieron más adelante pudieron ser cuadradas por la fórmula empírica de Rydberg.

martes, 2 de junio de 2015

EFECTO COMPTON


El efecto Compton confirmó la naturaleza ondulatoria de los fotones de la luz. Así se comprobó básicamente que la hacer "colisionar" una haz de luz de longitud de onda determinada, el haz salía con una distribución de longitudes de onda que dependía del ángulo de desviación (o de scattering) exactamente como se predecía por conservación del momento y la energía si se suponía que los fotones estaban constituidos por quantos de luz hf tal como había enunciado Planck y Einstein para explicar el efecto fotoeléctrico.

lunes, 1 de junio de 2015

EFECTO FOTOELÉCTRICO


En el año 1905 el efecto fotoeléctrico volvió a romper los esquemas de las físicos después de que Planck hubiera encontrado la forma de encajar el espectro de radiación de un cuerpo negro bajo la hipótesis de la cuantización de la energía de la luz.

El efecto fotoeléctrico no hizo sino confirmar esta tesis así como el hecho de que la luz estuvieran constituida por partículas: los fotones.

Fotón

Sólo así se podía explicar que la corriente eléctrica generada dependiera de la frecuencia de la luz incidente más que de su intensidad, por encima del trabajo de extracción necesario para arrancar el electrón de la materia, cuyo valor depende el material.

EfectoFotoelectrico

CÓMO MEDIR LA CONSTANTE DE PLANCK


La forma más directa de obtener experimentalmente el valor de la constante de Planck es a partir del efecto fotoeléctrico. No en vano, también se puede obtener a partir de la Ley de Wien o la Ley de Stefan-Boltzmann, pues en ambos casos está incluida como en la constante de proporcionalidad.

Aunque con menor rigor pero más accesible experimentalmente, se puede determinar la constante de Planck a partir de diodos LEDs que emiten luz de diferentes colores midiendo el valor del voltaje crítico a partir del cual empiezan a emitir.

domingo, 31 de mayo de 2015

LEY DE STEFAN-BOLTZMANN


La Ley de Stefan-Boltzmann enuncia que la energía total irradiada por un cuerpo negro es proporcional a la temperatura de su superficie elevada a la cuarta potencia. Ante todo, esta fue una ley experimental que fue obtenida a finales del siglo XIX.

Finalmente el único marco teórico que llegó a predecir tal comportamiento fue la Ley de Planck. En efecto, al integrar para todo el espectro de frecuencia la expresión matemática que da cuenta de la Ley de Planck se obtiene una expresión que depende de T4.

Bajo ciertas consideraciones apropiadas se determina la constante de proporcionalidad que encaja con los resultados experimental: σ = 5,67 x 10-8W/m2K4.

La determinación de la constante de Stefan-Boltzmann facilito la obtención en cascada de otras constante desconocidas hasta entonces, como:

viernes, 29 de mayo de 2015

LEY DE DESPLAZAMIENTO DE WIEN


Básicamente la ley de Wien pone de manifiesto que en el espectro de radiación de un cuerpo negro, la longitud de onda para la que la intensidad es máxima es inversamente proporcional a la temperatura del cuerpo.

Wiens law

Está ley concuerda teóricamente con la Ley de Planck obtenida bajo la suposición que las partículas de luz responsables del espectro de radiación de un cuerpo negro deben tener energías discretas múltiplos de una unidad básica.

jueves, 28 de mayo de 2015

LEY DE PLANCK


Max Planck hizo una chocante suposición, probablemente basándose sólo en argumentos matemáticos, para intentar encajar el espectro de emisión de un cuerpo negro que se registraba experimentalmente: la energía de las partículas responsables de la emisión se tenía que distribuir en paquetes discretos de energía múltiplos naturales de la frecuencia con que se emitían.

La consecuencia de esta suposición es que ahora para calcular el valor medio de las partículas en lugar de resolver una integral (como deber ser el caso cuando la energía se supone que se distribuye de forma continua) lo que hay que calcular es una sumatorio cuya expresión final se deduce aplicando las fórmulas de las series geométricas.


La fórmula que se obtiene ahora si que concuerda completamente con el espectro registrado y además se confirmaría con dos leyes más relacionadas con éste:

Planck law radiation

miércoles, 27 de mayo de 2015

ESPECTRO DE RADIACIÓN DE UN CUERPO NEGRO


Se denomina espectro de radiación de un cuerpo negro al espectro energético que se produce por un cuerpo completamente oscuro en su interior por la única acción de su temperatura, por la que emite una radiación que escapa por una pequeña apertura que se le practica.

El espectro muestra una intensidad dependiente de la longitud de onda para una temperatura dada con un pico característico que sigue la ley empírica de Wien según la cual la longitud de onda del pico es inversamente proporcional a la temperatura.

Experimentos para obtener el espectro de radiación de un cuerpo negro fueron realizados a finales del siglo XIX y se puso de relieve que la curva obtenida no podía ser explicada según la Ley de Rayleigh-Jeans, como sería de esperar por las conocimientos de la época.


Abajo podemos ver todo un dispositivo experimental moderno para registrar el espectro de radiación de un cuerpo negro.




LEY DE RAYLEIGH-JEANS


Black body es

La Ley de Rayleigh-Jeans predice el comportamiento la intensidad que debería tener el espectro de emisión de un cuerpo en función exclusivamente de su temperatura (idealmente conocido como "cuerpo negro") por unidad de longitud de ondas.

Esta ley se basa en la aplicación del principio de equipartición de la energía suponiendo una distribución continua de la misma.


En esta expresión el término exponencial da cuenta de la probabilidad P(E) de que una molécula vibre con energía E (en función de la constante de Bolztman K). Al multiplicar la exponencial por E en el numerador se obtiene el valor medio.

El resultado es la curva trazada en color negro con la etiqueta "Teoría clásica" que vemos dibujada para una temperatura de 5000 grados Kelvin. 

Para obtener esta expresión Rayleigh y Jeans tuvieron considerar cuántos modos podían "caber" en un volumen cuadrado dado para una longitud de onda dada teniendo en cuenta que en las paredes el campo eléctrico tenía que ser cero (como sucede con las ondas estacionarias).

Como se puede observar esa curva tiende a infinito a medida que la longitud de onda tiene a cero, lo que se conoce como catástrofe ultravioleta. Además no concuerda para nada con las curvas que se registran experimentalmente (trazos rojo, verde y azul del gráfico adjunto).

Todo esto era conocido a finales del siglo XIX. Algo fallaba. Todo el mundo lo sabía, pero nadie era capaz de explicar por qué.

sábado, 23 de mayo de 2015

LOS MODELOS ATÓMICOS DE DALTON, THOMSON, RUTHERFORD Y BOHR


Una de las primeras personas en considerar que la materia debía estar compuesta por átomos fue Dalton al evidenciarse que en la formación de compuestos químicos siempre se mantenían ciertas proporciones entre los elementos involucrados, lo cual solamente se podía explicar considerando una estructura subyacente (aunque anteriormente ya Lomonosov había imaginado la materia constituida por átomos que se combinaban formando moléculas).

El descubrimiento del electrón conllevó la formulación del modelo atómico de Thomson conocido como pudding de pasas, en el que los átomos estarían constituidos por una carga positiva ocupando todo el volumen en el que estarían insertadas las cargas eléctricas negativas.

El experimento de Rutherford puso de manifiesto por primera vez que el átomo está esencialmente vacío y concentra toda su carga positiva en un diminuto núcleo atómico. Los electrones estarían orbitando alrededor cómo ocurren con los planetas alrededor del Sol. Sin embargo, atendiendo a la presunción de que el electrón tendría que emitir radiación electromagnética, no se podía explicar por qué no colapsaba contra el núcleo por ir reduciendo paulatinamente su radio orbital según iba irradiando energía.

El modelo de Bohr fue el primero en proponer una solución en el marco de la naciente Física Cuántica en aras de la asunción del principio de la primera cuantización, tal y como se verá más adelante.

viernes, 22 de mayo de 2015

EL EXPERIMENTO DE RUTHERFORD


Ernest Rutherford dirigió un experimento que se realizó en 1909 y cuyos resultados se publicaron en 1911 y que cambió radicalmente la visión del átomo que se tenía hasta entonces.


El experimento consistía en hacer pasar a través de una lámina de oro un haz de partículas alfa que se generaban a partir de una fuente radioactiva de polonio y se dejaban salir a través de dos agujeros alineados de forma que se asegurara que el haz era recto.


Lo que se observó es que a pesar de que la gran mayoría de las partículas atravesaban la lámina sin desviarse tal como predecía el modelo de Thomson imperante en la época, unas pocas resultaron desviarse dejando un impacto en la pantalla circular dispuesta alrededor en incluso algunas (aproximadamente 1 de cada 20.000) "rebotaban" siendo desviadas hacia atrás.

Esto sugería una nueva concepción del átomo, en la que toda la carga positiva se concentraba en el núcleo central y los electrones orbitaban alrededor, de forma que la casi totalidad del espacio considerado estaba vacío.

Geiger-Marsden experiment expectation and result (Spanish)

La reconstrucción del proceso cinemático de los eventos a partir de las muestras del los impactos registrados permitió obtener un valor empírico de la sección eficaz de los mismo, lo que viene a ser la extensión alrededor de los núcleos hasta donde interactúan con las partículas incidentes, con lo que se estimó que el radio de núcleo atómico era del orden de 10-12m.

DESCUBRIMIENTO DEL NEUTRON


El neutrón no fue descubierto experimentalmente hasta el año 1932 y es que el hecho de que fuera una partícula neutra dificultaba enormemente su detección. De hecho, como se puede observar el el vídeo, solamente su detección indirecta es posible.

Los indicios sobre su posible existencia venían de la evidencia de que la masa de los átomos de helio era unas 4 veces mayor a las de hidrógeno cuando se sabía que el helio tenía dos protones y el hidrógeno uno (por lo que era de esperar una masa doble). En realidad, Marie Curie ya había evidenciado la existencia de partículas neutras con masa en sus estudios de la radioactividad.

En el experimento realizado por James Chadwick se utilizó una fuente radioactiva de polonio para emitir partículas alfa que al impactar contra una lámina de berilio emitían un segundo tipo de radiación que no se podía detectar directamente (los neutrones).

La forma de constatar este segundo tipo de radiación era colocando una segunda lámina (en este caso, de parafina) como obstáculo en su recorrido. Lo que se observaba es que como resultado de las colisiones de estas partículas "transparentes" con la parafina se emitían otras partículas que ahora sí estaban cargadas, de cuya dispersión en una cámara de gas y la corriente generada en un cátodo se podían deducir sus propiedades, apuntando a que eran protones

Trazando inferidas las propiedades de los protones con las que tenían que tener las partículas colisionantes (aplicando conservación de la energía y el momento lineal) se dedujo que tales partículas debían de ser neutras y poseer una masa muy parecida a la del protón. Se había descubierto el neutrón.

jueves, 21 de mayo de 2015

DESCUBRIMIENTO DEL PROTÓN


Eugen Goldstein tuvo la ocurrencia de realizar unos agujeros en el cátodo de un tubo de rayos catódicos. Lo que observó es que cuando aplicaba el alto voltaje además de la luz característica debida a la emisión de los rayos catódicos (electrones), aparecía otro haz luminoso de otro color detrás del cátodo. A estos rayos se los denominó rayos canales y fueron observados por primera vez en el año 1886

Poco tiempo después Wilheim Wien, demostró que estos rayos eran debidos a partículas de carga positiva al ver que al aplicar un campo eléctrico perpendicular a su trayectoria, ésta se curvaba hacia el polo negativo que lo generaba. En función de la desviación vertical sufrida por los rayos canales en el fondo del tubo se podía deducir la relación entre la carga y la masa (e/m). Suponiendo que la carga era idéntica que la del electrón pero cambiada de signo, se observó que la masa estaba en correspondencia con la masa atómica del elemento que ocupaba el gas

Se había descubierto el protón y se había confeccionado el mecanismo que derivaría en la espectroscopia de masas. La masa hallada cuando el gas utilizado era hidrógeno era 1840 veces mayor a la masa del electrón. Aunque el hallazgo no fue corroborado hasta el año 1919 cuando Rutherford encontró trazas de núcleos de hidrógeno al bombardear con partículas alfa un gas de nitrógeno.

En el vídeo de abajo se puede ver como los rayos canales se producen por la ionización de las átomos de gas al chocar con los electrones que constituyen los rayos catódicos.

domingo, 17 de mayo de 2015

PROPIEDADES MAGNÉTICAS DE LOS SUPERCONDUCTORES


Los superconductores tiene la propiedad de expulsar un campo magnético externo aunque ello depende del rango de temperaturas en el que se encuentre. Esto se conoce como efecto Meissner y en ello se basa la levitación magnética.

En función de sus propiedades magnéticas los superconductores se dividen en dos tipos:
  • Superconductores de tipo I: normalmente consisten en metales puros como el cobre o el estaño y en función de la temperatura o expulsar o dejan entrar un campo magnético externo.
  • Superconductores de tipo II: normalmente constituidos por aleaciones de metales de transición añaden al caso anterior un rango de temperaturas en el que dejan entrar a una parte del campo magnético y expulsan al resto.

SUPERCONDUCTIVIDAD


La superconductividad es un fenómeno por el cual desaparece por completo la resistencia eléctrica de un material. Este fenómeno fue descubierto por primera vez en el año 1911 en el mercurio después de que Onnes consiguiera licuar Helio a 4 K en 1908 lo que abrió la puerta de la Física de Bajas Temperaturas al disponer de métodos de criogenia de tal grado.

En seguida se encontró que otros metales (cobre, estaño, plomo,...) satisfacían también esta propiedad, aunque todos ellos con un denominador común: solamente la cumplían por debajo de una temperatura crítica que es diferente para cada elemento.

Pero habría que esperar hasta el año 1957 para encontrar una explicación a este fenómeno en base a un nuevo marco que reemplazara la Teoría de Bandas como suporte en el que encontrar la explicación de la conductividad eléctrica. Lo que se conoce como el efecto BCS en honor a sus autores (Bardeem, Cooper y Shieffer) justificaría la aparición de la superconductividad cuando por debajo de la temperatura crítica se produce una transición de fase que afecta solamente a la estructura electrónica del material y que se explica en base a la aparición de lo que se conoce como pares de Cooper.

Un par de Cooper es un par de electrones que se acoplan de tal manera que sus espines son contrarios dando lugar a un momento angular total nulo y un momento lineal total también igual a cero. Parece se que la propagación de ondas de choque en el material conocidas como fonones hace que uno de los electrones de par atraiga a los iones positivos que tiene a su alrededor generándose una especie de onda que luego atrae al otro electrón y sucesivamente a otros iones positivos de tal manera, que se produce una especie de aclarado que facilita que las partículas cargadas se puedan desplazar aceleradas por la presencia de un campo eléctrico externo evitándose las colisiones con los átomos de la red.

La consecuencia es que si creamos una corriente eléctrica en una espira ésta quedaría circulando para siempre. Un experimento evidenció que la corriente circulaba durante dos años.

El reto de la superconductividad ha sido el de que el efecto se produzca a temperatura cada vez más elevadas. Esto se ha ido consiguiendo utilizando materiales compuestos, especialmente óxidos de metales como el YCBO (óxido de ytrio, bario y cobalto).

El problema es que para aleaciones más complejas con mayores temperaturas críticas (por encima de los 200 K en la actualidad) la teoría BCS deja de tener validez. Algunos autores proponen de que en ese dominio y para estos nuevos materiales la superconductividad se debe a una suerte de fenómeno resonante entre electrones que se repelen. Pero lo cierto es que no hay todavía una teoría que consiga explicar este fenómeno de forma totalmente satisfactoria en todos los casos en los que aparece aunque la investigación sigue abierto porque las oportunidades tecnológicas que ofrecería si se consiguiera reproducir a temperaturas ordinarias son muchas y hay importantes intereses económicos detrás.

lunes, 20 de abril de 2015

ENUNCIADOS DE LA SEGUNDA LEY

La Naturaleza intrínseca subyacente a la Segunda Ley es tan sutil que no ha sido posible ponerse de acuerdo para encontrar una única definición de la misma. En esta entrada facilitamos algunas de las definiciones más importantes y queda ya en manos del lector el combinarlas y abstraerse para sacar su propia conclusión, pueda o no ser expresada por palabras.
  • La entropía del Universo tiende a un máximo, por lo que no para de aumentar.
  • Si consideramos el Universo como un sistema aislado se producirán espontáneamente los procesos en los que la entropía aumente.
    • en una reacción química la entropía sí puede aumentar (porque se trata de un sistema abierto) y además lo que indica que ésta sea espontanea o no es el signo en el incremento de la energía libre de Giggs y no de la entropía como se verá más adelante).
  • Es fácil convertir completamente trabajo mecánico o energía interna de un sistema en calor, pero resulta imposible extraer calor o energía interna de un sistema y convertirlo completamente en trabajo mecánico sin otro cambio adicional (falta de simetría entre trabajo y calor).
  • Una transformación cíclica de un sistema que intercambia calor con una sola fuerte térmica no puede producir trabajo (enunciado de Lord Kelvin).
    • Es completamente imposible realizar una transformación cuyo único resultado final sea el de cambiar en trabajo el calor extraído de una fuente que se encuentra a la misma temperatura.
  • Ningún proceso espontáneo es posible cuyo único resultado sea el paso de calor de un recinto a una determinada temperatura a otro recinto de mayor temperatura (enunciado de Clausius).
    • No es posible para una máquina cíclica llevar continuamente calor de un cuerpo a otro que está a temperatura más alta, sin que al mismo tiempo se produzca otro efecto (de compensación).
  • Es imposible transferir calor (en forma natural) desde una región de temperatura más baja a una región de temperatura más alta.

jueves, 16 de abril de 2015

SEGUNDO PRINCIPIO DE LA TERMODINÁMICA


Esta es probablemente la Ley más importante de la Física aunque los físicos prefieran dedicarse al estudio de los cada vez más pequeño y lo cada vez más alejado como si prefirieran obviar la Realidad cotidiana evadiéndose con lo remoto e inalcanzable.

La segunda Ley es simple y es compleja. Surge del estudio concreto de la máquina de vapor pero acaba teniendo un rango de aplicación e interpretación que lo inunda todo.

El Segundo Principio de la Termodinámica es tan paradójico que ni siquiera hay un único enunciado del mismo, sino que hay varios enunciados y nadie se pone de acuerdo en cual es el más apropiado de todos.

Desde el punto de vista de los procesos termodinámicos en una máquina térmica como la máquina de vapor el segundo principio nos dice que hay una cantidad, llamada entropía, que se conserva a lo largo del ciclo siempre y cuando éste se produzca de forma reversible, o que aumenta si el ciclo sigue un proceso irreversible.

Clausius definió la entropía como S = Q/T, donde Q es el calor intercambiado durante un proceso dado y T la temperatura a la que éste se produjo, y llegó a las conclusiones expuestas en el enunciado anterior tras analizar el proceso reversible y otro irreversible en un ciclo de Carnot.

Sin embargo, a principios del siglo XX surge una nueva visión a partir del nacimiento de la Mecánica Cuántica, cuya aplicación a los sistemas con muchas partículas deriva en la Mecánica Estadística, de donde surge una nueva definición de la entropía, esta vez en base al universo microscópico de la materia. Esta nueva definición arroja un nuevo enfoque. La entropía da una medida del desorden interno de un sistema dado.

Por lo tanto, como en el Universo hay una combinación de procesos reversibles e irreversibles, la entropía del Universo está en constante aumento, evolucionando hacia un estado de máximo desorden.

La paradoja está en que la vida es justo la consecuencia de lo contrario: el orden. En esta paradoja no hay contradicción ya que una reacción química puede producirse con una disminución de entropía siempre y cuando la entropía del entorno aumente más, de forma que la entropía total del Universo haya aumentado.

viernes, 10 de abril de 2015

TEORÍA DE BANDAS


Los electrones tienen que saltar para pasar de la banda de valencia a la banda de conducción.

En los conductores (como los metales) la barrera que tienen que superar es tan pequeña (banda prohibida) que prácticamente con las oscilaciones térmicas debidas a la temperatura todos los electrones de la última banda de valencia pasan a la de conducción.

En los semiconductores la banda prohibida es más ancha por lo que se necesita un poco de ayuda externa para favorecer el salto y poblar la banda de conducción. Eso lo facilita el campo eléctrico externo creado por una pila o fuente de voltaje.

En los aislantes la banda prohibida es tan ancha que la conducción no es posible aunque siempre habrá unos pocos electrones que salten a la banda superior (a no ser que estuviéramos en la temperatura cero absoluto).

Para comprender el origen de la formación de bandas energéticas características de cada material hay que partir de los niveles energéticos discretos asociados a los electrones de un átomo aislado según la Mecánica Cuántica y ver como degeneran al ser combinados en un número del orden del número de Avogadro al constituirse en una red cristalina. Ver vídeo para más detalles.

jueves, 26 de marzo de 2015

ENTROPÍA

La entropía es una función monótona creciente de la energía interna. Cuando leí está frase por primera vez me estremecí. ¿Por qué es tan importante?



viernes, 27 de febrero de 2015

CALOR LATENTE DE VAPORIZACIÓN


El calor latente de vaporización (LV) es la cantidad de calor que hay que aportar a un líquido para que pase a estado gaseoso y puede ser calculado por la fórmula de Clapeyron-Clausius o medido experimentalmente como puede verse en este vídeo. Esencialmente depende de 4 magnitudes:
  • La temperatura
  • El volumen inicial del líquido
  • El volumen final del gas
  • La pendiente de la curva de vaporización (obtenida experimentalmente; ver vídeo) en el punto en el que se produzca la transición (técnicamente hablando la derivada de la presión respecto a la temperatura en ese punto), la cual dependerá de la sustancia considerada

miércoles, 25 de febrero de 2015

ECUACIÓN DE CLAPEYRON-CLAUSIUS.


La ecuación de Clapeyron-Clausius da cuenta del balance energético que se produce durante la transición de fase que implica un cambio de estado de líquido a vapor o viceversa.  Una de las variables que entre en juego en esta ecuación se deriva de la curva que indica los valores para los que se produce dicho cambio de fase en un diagrama P-T.

Durante el cambio de fase entre cualquiera de los tres estados posible (sólido, líquido y gaseoso) es importante subrayar que la temperatura se mantiene constante, ya que durante ese proceso todo el calor aportado o liberado se invierte en la rotura o reconstrucción de los enlaces químicos que subyacen a cada uno de estos estados.

La deducción de la fórmula de Clapeyron-Clausius se basa en el balance energético de un ciclo de Carnot para un recipiente que contiene una mezcla de gas y líquido y su atribución original hay que dársela al propio Carnot. Este es un proceso que todavía no se ha presentado en este blog en debido detalle e incorpora indirectamente el concepto de entropía para definir el trabajo realizado a lo largo de un ciclo completo de compresión y compresión cómo el calor aportado (en el vídeo: Q o C; en la imagen de abajo LV para referirse al calor de vaporización) multiplicado por el cociente entre el incremento de la temperatura y la propia temperatura.

Si observas el vídeo de arriba verás como se toman datos experimentales para obtener a partir de ellos el valor del calor de vaporización del metano. En particular, LV se calcula a partir de la pendiente de un gráfico que representa en el eje y el logaritmo de la temperatura y en el eje x la presión. En realidad se trata de una adaptación de la misma fórmula que se ha puesto arriba solamente que en su versión integral, tal y como puedes ver a continuación.
Verás que la expresión que se ha facilitado utiliza la temperatura ambiente y la presión atmosférica como valores de referencias para que coincida con el vídeo. Además en el vídeo el resultado se da en julios/mol. Esta forma de expresar el resultado es independiente de los volúmenes involucrados y puede se hallada de forma teórica expresándolos en función de la densidad, la masa atómica mA y el número de moles  n.
(densidad = masa /volumen; masa = masa atómica x nº moles) 

Lo bueno de la ecuación de Clapeyron-Clausius es que en realidad tiene validez para la transición entre cualquiera dos fases. En efecto, el procedimiento que se utiliza para deducirla no requiere que los estados inicial y final sean líquido y valor. Cualquier otros estados darían igual validez a la demostración empleada.

Lo único que puede cambiar es el signo positivo o negativo del calor de cambio de fase (sublimación, ebullición, fusión, ...) dependiendo de que el estado final ocupe más o menos volumen que el inicial y del signo de la pendiente de la curva de transformación P = P(T), el cual es siempre positiva entre líquido y gas pero puede variar entre sólido y líquido (además de ser muy abrupta en esta último caso dada la incompresibilidad de ambos).

sábado, 14 de febrero de 2015

domingo, 8 de febrero de 2015

LEY DE LOS ESTADOS CORRESPONDIENTES


De la ecuación de Van der Waals en coordenadas reducidas se puede inferir que si dos gases diferentes tiene la misma presión y el mismo volumen relativos entonces deberán tener también la misma temperatura relativa.

En ese caso podremos afirmar que ambos gases tienen estados correspondientes.

La Ley de los Estados Correspondientes se ha deducido a partir de la ecuación de Van der Waals en coordenadas reducidas pero su validez es extrapolable a cualquier ecuación que describa el comportamiento de un gas real haciendo uso de un máximo de tres parámetros (los cuáles siempre se podrán reemplazar por las tres coordenadas del punto crítico resolviendo un sistema de tres ecuaciones con tres incógnitas como se puede ver aquí y finalmente poner en función de coordenadas reducidas).

Tal cómo se puede leer en el vídeo, se pueden definir también dos estados equivalentes como aquéllos que se desvían igualmente de la idealidad.

sábado, 7 de febrero de 2015

ECUACIÓN DE VAN DER WAALS EN COORDENADAS REDUCIDAS


La ecuación de van der Waals depende de 3 parámetros (a, b y R) los cuáles son a menudo obtenidos a partir de las 3 coordenadas del punto crítico (Vc, Pc y Tc) distintas para cada gas.

Al transformar la ecuación sustityendo los parámetros por las coordenadas del punto crítico y dividir por Pc·Vc se puede hallar una nueva expresión que depende de las coordenadas reducidas (Pr, Vr y Tr).

viernes, 6 de febrero de 2015

ESTADOS DE AGREGACIÓN Y CAMBIOS DE FASE


Todo el mundo conoce por experiencia que cualquier sustancia dependiendo de las condiciones de presión y temperatura a las que está sometida puede presentarse en cualquiera de los tres estados de agregación existentes: sólido, líquido y gaseoso.

Hoy en día se conoce muy bien la estructura interna de la materia y se entiende que estos tres estados de agregación corresponden a diferentes topologías por lo que respecta a la forma en la que los diferentes constituyentes de la materia se enlazan. Lo normal es que un sólido se conforme en base a una estructura molecular cristalina que dependiendo de la sustancia cristalizará al rebasar diferentes valores de presión al alza y temperatura a la baja. Conforme aumenta la temperatura la sustancia se transformará pasando al estado líquido, en el que se rompen los enlaces estructurales de la red cristalina subyacente pero las moléculas siguen interactuando entre ellas por fuerzas más débiles. A temperaturas aún mayores la sustancia pasa al estado gaseoso en el que las moléculas ocupan todo el espacio disponible prácticamente sin interacciones (ciertas interacciones todavía subyacen en el dominio de los gases reales).

Las transformaciones particulares de un estado a otro reciben los siguientes nombre:
  • Fusión: conversión del sólido a líquido; solidificación: proceso inverso.
  • Ebullición o vaporización: conversión del líquido a vapor; licuación: proceso inverso.
  • Sublimación: conversión directa de sólido a vapor; condensación: proceso inverso.
Cualquiera de estas tres transformaciones es reversible; es decir, puede darse en el sentido opuesto.

En cualquiera de estas transiciones todo el calor cedido se invierte en la rotura o reconstrucción de los enlaces, por lo que la temperatura se mantiene constante.

En el gráfico de arriba se pueden ver la curvas prototípicas de las tres transformaciones en un diagrama de presión versus temperatura.

En esta curva llaman la atención dos puntos:
  • El punto triple: donde coexisten las tres fases.
  • El punto crítico: se corresponde al mismo punto que en las curvas conocidas como las isotermas de Andrews indica el valor máximo de la curva que une los puntos donde se inicia y finaliza la transición de vapor a líquido (licuación) o viceversa..
En esta curva se puede apreciar, por ejemplo, que podemos licuar un gas por compresión isoterma, por enfriamiento isobárico o una combinación de ambas. Pero cuando la temperatura ambiente está por encima de la temperatura crítica, no es posible licuar un gas salvo que previamente lo sometamos a un proceso de enfriamiento y posterior presurización.

sábado, 31 de enero de 2015

ECUACIONES DE LOS GASES REALES

Son muchos y variados los intentos por mejorar la ecuación de los gases ideales acorde a las representaciones gráficas obtenidas experimentalmente y ciertas consideraciones teóricas adicionales con la finalidad de obtener un mejor encaje. La más conocida de las ecuaciones de los gases reales es la ecuación de Van der Waals. Pero hay muchas más, a cuál más sofisticada. A modo ilustrativo vayan en esta entrada un listado de algunas de ellas sin necesidad de ahondar mucho más en los detalles.
  • La ecuación de ClausiusClausius se dio cuenta que la ecuación de Van der Waals no tenía en consideración que la presión interna (el término que acompaña a la presión en el primer multiplicando) debe depender de la temperatura (lo que él consideró como una dependencia inversamente proporcional). Además añade la constante c que depende del cada gas.
  • La ecuación de Berthelot: es exactemente igual a la de Clausius asumiendo que c = 0.
  • La ecuación de Dieterici: muestra gran concordancias con los resultados experimentales a bajas presiones (mejor incluso que la ecuación de Van der Waals) pero discordancia total a presiones elevadas, razón por la que se acabó abandonando. Tuvo en consideración los siguientes aspectos
    • La presión de las partículas de gas cerca de las paredes del recipiente es mayor que en el interior, y por lo tanto cerca de las paredes la concentración de partículas es menor
    • Se basó en consideraciones estadísticas para obtener su ecuación
    • Era capaz de explicar el cambio de fase líquido-vapor.
    • Precedía la existencia del punto crítico.


  • La ecuación de Beattie-Bridgeman: incorpora 5 constantes que deben ser obtenidas experimentalmente para cada gas y muestra buena concordancia con las curvas experimentalmente por encima del punto crítico
  • La ecuación de Redlich Kwong.
  • La ecuación del Virial.
  • La ecuación de Benedict-Webb-Rubin.
  • La ecuación de Peng-Robinson.
  • La ecuación de Soave.
  • ...
La lista podría ser interminable si fuésemos minuciosos. En realidad parece un tema no cerrado, pues incluso hasta finales del siglo XX han estado apaceciendo nuevas ecuaciones basadas en teorías cada vez más precisas pero más complejas para reescribir de forma todavía más exacta la ecuación de los gases reales.

jueves, 29 de enero de 2015

TRANSFORMACIONES ADIABÁTICAS


Los procesos adiabáticos son aquéllos en los que no hay intercambio de calor entre el sistema y el entorno (Q = 0). Aplicando esta condición al Primer Principio de la Termodinámica podemos hallar las expresiones correspondientes para un cambio diferencial de la energía interna y la entalpía. Dividiendo estas expresiones entre sí obtenemos una relación entre un valor constante que se denomina coeficiente adiabático y una expresión diferencial. Integrando esta ecuación obtenemos la ecuación de los procesos adiabáticos de un gas.

Luego se obtiene la expresión equivalente para un gas ideal en función de la temperatura y el volumen.


En el vídeo de arriba se aprecia como en los procesos adiabáticos la pendiente de la curva en el gráfico P-V es siempre mayor en valor absoluto a las isotermas.

lunes, 26 de enero de 2015

TRANSFORMACIONES TERMODINÁMICAS

A grandes rasgos podemos distinguir 4 tipos especiales de transformaciones termodinámicas:

  • Transformaciones isotérmicas: aquéllas que transcurren a temperatura constante.
  • Transformaciones isobáricas: aquéllas que transcurren a presión constante.
  • Transformaciones isócoras: aquéllas que transcurren a volumen constante.
  • Transformaciones adiabáticas: aquéllas que transcurren sin intercambio de calor.

sábado, 24 de enero de 2015

ENERGÍA INTERNA Y TEMPERATURA


En el año 1844 Joule realizó un experimento en el que dejaba que un gas se expandiera desde un recipiente dado (a la izquierda en ambas imágenes) hacia el vacío que se había generado en otro (a la derecha). 

Ambos recipientes estaban inmersos en agua y con un termómetro se comprobó que la temperatura no cambiaba durante el proceso.

La importancia del experimento radica en el hecho de que como el gas se expande contra una presión de oposición cero, el gas no realiza trabajo.

Si no se realiza trabajo ni hay intercambio de calor con el entorno (ya que no varía la temperatura) por el Primer Principio de la Termodinámica podemos concluir que la energía interna se mantiene constante.

Vemos así que la energía interna no cambia ni con la presión ni con el volumen con lo que podemos inferir que la energía interna solamente depende de la temperatura.

No en vano experimentos más recientes con termómetros más precisos han mostrado que la temperatura sí que cambia un poco, tanto más cuanto más se aleja el gas utilizado de comportarse como un gas ideal.

De todo ello se concluye que la energía interna de un gas ideal depende solamente de la temperatura.


JouleExpansion

viernes, 23 de enero de 2015

ESTADOS METAESTABLES Y REGLA DEL AREA IGUAL DE MAXWELL

MaxwellEqArea

La representación gráfica que puedes ver en esta entrada se corresponde con un caso específico de la ecuación de Van der Waals. Puede apreciarse como hay un tramo en el que la función es creciente: \scriptstyle \left({{\partial P'}/{\partial V'}}\right)_{T'}>0  . Si nos paramos a pensar un poco en seguida veremos que esto es un poco contradictorio, al menos aparentemente. Ya que en ese tramo la presión aumentaría al aumentar el volumen. Esta es la razón por la que James Clerk Maxwell sustituyó la isoterma entre a y c por una linea horizontal. Además, así conseguía que la gráfica se pareciera más a las isotermas de Andrews.

Sabemos precisamente por los estudios experimentales que realizó Andrews que lo que sucede entre los puntos a y c es una transición de la fase gaseosa a la líquida en la que ambos estado coexisten.

Para que en términos energéticos no hubiera ninguna descompensación Maxwell se aseguró de que el área encerrada por los puntos a-d-b fueran igual a la encerrada por b-e-c. Téngase en cuenta que el trabajo es igual a la presión por el volumen P·V y por lo tanto se estas dos áreas se compensan el trabajo total reemplazando la curva de a a c por una linea recta (discontinua) será el mismo.

No en vano hay dos tramos de la curva que va desde a a c que sí que pueden darse en ocasiones en la realidad:

  • De a a d (tramo azul): se da cuando tenemos un líquido sobrecalentado.
  • De e a c (tramo verde): se da cuando tenemos un vapor sobreenfriado.  

Cualquier estado cuyos valores se correspondan con puntos sobre los tramos a-d o e-c se denominan estados metaestables.