La temperatura es una de las magnitudes fundamentales del Sistema Internacional de Unidades (SI) y, además de ser una de las más medidas en la ciencia y la industria, está íntimamente conectada a la existencia humana, sin embargo los primeros intentos de comprenderla son relativamente recientes.
En este artículo se presenta la visión de la temperatura desde el punto de vista clásico así como su interpretación cuántica. También se introducen los conceptos de temperatura termodinámica, termómetro primario y su empleo para la determinación de la constante de Boltzmann en la nueva definición del kelvin, la unidad de medida de la temperatura en el SI.
Temperature is one of the basic units of the International System (SI) and, apart from the fact that is one of the magnitudes more measured in science and industry; it is intimately connected to the human being. However, the first attempts to understand it are relatively recent.
In this paper, the vision of the temperature from the classic point of view together with their quantum mechanics interpretation is presented. The concepts of thermodynamic temperature, primary thermometer and its use to determine the Boltzmann constant for the new definition of the kelvin, the temperature unit in the SI are also introduced.
1. El concepto de temperatura
Entre las siete magnitudes fundamentales del Sistema Internacional de unidades (SI), cuatro de ellas: masa, longitud, tiempo y temperatura, están tan íntimamente conectadas a la existencia humana que, a primera vista, sorprende que hasta el siglo XVIII no haya existido conocimiento alguno acerca de una de ellas. La gran dificultad asociada al concepto de temperatura se debe no sólo a que sea una magnitud intensiva (no depende de las dimensiones del sistema), sino a que es una magnitud intensiva que no está directamente relacionada con alguna magnitud extensiva que pueda percibirse fácilmente por los sentidos. Probablemente ahí estriba la dificultad en la comprensión de lo que es la temperatura.
La temperatura, a pesar de ser también percibida por los sentidos, como la masa o la longitud, lo es de una forma más esquiva. Sensaciones subjetivas pueden hacernos decir que este objeto está “más caliente”, o “más frío”, que aquel otro. Pero esta afirmación puede ser peligrosa si no se tiene cuidado. Por ejemplo si se tocan sucesivamente un pedazo de madera, un trozo de poliespán y una varilla de cobre, todos ellos a temperatura ambiente, la sensación térmica es completamente diferente.
Estrechamente ligado al concepto de temperatura y a menudo confundido con él, se encuentra el concepto de calor. Mientras que es algo de sentido común que algunas sustancias requieren más calor que otras para calentarse, no es obvio por qué sucede eso. De cualquier forma, con la suficiente perspicacia, el sentido común nos puede permitir realizar afirmaciones, realmente fundamentales, sobre el comportamiento térmico de la materia. Estas afirmaciones comprenden los principios de la termodinámica. La ley cero, llamada así por haber sido formulada tras la primera y la segunda, se refiere a lo que sucede a los cuerpos que están en contacto térmico. Esta ley es el pilar de la termometría:
“Si dos sistemas están, de forma separada, en equilibrio térmico con un tercero, entonces están en equilibrio térmico uno con el otro”.
Esta ley cero de la termodinámica, permite definir de un modo operacional la temperatura de un sistema sin hacer hipótesis sobre la estructura de la materia
Si se considera un sistema 1 como el que aparece en la figura 1a, caracterizado por las variables x1 y1, en equilibrio térmico con un sistema 2 en el estado x2 y2, experimentalmente, se pueden encontrar una serie de pares de valores x’1 y’1, x’’1 y’’1 … del sistema 1 en equilibrio con el estado x2 y2 del sistema 2, cuyo lugar geométrico sería una isoterma “a” (figura 1b). De la misma forma, existirán una infinidad de estados del sistema 2: x’2 y’2, x’’2 y’’2 … en equilibrio con un estado x1 y1, del sistema 1 que originarían una nueva isoterma “b”.
Según el principio cero, todos los estados que corresponden a la isoterma “a“ están en equilibrio térmico con los de la isoterma “b” y se denominan isotermas correspondientes. Ambas tienen una propiedad en común que asegura el equilibrio térmico entre ellas y caracteriza el estado de un sistema: la temperatura es la que condiciona si un sistema se encuentra en equilibrio térmico con otros.
La temperatura es, por tanto, un dato numérico que permite saber si un sistema está o no en equilibrio térmico con otros. Además, la condición necesaria y suficiente para que dos sistemas puedan estar en equilibrio térmico es la igualdad de su temperatura. Realmente, la temperatura es una magnitud potencial que gobierna el paso de calor [1].
1.1. La temperatura en la termodinámica clásica
La forma clásica de entender la temperatura se debe a la propuesta de William Thomson (Lord Kelvin) a mediados del siglo XIX [2].
Lord Kelvin se dio cuenta de que iguales adiciones de calor Q debían corresponder a iguales intervalos de temperatura, pero iguales aportaciones de calor a los cuerpos no daban como resultado iguales incrementos de temperatura debido a que cada sustancia tiene su propio calor específico (Q =m·ce·ΔT). Esto es un problema para la termometría ya que la medida de temperatura debería ser independiente de las propiedades de las sustancias.
Utilizó las teorías de Carnot, en concreto el ahora llamado segundo principio de la termodinámica, que demostraban cómo una máquina reversible (figura 2) funcionando entre dos focos es independiente de la sustancia de trabajo y depende exclusivamente de las temperaturas, inicial y final, entre las cuales se realiza el ciclo. De este principio, Thomson dedujo que los valores absolutos de esas dos temperaturas están en relación una a la otra en la proporción de los calores absorbido y desprendido por la máquina de Carnot:
Por tanto:
La relación (2) es válida en un ciclo de Carnot reversible y es independiente del trabajo realizado. La temperatura termodinámica tiene la propiedad de que cocientes de T quedan definidos en términos de las propiedades de máquinas reversibles de Carnot y sonindependientes de la sustancia utilizada. Esta definición debe completarse asignando un valor numérico concreto a un punto fijo de temperatura elegido de forma arbitraria.
1.2. Interpretación microscópica de la temperatura
En los epígrafes anteriores, se ha considerado la temperatura únicamente en términos de sistemas macroscópicos, sin tener en cuenta el comportamiento individual de las partículas microscópicas que forman esos sistemas.
Poco después del comienzo de la termodinámica clásica se desarrollaba paralelamente la teoría molecular de la materia, una de cuyas ramas es la teoría cinética de los gases. Muchos de los fenómenos macroscópicos sólo son explicables asumiendo que los tres estados de la materia, sólido, líquido y gas son discontinuos y están formados por partículas discretas: las moléculas, que están en constante y rápido movimiento. La termodinámica es una ciencia eminentemente experimental y todas sus consecuencias están deducidas sin hacer hipótesis sobre la estructura de la materia. En cambio, la teoría cinética está basada en un modelo molecular al cual aplica las leyes de la mecánica y esto le permite explicar las propiedades macroscópicas de la materia más allá de los alcances de la termodinámica pura.
Clausius, con objeto de poder explicar los calores específicos de los gases, hizo una modificación al modelo molecular según la cual, una molécula se comportaba como una esfera rígida elástica cuya única energía cinética es la de traslación. Una molécula poliatómica podría poseer también movimientos de rotación y de vibración que contribuyen a la energía interna del gas. La energía interna estaría, por tanto, constituida por energía cinética de traslación de las moléculas individuales, con términos de la forma m·vx2 / 2; energía cinética de rotación de las moléculas individuales I·wx2 / 2 y energía cinética de vibración de los átomos de una molécula k·x2 / 2. Cada uno de estos modos independientes de absorber la energía constituye un grado de libertad. Para grandes conjuntos de moléculas, todos estos términos tienen asociado el mismo valor medio de la energía, que depende sólo de la temperatura, lo cual significa que la energía interna es función exclusiva de la temperatura y se distribuye por igual en cada una de las formas independientes en que las moléculas pueden absorber energía. Esto constituye el principio de equipartición de la energía y fue establecido por Maxwell en su teoría matemática de la mecánica estadística:
Esta expresión, donde k es la constante de Boltzmann, corresponde a la energía cinética de traslación de una partícula; de ella se desprende que la temperatura es proporcional al promedio de energía cinética de las moléculas. Esta relación permite especular sobre si se debería considerar la temperatura como una magnitud básica o como magnitud derivada de la energía [3].
El principio de equipartición justifica el principio cero de la termodinámica, es decir, la tendencia de los sistemas en contacto a igualar su temperatura, ya que el resultado final de los choques moleculares es la distribución por igual de la energía cinética entre sus grados de libertad. Como todas las moléculas poseen tres grados de libertad de traslación, a cada una de ellas le corresponde en el equilibrio térmico una energía cinética de traslación igual a 3/2K·T.
Los trabajos de Maxwell y Boltzmann dieron un fuerte empujón al conocimiento de las magnitudes termodinámicas. Así, la temperatura se transformó en una cantidad posible de definir tanto en términos macroscópicos como calor o trabajo, como en términos de la distribución de energía entre las partículas de un sistema. Pero la teoría cinética de los gases tiene una gran limitación: sólo puede aplicarse a sistemas de partículas sin interacción, es decir, a los gases ideales o a gases reales en los límites de bajas densidades o altas temperaturas.
Gibbs generalizó más tarde esta teoría gracias a la mecánica estadística. El principal avance que introdujo fue mostrar cómo los valores promedio de las propiedades de un sistema como un todo, podían deducirse a partir de la distribución de probabilidad de esas propiedades en un momento dado, entre un gran número de sistemas idénticos arbitrarios. A este gran número de sistemas idénticos los llamó colectividad. Gibbs demostró que un sistema en un volumen cerrado y en equilibrio térmico podía representarse por la que llamó colectividad canónica, en la que la probabilidad P(E)·dE de encontrarlo con una energía entre E y E + dE viene dada por:
Donde Ω(E)·dE es el número de estados accesibles entre E y E + dE. El factor Ω(E) aumenta rápidamente en función de E mientras que disminuye, con una tasa de disminución θ. En la interpretación que la mecánica estadística hace de la termodinámica, el parámetro θ que caracteriza la distribución es directamente proporcional a la temperatura T en la forma θ = k·T.
1.3. La temperatura en la mecánica cuántica
La mecánica estadística fue el último dominio de la mecánica clásica. Gran número de fenómenos que quedaban aún sin explicar, lo fueron mediante la mecánica cuántica. Muchos de ellos sucedían a muy bajas temperaturas, muy cerca del cero absoluto, con energías asociadas también próximas a cero. Estos fenómenos tienen gran efecto en algunas propiedades macroscópicas como la superfluidez del helio.
El dominio de las bajas temperaturas está regido por dos tipos de estadística, la de Bose-Einstein y la de Fermi-Dirac, según el sistema esté compuesto por bosones (partículas con espín 0 como los fotones) o fermiones (partículas con espín ½ como los electrones). En esencia, los bosones no responden al principio de exclusión de Pauli, lo que significa que el número de partículas que pueden ocupar el mismo nivel de energía no está limitado por ninguna restricción. A bajas temperaturas, tienden a acumularse en el estado energético inferior, esta manifestación se conoce como condensación de Bose (lo que explica p.e. la superfluidez del helio). Por el contrario, los fermiones obedecen al principio de exclusión, según el cual, ningún nivel de energía puede ser ocupado por más de una partícula lo que impediría la condensación de Bose. Pero, en el caso de pares de fermiones con spín opuesto, a muy baja temperatura poseen gran afinidad y forma parejas (pares de Cooper), que se comportan de forma parecida a los bosones lo que les permite desplazarse sin resistencia en un metal produciendo el fenómeno de la superconductividad. En la figura 3, se puede observar gráficamente el comportamiento de estas dos estadísticas, frente a la clásica de Maxwell-Boltzmann. En este último caso, se puede observar cómo, para cualquier temperatura, siempre se cumple la relación θ = T. En las estadísticas de Bose y Fermi cuando T → 0 K, θ y T divergen.
1.4. La temperatura sin equilibrio termodinámico y la paradoja de las temperaturas negativas
Hasta el momento, en los puntos anteriores, la temperatura se ha definido únicamente para sistemas en, o muy próximos, al equilibrio térmico. Pero cuando los sistemas están lejos de él, el concepto de temperatura está poco claro. En el mundo real, por supuesto, no existen sistemas en “equilibrio térmico” y si los hubiese no habría forma de observarlos. Cuanto más se intenta realizar medidas precisas de la temperatura, ésta se vuelve más esquiva. Esto sucede ya por ser imprescindible perturbar el equilibrio para efectuar la medida, ya porque el mismo esfuerzo empleado en mantener el equilibrio impide la realización de medidas precisas.
El contacto térmico entre el termómetro y el sistema en el cual se desea medir la temperatura no tiene que ser físico necesariamente. Por ejemplo, el paso de radiación térmica de un sistema a otro es una buena forma de conseguirlo. Pero, buen contacto físico no implica buen contacto térmico, como sucede a muy altas temperaturas en plasmas: la distribución de energía entre los electrones es muy distinta de la de los iones, lo que lleva a afirmar que la “temperatura electrónica” difiere de la “temperatura iónica”.
En sistemas que no están en equilibrio es también posible hacer afirmaciones útiles acerca de la temperatura en pequeñas regiones del mismo. El tamaño de estas regiones en las que se puede decir que el equilibrio existe, dependerá de los límites dentro de los que se necesite especificar la temperatura. Se puede suponer una gran cantidad de fluido en un contenedor y que medidas preliminares con un termómetro muestran que la temperatura fluctúa y toma diferentes valores en distintas partes del fluido en un intervalo de, por ejemplo, diez grados. Si se desea especificar la temperatura de ese fluido no mejor que diez grados, se puede afirmar que existe equilibrio térmico. Pero, si se buscan resoluciones de décimas de grado, sería imposible hacerlo para todo el contenedor, aunque se podrían encontrar pequeñas regiones del fluido en las que aparentemente la cantidad medida permanece estable dentro de las décimas de grado. Bajo estas condiciones, podemos llamar a la cantidad medida temperatura, siempre que el volumen de la región en la que la cantidad medida permanece uniforme no sea del mismo orden que la del termómetro; ya que, en este caso, las indicaciones del termómetro serían una media de las temperaturas locales en la zona en la que se encontrara y no representarían condiciones de equilibrio térmico local. Tampoco se podría afirmar que la cantidad medida es temperatura del fluido si el tiempo de respuesta del termómetro es comparable al ritmo de variación de la temperatura local. En estos casos siempre es posible estimar la temperatura del fluido usando las indicaciones del termómetro si se tiene además conocimiento previo acerca del comportamiento térmico del termómetro, su contacto térmico con el medio en el que se desee medir la temperatura y el comportamiento térmico del mismo.
En principio, todas las temperaturas son positivas, ya que, el número de estados accesibles para las partículas aumenta con la temperatura. Este es el caso de una partícula libre y así, los fluidos y las redes cristalinas tendrían temperatura positiva. Sin embargo, existen algunos sistemas muy especiales en los que hay un límite máximo para el espectro de energías. Si las partículas en esos estados están en equilibrio térmico unas con otras y, al mismo tiempo están térmicamente aisladas de aquellos estados que no tienen límite para su energía, entonces pueden comportarse como si tuviesen temperaturas negativas. En ausencia de niveles de energía por encima de ese límite máximo, según crezca la energía interna, se alcanzará un estado en que todos los niveles estarán igualmente poblados. Según la mecánica estadística, esto sólo ocurriría en el caso en que T→∞. Si se sigue aumentando la energía del sistema, la población de los niveles altos será mayor que la de los niveles bajos (ver figura 4). La mecánica estadística sólo puede tratar un caso así suponiendo que disminuye la temperatura negativa en función del aumento de energía (esta suposición es básicamente inconsistente con la definición de temperatura en equilibrio macroscópico). Finalmente, cuando toda la energía se ha concentrado en el más alto nivel, la distribución es justo la inversa de la del cero absoluto (inversión de la población), luego se debe asignar al sistema la temperatura de -0.
Como las temperaturas negativas corresponderían a mayores energías que las positivas, si un sistema con temperatura negativa entra en contacto térmico con uno de temperatura positiva, el calor fluirá del sistema con temperatura negativa al de temperatura positiva. El intercambio de energía entre estos sistemas resultará siempre en un equilibrio a temperatura positiva. Es decir, la zona de temperaturas absolutas negativas no está por debajo del cero absoluto, sino por encima de las temperaturas positivas más elevadas que se puedan imaginar. En otras palabras, las temperaturas negativas no son “más frías” que el cero absoluto, sino “más calientes” que las temperaturas infinitas. La escala de temperaturas sería pues 0 K,… +300 K, … +∞ K, -∞ K,… -300 K, … -0K.
Las temperaturas +0 K y -0 K corresponden a estados físicos completamente diferentes, pues un sistema a +0 K está en su estado energético más bajo posible mientras que un sistema a -0 K está en el más elevado, donde no puede absorber más energía. Todo ello se debe, en realidad, a la definición establecida para la temperatura. Si se hubiera definido en la forma θ ∝ -1/T y no en la forma θ ∝T, la paradoja desaparece (ver figura 5). Es decir, si entendemos la temperatura como un intercambio entre energía y entropía significa que los sistemas con temperatura negativa disminuyen su entropía al aumentar su energía. De cualquier forma la mayoría de los sistemas no son así ya que, al aumentar su energía aumenta su entropía. Estos sistemas estarían “prohibidos” en la teoría clásica por lo que su comprensión sólo es posible mediante la teoría cuántica. Alguno de estos sistemas (como los láseres) tienen una cantidad de energía máxima que pueden mantener y según se van aproximando a ella, su entropía disminuye.
2. La Escala Termodinámica
La temperatura no puede medirse de la misma forma que otras magnitudes fundamentales, como la longitud por ejemplo. Una vez definido el tamaño de la unidad de temperatura, no puede ser etiquetado como “intervalo unidad” y usado para medir temperatura de la misma manera que el metro en las medidas de longitud. Es decir, no se puede usar un procedimiento aditivo mediante el cual el valor de temperatura se determine a partir de la cantidad de “intervalos unidad” que contenga. Los valores de temperatura sólo pueden ser determinados comparando dos temperaturas, una de las cuales es la referencia y observando, de acuerdo con el principio cero de la termodinámica, cuándo hay o no flujo de calor y en qué dirección. Para asignar un valor numérico a cada temperatura, se deben ordenar primero las temperaturas medidas, es decir, establecer una escala en la que el calor fluya siempre en la misma dirección y entonces asignar un signo al flujo, como ya ha sido comentado anteriormente. De acuerdo con esto, podemos decir que la temperatura es simplemente una cantidad ordenada.
Mediante este procedimiento, no se puede asignar un valor numérico a una diferencia de temperaturas. Tampoco se puede asegurar que un valor de temperatura T2 esté más cercano a T1 que otro T3, incluso si se decidiese tomar el intervalo [T1, T2] como unidad, ya que ni intervalos ni relaciones de temperatura pueden compararse mediante medidas de flujo de calor. En otras palabras, la métrica del espacio {T} de temperaturas absolutas debe ser suplida por otra magnitud física cuya relación analítica con la temperatura pueda ser establecida y cuya métrica sea conocida.
Para relacionar la temperatura con alguna otra magnitud física, es necesario definir constantes de normalización. Estas definiciones son necesarias para realizar las medidas de temperatura, pero dejan libertad de elección para el tamaño de la unidad y la posición del cero. Estos son los dos grados de libertad característicos de cualquier escala lineal, es decir, de una escala que posee la misma métrica que el espacio del que ésta se ha tomado para representar el instrumento de medida. Debido a que la temperatura se define en el espacio del calor (energía) es por lo que el punto más bajo de la escala de temperatura es el cero (al que puede aproximarse asintóticamente) y no menos infinito (ver apartado anterior).
El problema básico en la construcción de la escala termodinámica es encontrar ecuaciones teóricas de la física en las que intervenga la temperatura junto con otra magnitud mesurable y que pueda materializarse en un sistema real (termómetro) con la precisión requerida. Se llama termómetro primario o termodinámico, aquel cuyo comportamiento sigue una ley física. La tabla 1 presenta un resumen de los principales termómetros termodinámicos que se describen someramente en los párrafos siguientes.
2.1 El termómetro acústico
La velocidad de propagación del sonido en un gas, se puede deducir teóricamente de los principios de la termodinámica (ver tabla 1). Debido a su carácter intensivo, por lo que no depende de la cantidad de gas utilizado, esta magnitud presenta muchos atractivos para su utilización como variable termométrica y desde mediados del siglo XX viene utilizándose en la termometría absoluta.
La medida de la velocidad del sonido, se realiza siempre por métodos de interferometría acústica en una cavidad cerrada (figura 6), bien variando la frecuencia o bien las dimensiones de la cavidad hasta obtener una resonancia. En ambos casos se mide la longitud de onda de las ondas acústicas que se propagan en la cavidad. Las frecuencias de trabajo pueden ser acústicas o de ultrasonidos y en cada caso se presentan distintas interferencias que es preciso corregir. Las mayores fuentes de incertidumbre de este tipo de termómetros vienen de la necesidad de relacionar sus resultados con el punto triple del agua, de la extrapolación a presión nula y de la determinación del volumen del resonador.
2.2. El termómetro de constante dieléctrica y el termómetro del índice de refracción
El termómetro de constante dieléctrica es un método relativamente nuevo y muy prometedor como método primario (ver figura 7). Se basa en las relaciones entre la constante dieléctrica de un gas y la temperatura, que para un gas perfecto sigue la ecuación que aparece en la tabla 1. Por tanto dada la polarizabilidad, la medida de la constante dieléctrica es la base de éste método. Al igual que sucedía en la termometría acústica, la magnitud termométrica es una propiedad intensiva del gas e independiente de su cantidad, pero difieren en que aquí se requiere el conocimiento de la polarizabilidad molar, que no se puede deducir teóricamente. Recientemente y gracias a que la polarizabilidad del helio atómico se ha podido calcular con un alto grado de precisión mediante la mecánica cuántica, se está desarrollando un nuevo termómetro de gas de constante dieléctrica con el que, parece, pueden reducirse sensiblemente las incertidumbres con que se han estado manejando hasta el momento.
Muy relacionado con la termometría de la constante dieléctrica, está la del índice de refracción de los gases con unas dificultades aún mayores.
2.3. El termómetro de ruido
La temperatura de un objeto también puede determinarse observando fenómenos estadísticos cuánticos. El principio físico de la termometría de ruido es la agitación térmica de los electrones en una resistencia eléctrica: el ruido de Johnson. La temperatura se mide a partir de la fórmula de Nyquist (ver tabla 1) mediante la determinación del voltaje cuadrático medio (ruido) en una resistencia eléctrica a bajas frecuencias (ver figura 8). A altas y bajas temperaturas los problemas están bastante resueltos, en altas temperaturas se utilizan grandes señales de medida, menos sensibles a las perturbaciones y a bajas temperaturas se utilizan como detectores superconductores. En temperaturas en torno al punto triple del agua las limitaciones de los sistemas electrónicos de detección se están superando, mediante el uso de patrones de tensión basados en el efecto Josephson como generadores de ruido.
2.4. El termómetro de ensanchamiento Doppler
El termómetro primario basado en la espectroscopia láser ha sido propuesto muy recientemente. La técnica consiste en la medida del cambio de frecuencia (ensanchamiento doppler) de una onda electromagnética (láser) tras su paso por un medio (gaseoso), en equilibrio termodinámico, debido a la absorción atómica (ver figura 9). El valor de la temperatura se obtiene a partir del ancho de banda del perfil de absorción medido mediante un láser sintonizable. El mayor problema de este método viene de las dificultades en la separación entre líneas de absorción debido a la interacción de las partículas.
2.5. Termometría de radiación total y radiómetros de filtro
La temperatura de un objeto es un indicador de su energía interna y todo objeto, por el hecho de encontrarse a una temperatura, es un emisor de radiación electromagnética. La potencia emitida por los objetos está relacionada con la temperatura del mismo por la conocida ley de Stephan-Boltzmann (ver tabla 1). Esta ley física es el principio de funcionamiento de los termómetros de radiación total. Estos termómetros no son muy reproducibles, sin embargo, esta ley puede considerar como una consecuencia de la ley de Planck (ver tabla 1) que establece la relación entre la densidad de potencia en el interior de una cavidad cerrada en equilibrio térmico y la temperatura de esa cavidad. Por tanto, midiendo la radiancia a una determinada longitud de onda se puede determinar la temperatura termodinámica. Un termómetro basado en este principio de funcionamiento, radiómetro de filtro, es también un termómetro primario, pero en este caso sí es posible conseguir buenas reproducibilidades e incertidumbres de medida competitivas.
En su forma más simple, un radiómetro de filtro consiste en un detector óptico con un filtro para limitar la longitud de onda y un sistema de geometría definida (apertura) a través del cual se recoge la luz incidente, es decir, un radiómetro de filtro mide la potencia ótica de una fuente dentro de una banda espectral determinada para una geometría específica.
3. Las escalas prácticas de temperatura
Debido a la complejidad de uso de los termómetros primarios y a su poca reproducibilidad, (aunque sus medidas sean más “fundamentales”) se vienen definiendo desde 1927, y aproximadamente cada veinte años, escalas prácticas de temperatura. Estas escalas al haber sido consensuadas dentro del Comité Consultivo de Termometría (CCT) y adoptadas por el Comité Internacional de Pesas y Medidas (CIPM) llevan el sobrenombre de “escalas internacionales”. Sus características principales son:
- Mayor facilidad de realización y mantenimiento que la escala termodinámica.
- Mantenerse tan próximas a las temperaturas termodinámicas como fuese posible en el momento de su publicación.
- Mantener una reproducibilidad superior a la incertidumbre de la realización de la escala termodinámica correspondiente.
- Aumentar el campo de definición según las necesidades tecnológicas del momento.
En la actualidad hay dos escalas vigentes, la Escala Internacional de Temperatura de 1990 (EIT-90) y la Escala Práctica de Bajas Temperaturas del 2000 (EPBT-2000). La EIT-90 entró en vigor el 1 de enero de 1990 y es la quinta adoptada por el CIPM, se extiende desde 0,65 K hasta la temperatura más elevada que sea posible medir a partir de la ley de Planck para una radiación monocromática. La EPTB-2000 por su lado cubre el rango de 0,9 mK hasta 1 K.
4. La unidad de medida de la temperatura y su nueva definición
La unidad de temperatura T se define en la actualidad como la fracción asignando el valor 1/273,16 de la temperatura termodinámica del punto triple del agua, es decir, por definición, la temperatura termodinámica del punto triple del agua tiene un valor de 273,16 K o, lo que es equivalente 0,01 ºC [4].
Esta definición basada en las propiedades de una sustancia particular y cuya realización práctica depende de su pureza e incluso de su composición isotópica perjudica su reproducibilidad en el espacio y el tiempo. Por ello, en la recomendación del CIPM de 2005 [5] el kelvin fue una de las unidades para las que se recomendó modificar su definición de forma que pudiera basarse en una constante fundamental en vez de en un “cuasi-artefacto” y fuese independiente de valores concretos de temperatura o métodos de medida.
Como hemos visto en los anteriores apartados, la temperatura aparece en todas las leyes físicas acompañada de la constante de Boltzmann en la forma kT como “energía térmica”, dicha constante aparece, por tanto, “naturalmente” ligada a la temperatura. La constante de Boltzmann es, en otras palabras, el factor de conversión entre dos unidades derivadas: el julio y el newton·metro, unidades correspondientes a las magnitudes energía térmica y mecánica. En esencia ambas unidades (J y N·m) representan la misma magnitud en el SI (energia) por lo que deberían ser idénticas pero, debido a que en la actualidad el kelvin se define de forma independiente al del resto de las unidades básicas, hay ciertas diferencias causadas por las distintas fuentes de error a las que se ven sometidos los termómetros. Los únicos termómetros capaces de establecer directamente esta relación son los llamados termómetros primarios o termodinámicos ya descritos anteriormente. En estos termómetros la relación entre el mensurando y la temperatura termodinámica se conoce explícitamente de forma que no dependa de otras constantes que sean función de la temperatura y que además pueda calcularse con la suficiente incertidumbre de medida. Otra peculiaridad de la constante de Boltzmann es el hecho de que no está relacionada con otras constantes fundamentales, salvo con su equivalente macroscópica, la constante universal de los gases ideales R=k·NA, siendo NA el número de Avogadro.
El CCT en su reunión de 2010 elevó una recomendación al CIPM [6] para no modificar la presente definición del kelvin sin antes haber alcanzado la determinación de la constante de Boltzmann con una incertidumbre relativa de 1×10-6 por al menos dos métodos totalmente independientes y corroborada por algún otro. Los únicos termómetros primarios capaces de conseguir la incertidumbre necesaria son el acústico y el de constante dieléctrica.
Desde la recomendación de 2005 del CIPM, diversos institutos nacionales de metrología han puesto en marcha diversos experimentos para poder determinar la constante de Boltzmann con la exactitud requerida. En Europa, dentro del programa Europeo de Investigación en Metrología (EMRP en sus siglas en inglés), se ha financiado un proyecto con ese objetivo. En este proyecto han participado los institutos nacionales de Alemania (PTB), Reino Unido (NPL), Francia (LNE-CNAM), Italia (INRiM) y Dinamarca (DFM). El Centro Español de Metrología también ha participado colaborando con la Universidad de Valladolid en el desarrollo de un termómetro acústico basado en un resonador esférico.
La figura 10 muestra las diferentes determinaciones más significativas realizadas en las últimas décadas. El valor adoptado por CODATA en 2006 estaba basado en una única medida realizada en el año 1988 por el NIST utilizando un resonador esférico. El resultado adoptado en 2010 está dominado por las últimas determinaciones realizadas en termómetros acústicos lo que ha modificado visiblemente su valor previo. Sin embargo aún no se han alcanzado los requerimientos del CCT ya que ningún otro método ha alcanzado aún la incertidumbre requerida. Se espera que en próximas fechas se publiquen nuevas medidas del PTB realizadas con su termómetro de constante dieléctrica en el que se alcance una incertidumbre relativa de 2 × 10-6 lo que sería considerado suficiente para proceder a fijar el valor de la constante de Boltzmann y definir un nuevo kelvin.
Las consecuencias, a efectos prácticos, de esta nueva definición serán inapreciables al nivel de “usuario” de medidas de temperatura ya que cualquier impacto significativo acarrearía costes que podrían llegar a ser inasumibles.
Para conseguir esto, el CCT estableció en 2006 la “mise-en-pratique”(o puesta en práctica del kelvin (MeP-K) [7] que constituye una guía para la realización práctica de la realización de la unidad de temperatura de acuerdo con el SI. La MeP-K es un instrumento abierto y flexible que permite la inclusión de nuevos métodos de medida reconocidos más allá de los actualmente en uso. Esta MeP-K por el momento sólo está formada por la EIT-90, la EPBT-2000 y las diferencias entre estas escalas y la temperatura termodinámica. Pero en un futuro próximo podrá incluir también métodos primarios para la realización e incluso diseminación del kelvin (sobre todo en la zona criogénica y de muy alta temperatura) e incluso aproximaciones indirectas con las que se puedan obtener incertidumbres excepcionalmente bajas o medidas más fiables con lo que se conseguirá una gran flexibilidad en las medidas de temperatura.
De cualquier forma, la EIT-90 en la zona intermedia de temperaturas (entre -189 ºC y 962 ºC) seguirá siendo el medio más empleado para diseminar el kelvin, por su robustez y fiabilidad ya que no hay, por el momento, ningún termómetro termodinámico capaz de suplantarla. Sin embargo, el punto triple del agua, y el resto de puntos fijos, ya no tendrán, por definición un valor “exacto” de temperatura tras fijar el valor de la constante de Boltzmann. Una incertidumbre relativa de 1 x 10-6 en su determinación significará una incertidumbre de 0,27 mK en la temperatura del punto triple del agua.
5. Conclusión
A pesar de que los conceptos de frío y calor son algunos de los que primero comprende el ser humano, la interpretación científica de la magnitud temperatura es bastante reciente. En este artículo se han plasmado, de forma muy somera, diferentes visiones de esta magnitud básica del SI. Asimismo se han presentado los principios de funcionamiento de los principales termómetros primarios y su uso para la determinación de la constante de Boltzmann para la nueva definición del kelvin.
Bibliografía
- [1] Aguilar Peris J. Curso de Termodinámica, Ed. Alhambra Universidad, 1984
- [2] Erlichson H., Kelvin and the absolute temperature scale, European Journal of Physics, 2001, vol. 22 , 325-328
- [3] de Boer J., Temperature as a Basic Physical Quantity, Metrologia, 1965, vol. 1, nº 4, 158-169
- [4] Sistema Internacional de Unidades SI, 8ª edición 2006 (español)
- [5] Recommendation 1 (CI-2005) of the CIPM.
- [6] http://www.bipm.org/utils/common/pdf/CCT25.pdf
- [7] http://www.bipm.org/en/publications/mep_kelvin/
Comentarios