ESTE BLOG SE MANEJA COMO UN LIBRO. SI VAS AL INDICE ENCONTRARAS TODOS LOS TEMAS ORDENADOS POR MATERIAS. MUCHAS GRACIAS.

DIODO - Principio de funcionamiento y distribución de corriente

 El dispositivo más simple empleado en electrónica es el diodo. En efecto es una simple juntura pn, es decir que se trata de un componente de dos terminales siendo el denominado ánodo (A) el que corresponde a la región p y cátodo (K) a la región n. En la Fig. 1 se ilustra el símbolo que se emplea en los diagramas electrónicos para representar un diodo. Existen varios tipos de diodos, de los cuales se explicarán sólo cuatro. En primer lugar se verá el diodo común, que se emplea en circuitos rectificadores, pasando luego al diodo Zener, que se usa como referencia de tensión y finalmente se verá el diodo emisor de luz o LED y el fotodiodo.


La juntura pn fuera de equilibrio


Se puede romper el equilibrio de una juntura pn ( diodo ) mediante la aplicación de un potencial externo como se ilustra en la Fig. 2. Para lograr esto es preciso colocar los contactos necesarios en las regiones p y n mediante una deposición de aluminio sobre los extremos del semiconductor a fin de tener acceso eléctrico sobre los terminales. De esta manera se han formado dos nuevas junturas, una aluminio-semiconductor tipo p y la otra aluminio-semiconductor tipo n. Estas nuevas junturas se realizan de forma tal que su comportamiento no afecte al de la juntura pn, en concreto, deben conducir la corriente eléctrica con la misma facilidad en ambos sentidos y la caída de tensión en ella debe ser prácticamente de 0V.
En la Fig. 2 además se pueden observar las distintas zonas de interés: la región de carga espacial, las neutras y los contactos. También se puede apreciar la fuente de tensión externa de valor V.
 Solamente existe campo eléctrico y cargas desbalanceadas en la región de carga espacial. En tanto que en las zona neutras no existen cargas sin neutralizar y se supone además que las corrientes eléctricas que circulan por esta región no producen caída de tensión.
En la Fig. 3 se ilustra en primer término el caso de la juntura sin polarizar, es decir con la aplicación de una diferencia de potencial de 0V entre los terminales del diodo. La corriente total que circula debe ser nula puesto que no existe fuente de energía alguna, y además se puede demostrar, como se debe cumplir la segunda ley de Kirchhoff, que la caída de tensión en la juntura es igual pero de sentido opuesto a la suma de las caídas de tensión en las junturas metal-semiconductor.
 Si bien la corriente total es cero hay electrones y huecos moviéndose de un lado al otro. Por ejemplo, en el caso de los electrones, se desplazan de derecha a izquierda aquellos que tienen la energía suficiente para vencer el campo eléctrico adverso. En tanto que los electrones, portadores minoritarios en la región p, que se acerquen a la zona de carga espacial pasarán libremente hacia la derecha pues el sentido del campo eléctrico los ayuda en este movimiento. Con los huecos se sigue este mismo razonamiento. Finalmente se puede afirmar, por el principio del equilibrio detallado, que J1 = J2 y que J3 = J4


En la parte b de la Fig. 3 el diodo se polariza en directa, es decir el potencial más alto de la fuente de alimentación se conecta con la región p o ánodo y el terminal negativo con la región n o cátodo. Toda la tensión externa aplicada cae sobre la juntura, de esta manera la diferencia de potencial se ve reducida al valor 0 – V. Como consecuencia el campo eléctrico en la zona de carga espacial se reduce y para los electrones de la región n es más fácil ahora llegar a la región p. Es más, las corriente J2 y J3 pueden ser ahora de un valor considerable, tanto mayor cuanto mayor sea el valor de V. Las corrientes J1 y J4 prácticamente no se modifican pues dependen de la existencia de portadores minoritarios en ambas regiones.

Finalmente si el diodo se polariza en inversa, el potencial más positivo de la fuente a cátodo y el más negativo al ánodo, la caída de tensión en la juntura se ve reforzada, pasando a valer 0 + V. Esto significa que la barrera de potencial que tienen que vencer los portadores mayoritarios es muy grande, tal es así que J2  0 y J3  0. Sin embargo los portadores minoritarios seguirán circulando puesto que siempre se ven arrastrados por el campo eléctrico, existirá entonces una corriente debida a J1 y a J4, sin embargo su valor es ínfimo.

 Como conclusión se puede decir que el diodo es un dispositivo que permitirá fácilmente la circulación de corriente si se lo polariza en directa, en tanto que la bloqueará si se polariza en inversa. A la corriente que circula cuando el diodo está polarizado en inversa se la denomina corriente inversa de saturación, es del orden de los microamperes, y puesto que es debida a los portadores minoritarios depende fuertemente de la temperatura. La corriente que circula cuando el diodo se polariza en directa es del orden de los miliamperes y aún de los amperes cuando se trata de dispositivos de potencia.

Distribución de las corrientes con polarización directa

Del análisis anterior surge que la corriente eléctrica es debida a los dos tipos de portadores, huecos y electrones, que cruzan la juntura en sentidos opuestos. La corriente total, por tratarse de un circuito serie, es la misma en cualquier plano transversal del diodo, en particular en la juntura metalúrgica tendrá el valor:

I = A[( J2 + J3 ) – ( J1 + J4 )] = A[( J2 – J1 ) + ( J3 - J4 )]

puesto que se supone que en la zona de carga espacial no se produce recombinación alguna. Donde J2 – J1 es la densidad de corriente de electrones y J3 - J4 la de huecos.

 Si se analiza, por ejemplo, ( ver Fig. 4 ) el caso de los huecos que viene de la región p hacia la n, se ve que atraviesan la juntura puesto que tienen la energía suficiente como para vencer el campo eléctrico adverso. Ni bien llegan a la región n se mueven por difusión, más aún, como allí son portadores minoritarios y rápidamente se recombinan.

Se debe recordar, por ejemplo en la zona p, que un hueco que se desplaza de izquierda a derecha es en realidad un electrón que se mueve en la banda de valencia, en decir de átomo en átomo, de derecha a izquierda. Este electrón llega al contacto aluminio semiconductor y se mueve por el cable, ahora ya fuera del diodo, hacia el terminal positivo de la fuente. Con los electrones, cambiando lo que hay que cambiar, el razonamiento es idéntico. Se puede demostrar que la ecuación que rige el comportamiento del diodo es

donde k es la constante de Boltzman, q la carga del electrón, T la temperatura en grados Kelvin, V la tensión externa aplicada, IS la corriente inversa de saturación e I la corriente que circula por el diodo.

En la Ec. 1 si V se hace negativa, polarización inversa, y su valor es mucho mayor que kT/q se reduce a: I = IS

es decir la corriente circula de cátodo a ánodo y es por ello que recibe el nombre de corriente inversa. A temperatura la relación kT/q tiene un valor de 26mV

Por otro lado si el diodo se polariza en directa, V positiva, el -1 de la Ec. 1 se puede despreciar y esta ecuación queda reducido a una simple exponencial. En la Fig. 5 se ilustra el comportamiento del diodo, es decir, corriente que lo circula en función de la tensión aplicada. Es importante notar que las escalas son diferentes para las ordenadas positivas y las negativas, en un caso se trata de miliamperes y en el otro de microamperes.

Una característica interesante es la aparición de una tensión umbral V por debajo de la cual la corriente es muy pequeña, por ejemplo 1% del valor permitido para el funcionamiento del diodo, para valores superiores a V la corriente crece rápidamente. En la Fig. 6 se muestra la diferencia de las características entre un diodo de germanio y otro de silicio. Puede apreciarse que V es de 0,2V para el Ge y de 0,6V para el Si. Además se puede demostrar que dependen de la temperatura, en efecto la variación dV/dT es de -2,1mV/ºC para el Ge y –2,3mV/ ºC para el Si

Volviendo a la Fig. 5 se puede ver que para polarización en inversa del diodo la corriente permanece constante, e igual a IS, hasta que llega a un valor denominado VBR o tensión de ruptura, en la cual crece rápidamente. En este punto se produce el efecto Zener o avalancha, del cual se hablará más adelante. 

Finalmente se puede decir que un diodo ideal sería aquel que en directa conduce corriente sin caída de tensión sobre él y que en inversa la bloquea totalmente es decir se comportaría como un interruptor ideal.













Diagrama de fases . Metalurgia Fisica


Para poder analizar la evolución de la microestructura, durante el enfriamiento o calentamiento, de una aleación metálica es necesario disponer del “diagrama de fases” de dicha aleación y saber interpretarlo. 


El diagrama de fases de una aleación es una representación gráfica del estado de dicha aleación. Las variables que se consideran en estos diagramas son la composición de la aleación y la temperatura. En cambio, la presión se considera constante y tiene el valor de la presión atmosférica. El diagrama de fases muestra los estados “estables”, es decir los estados en los que la aleación, a una dada composición y temperatura, se encuentra en equilibrio termodinámico. Por esta razón, el diagrama de fases también puede denominarse “diagrama de equilibrio”, ya que indica las fases en equilibrio que existen para una temperatura y composición dadas. El correcto manejo del diagrama de fases nos permitirá conocer, para una temperatura y composición dadas, el número de fases presentes, las cantidades relativas de esas fases y la composición de esas fases. De esta manera, se podrá analizar la evolución de la microestructura durante enfriamientos o calentamientos lentos (para permitir que el sistema alcance las condiciones de equilibrio), y se podrá predecir la microestructura de equilibrio que se presenta a una temperatura dada para un material de una composición determinada.
 

Es importante definir los términos, que se utilizan en el estudio de los diagramas de fase, para evitar confusiones. Los componentes de un diagrama de fases son los elementos químicos o compuestos químicos que forman la aleación analizada. Por ejemplo, la aleación Cu-Ni se refiere a la aleación formada por el elemento químico Cobre (Cu) y por el elemento químico Níquel (Ni) y los componentes son el Cobre y el Níquel; para el caso de la aleación Fe-FeC3, se refiere a la aleación formada por el elemento químico Hierro (Fe) y el compuesto químico Cementita (FeC3 ), que presenta una estructura cristalina diferente a los elementos Hierro (Fe) y Carbono C) que lo integran. Se llama fase a la región homogénea de un sistema, que presentan diferente composición o estructura y está separada físicamente de las demás fases del sistema. Las variables de estado son la composición de la aleación y la temperatura. La presión, generalmente, se considera constante y tiene el valor de la presión atmosférica. Las soluciones sólidas son mezclas homogéneas de un componente mayoritario, que se encuentra en mayor proporción en la mezcla, denominado “solvente”, y de un componente minoritario, que se encuentra en menor proporción en la mezcla, denominado “soluto”. Si los átomos del soluto son lo suficientemente pequeños como para “entrar” en los huecos o intersticios que presenta la red cristalina del soluto, se forma una solución intersticial. En cambio en las soluciones sólidas sustitucionales, se sustituyen átomos de solvente por átomos de soluto. Para que esto ocurra se deben cumplir ciertas reglas, denominadas reglas de solubilidad o de Hume-Rothery, las cuales indican que ambos átomos deben presentar igual electronegatividad y valencia química para que no formen compuestos químicos, además deben presentar igual estructura cristalina y la diferencia de tamaños de los átomos debe ser inferior al 15% .


El diagrama de fases muestra los estados “estables”, es decir los estados en los que la aleación se encuentra en equilibrio termodinámico. Por esta razón, para analizar las transformaciones de fase se utiliza el parámetro termodinámico Energía libre de Gibbs (G). G= H-TS, donde H es Entalpía, T es Temperatura y S es Entropía. Por otra parte, H=E+PV, donde E es Energía interna, P es Presión y V es Volumen. Como se estudiarán fases condensadas a presión atmosférica no se presentarán cambios de presión ni cambios significativos de volumen, por esta razón se desprecia el término PV. La energía interna tiene la contribución de la energía cinética y energía potencial de los átomos. La energía cinética está relacionada con la energía de traslación y rotación de los átomos en estado líquido y con la energía de vibración de los átomos en estado sólido. La energía potencial está relacionada con las interacciones y enlaces entre los átomos, como vimos en la primer clase de la asignatura. Termodinámicamente se establece que los sistemas evolucionan hacia el estado mas estable o de mínima energía, cumpliendo la condición de ΔG <0. ΔG es la diferencia de energía libre de Gibbs entre el estado 2 y el estado 1 del sistema. El sistema pasará del estado 1 al estado 2 si la energía libre del estado 2 (G2) es menor que la energía libre del estado1 (G1), o si se cumple que G2-G1 es menor que cero, y por lo tanto, si ΔG <0.



Para el caso que el sistema esté formado por un solo componente, la energía libre de Gibbs será función sólo de la temperatura si la presión permanece constante. Recordemos que el sistema evoluciona hacia el estado mas estable o de mínima energía, cumpliendo la condición de ΔG <0. A bajas temperaturas domina el término entálpico en la ecuación G=H-TS. Como la Entalpía del sólido es siempre menor que la Entalpía del líquido (como se puede ver en la Figura), entonces la Energía libre de Gibbs del sólido será menor que la Energía libre de Gibbs del líquido, y por lo tanto a bajas temperaturas la fase sólido es estable. A altas temperaturas domina el término entrópico en la ecuación G=H-TS. Como la Entropía del líquido es siempre mayor que la Entropía del sólido, entonces la Energía libre de Gibbs del sólido será menor que la Energía libre de Gibbs del líquido, y por lo tanto a altas temperaturas la fase líquido es estable. Como se observa en la Figura, la Energía libre de Gibbs (G) siempre disminuye con la temperatura, y lo hace con una pendiente proporcional al valor de entropía. Por esta razón, la pendiente de disminución de la curva de Energía libre de Gibbs del líquido con la temperatura es mayor que la del sólido. Como se observa en la Figura, a la temperatura de solidificación la Energía libre de Gibbs del sólido y del líquido son iguales y por lo tanto existe equilibrio sólido-líquido. Si se desea que el sistema evolucione hacia la solidificación, se deberá apartarlo de la condición de equilibrio mediante un subenfriamiento (ΔT), que está relacionado con una diferencia entre los valores de Energía libre de Gibbs del sólido y del líquido menor que cero (GL -GS<0), obteniéndose entonces una fuerza impulsora para la transformación de líquido a sólido.
 

Vimos que en sistemas de un componente la energía libre de Gibbs depende sólo de la temperatura. Pero en aleaciones de dos o mas componentes la energía libre de Gibbs depende de la temperatura y de la composición de la aleación. Una de las formas de expresar la composición es mediante fracciones molares de los componentes. Por ejemplo, la fracción molar del componente A se expresa como: el número de moles del componente A dividido por el número de moles de la mezcla. Recordar que 1 mol contiene al número de Avogrado, 6.023 x 1023 , de átomos. Para el caso de soluciones binarias, o de dos componentes A y B, la fracción molar de A es: moles A/moles de A + moles de B, y la fracción molar de B es: moles B/moles de A + moles de B, y la suma de las fracciones molares de A + B es igual a 1. La energía libre de Gibbs de una solución binaria formada por átomos de A y átomos de B (G2) puede calcularse a partir de las energías libres de los componentes puros A y B de la siguiente manera: Se asume que A y B tienen la misma estructura cristalina y que pueden mezclarse en cualquier proporción para formar una solución sólida con la misma estructura cristalina que los componentes puros. Para formar un mol de solución sólida se deberán mezclar XA moles de A y XB moles de B. Se considera que la mezcla puede realizarse en dos etapas 1. Juntar XA moles de A y XB moles de B 2. Permitir que los átomos de A y B se mezclen homogéneamente para formar una solución sólida Cuando se cumple el paso 1 la energía del sistema está dada por G1, según la siguiente expresión: G1= GAXA + GBXB, donde GA y GB son las energías libres de los componentes puros a la temperatura y presión a las que se realiza la experiencia. G1 puede ser representada gráficamente en función de XB o XA, y, como se muestra en la Figura, para todas las composiciones G1 se encuentra sobre la línea recta entre GA y GB. La energía libre del sistema luego del paso 2 (G2), cuando los átomos de A y B se mezclan para formar una solución sólida,se puede expresar como: G2= G1 + ΔGmezcla Donde ΔGmezcla = ΔHmezcla – TΔSmezcla ΔHmezcla es el calor entregado o absorbido durante la etapa 2. Si se desprecian los cambios de volumen durante el proceso, ΔHmezcla representa sólo los cambios de energía interna antes y después de la mezcla. ΔSmezcla es la diferencia de entropía entre los estados mezclado y sin mezclar. El caso mas simple, es cuando ΔHmezcla =0. Se dice que la solución es ideal y el cambio de energía libre de mezcla depende sólo del cambio de entropía: ΔGmezcla = -TΔSmezcla
 

Para el caso de solucionesideales ΔHmezcla =0, y por lo tanto ΔGmezcla = -TΔSmezcla. A partir de un desarrollo termodinámico, que no se indica aquí (y que el estudiante interesado puede ver en el Capítulo 1 del libro Phase Transformations in Metals and Alloys de los autores Porter y Easterling listado en la bibliografía de la asignatura), se llega a una expresión para Δsmezcla en función de la composición de la solución, donde ΔSmezcla= -R(XA lnXA + XB lnXB ) y como ΔGmezcla = - TΔSmezcla , se obtiene una expresión para ΔGmezcla en función de la temperatura y la composición: ΔGmezcla= RT(XA lnXA + XB lnXB ) (Ecuación 1) En la Figura superior se grafica ΔGmezcla en función de la composición para dos temperaturas. Se puede observar que a medida que aumenta la temperatura las curvas de ΔGmezcla incrementan su curvatura. Por otra parte, la energía libre molar de la solución, G, que es igual a la energía al final de la mezcla y que denominamos G2, depende de la energía antes de la mezcla, G1, y de ΔGmezcla, para el cual encontramos una expresión en función de la temperatura y la composición de acuerdo a la Ecuación 1. Así se llega a una expresión para G o G2 de la siguiente forma: G= GAXA + GBXB + RT(XA lnXA + XB lnXB En la Figura inferior se grafica G en función de la composición para dos temperaturas. Se puede observar que a medida que aumenta la temperatura los valores de GA y GB, correspondientes a los valores de energía libre de los componentes puros, disminuyen y las curvas de G incrementan su curvatura. La disminución de los valores de GA y GB con la temperatura es debido a que, como ya vimos en la diapositiva 5, la Energía libre de Gibbs de un componente puro siempre disminuye con la temperatura, y lo hace con una pendiente proporcional al valor de entropía.


El potencial químico es otro parámetro termodinámico útil para evaluar cómo varía la energía libre de una fase cuando se agregan o retiran átomos de la solución, y está definido como la constante de proporcionalidad entre la variación diferencial de energía libre de la solución y la variación diferencial de la cantidad de átomos de un componente, permaneciendo constantes la temperatura, la presión y la cantidad de átomos de los otros componente. Para una solución de dos componentes se encuentra que la energía libre molar de la solución, G, que es igual a la energía al final de la mezcla y que denominamos G2, también puede expresarse en función de los potenciales químicos de los componentes según la siguiente expresión: G = µAXA + µBXB (el estudiante interesado en este desarrollo, puede verlo en el Capítulo 1 del libro Phase Transformations in Metals and Alloys de los autores Porter y Easterling listado en la bibliografía de la asignatura)


Por lo tanto, se han encontrado dos expresiones para la energia libre de la solución, una en función de la composición y de los potenciales químicos de los componentes (G = µAXA + µBXB ) y otra en función de la composición y de la energía libre de los componentes puros (G = GAXA + GBXB + RT(XA lnXA + XB lnXB )) Igualando estas dos expresiones para la energía libre de la solución (G), se llega a que el potencial químico del componente A (µA ) es igual a GA+RTlnXA, y que el potencial químico del componente B (µB ) es igual a GB+RTlnXB . En la Figura se puede observar que si se conoce el valor de G para una composición dada, se pueden obtener los potenciales químicos de los componentes mediante una extrapolación de la recta tangente a la curva G en el valor de composición dado



Realizaremos el mismo análisis que hicimos para soluciones ideales, pero para el caso de soluciones no ideales. Es decir cuando el ΔHmezcla ≠0. Esto implica que cuando se produce la mezcla de los componentes habrá liberación de calor, mediante un proceso exotérmico con ΔHmezcla <0 , o bien habrá absorción de calor, mediante un proceso endotérmico con ΔHmezcla >0. Si se asume que ΔHmezcla depende exclusivamente de las interacciones o enlaces entre los átomos de A y de B, entonces se pueden analizar soluciones binarias regulares y llegar a una expresión para el ΔHmezcla = ΩXAXB , donde el factor Ω representa las interacciones entre los componente A y B. En la diapositiva 7, habíamos encontrado la expresión para (-TΔSmezcla). Entonces ΔGmezcla= ΔHmezcla – TΔSmezcla=ΩXAXB + RT(XA lnXA + XB lnXB. Si las interacciones entre los átomos A y B es mas fuerte que entre los átomos de A entre si y los átomos de B entre si, el valor de Ω es menor que cero, y por lo tanto, al mezclarse los átomos de A y B el sistema liberara energía y ΔHmezcla es menor cero. En este caso, las curvas de ΔGmezcla para cualquier temperatura tendrán curvatura negativa, como se muestra en las Figuras de la izquierda para reacciones exotérmicas. Si las interacciones entre los átomos de A entre si y los átomos de B entre si es mas fuerte que entre los átomos A y B, el valor de Ω es mayor que cero, y por lo tanto, al mezclarse los átomos de A y B el sistema absorbe energía y ΔHmezcla es mayor cero. En este caso, las curvas de ΔGmezcla para temperaturas altas tendrán curvatura negativa, pero a temperaturas bajas podrán tener la forma que se muestra en la Figura de la derecha para reacciones endotérmicas.


Para el caso de soluciones binarias ideales, habíamos encontrado (diapositiva 9) que, si se conoce el valor de G para una composición dada, se pueden obtener los potenciales químicos de los componentes mediante una extrapolación de la recta tangente a la curva G en el valor de composición dado, como se muestra en la Figura superior. Para el caso de soluciones binarias regulares, se puede realizar el mismo procedimiento, y por lo tanto también se pueden obtener los potenciales químicos de los componentes mediante una extrapolación de la recta tangente a la curva G en el valor de composición dado, como se muestra en la Figura inferior. Así, tanto para soluciones binarias ideales como para binarias regulares, es posible determinar gráficamente, a una dada temperatura, los potenciales químicos de los componentes en la solución o fase. La determinación de los potenciales químicos nos permitirá analizar mas adelante el equilibrio entre distintas soluciones o fases.


Para el caso que los componentes A y B no presenten la misma estructura cristalina en sus estados puros, se debe analizar dos curvas de energia libre de Gibbs para las soluciones de A y B. Una curva de energía libre de Gibbs para la solución de A y B con la estructura cristalina de A, que denominaremos Gα, y otra curva de energía libre de Gibbs para la solución de A y B con la estructura cristalina de B, que denominaremos Gβ. En la Figura izquierda superior se muestra la curva Gα, para una solución sólida de A y B con una estructura cristalina bcc, que es la que le corresponde al componente puro A. Se puede observar que la curva corta al eje del componente B puro en un valor de energía superior al que le correspondería si el componente B se presentara con estructura fcc. En la Figura izquierda inferior se grafica Gα y Gβ, donde Gβ corresponde a una solución sólida de A y B con estructura cristalina fcc. Se puede observar que la curva Gβ corta al eje de B puro en el valor de energía correspondiente para la estructura fcc, pero corta al eje de A puro en un valor de energía superior al que le correspondería si A se presentara con estructura bcc. En la Figura de la derecha se puede observar claramente que las aleaciones ricas en componente A presentan los valores de energía libre mas bajos si están en la solución o fase homogénea α y que las aleaciones ricas en B presentan los valores de energía libre mas bajos si están en la fase β. Para una situación intermedia puede verse que la energía libre del sistema podría minimizarse si los átomosse separan o se distribuyen entre las dos fases α y β.



Si se considera una aleación con composición X 0 , se observa que si se presenta como una fase β su energía libre de Gibbs es G0 β , pero si se presenta como una fase α su energía libre de Gibbs es menor y le corresponde el valor G0 α , pero se podría bajar aún mas la energía del sistema si se separa en dos fases. Así, si llega al valor de G1 el sistema estará formado por dos fases, α y β, con composiciones α1 y β1, respectivamente. Podría bajarse aún mas la energía del sistema si los átomos de A y B se distribuyen entre las fases α y β hasta alcanzar las composiciones αe y βe. La energía del sistema es Ge y es el valor mas bajo posible de energía, y por esta razón el sistema ha llegado a una situación de equilibrio. Recordar que en la diapositiva 11 se determinó que los potenciales químicos de los componentes se obtienen mediante una extrapolación de la recta tangente a la curva G en el valor de composición dado. La situación de equilibrio entre dos fases requiere la existencia de una única línea tangente a las dos curvas, y cada componente posee el mismo potencial químico en cada una de las fases. Por lo tanto, la situación de equilibrio entre fases se establece mediante la igualdad de los potenciales químicos, cumpliéndose que µA α= µA β y que µB α= µB β Toda aleación que se encuentre a la temperatura de análisis de estas curvas, dentro del rango de composiciones entre αe y βe se presentará como una mezcla de dos fases α y β en equilibrio. Las aleaciones con composicionesfuera de este rango se presentarán como aleaciones monofásicas.


En base a los conceptos desarrollados en esta clase es posible realizar la construcción de diagramas de fases a partir de las curvas de energía libre de la aleación para distintas temperaturas. Aquí se analiza la construcción de un diagrama de fases de una aleación formada por los componentes A y B. En el gráfico a, a la temperatura T1, se observa que la curva de energía libre del líquido está por debajo de la del sólido para todo el rango de composiciones, por lo tanto la fase líquido es la mas estable y el sistema se presenta en estado líquido. En el gráfico b, a la temperatura TmA, que corresponde a la temperatura de fusión o solidificación del componente puro A, las curvas de energía libre del líquido y del sólido son iguales sólo para A puro y por lo tanto existe equilibrio sólido-líquido para la composición de A puro. Para las demás composiciones la curva de energía libre del líquido está por debajo de la del sólido y, por lo tanto, el sistema se presenta en estado líquido. En el gráfico c, a la temperatura T2, se encuentra una única recta tangente entre las composiciones b y c y el sistema se presenta como dos fases sólido y líquido con las composiciones b y c respectivamente. Para composiciones menores a “b” el sistema se presenta como fase sólida porque la curva de energía libre del sólido es mas baja que la del líquido, y para composiciones superiores a “c” el sistema se presenta como fase líquida porque la curva de energía libre del líquido es mas baja que la del sólido. En el gráfico d, a la temperatura TmB, que corresponde a la temperatura de fusión o solidificación del componente puro B, las curvas de energía libre del líquido y del sólido son iguales sólo para B puro y por lo tanto existe equilibrio sólido-líquido para la composición de B puro. Para las demás composiciones la curva de energía libre del sólido está por debajo de la del líquido y, por lo tanto, el sistema se presenta en estado sólido. 14 En el gráfico e, a la temperatura T3, se observa que la curva de energía libre del sólido está por debajo de la del líquido para todo el rango de composiciones, por lo tanto la fase sólido es la mas estable y el sistema se presenta en estado sólido. Si se llevan a un gráfico Temperatura en función de composición, los valores de composición en los que se encuentra equilibrio sólido- líquido a cada temperatura, se obtiene el diagrama de fases del gráfico f.



Aquí se construye un diagrama de fases a partir también de curvas de energía libre, pero se analiza un sistema formado por átomos de A y B que pueden presentarse en las fases α, β y líquido (L). A la temperatura T1 el sistema se presenta como fase α para composiciones entre A puro y X1, porque la curva de energía libre de la fase α está por debajo de las demás curvas de energía libre. Entre X1 y X2 la aleación se presenta como una mezcla de fases α y líquido, porque se encuentra una recta tangente común a las curvas de energía libre de fase α y de fase líquido. Por encima de X2 la aleación se presenta como fase líquido. A la temperatura T2 el sistema se presenta como fase α para composiciones entre A puro y X1, porque la curva de energía libre de la fase α está por debajo de las demás curvas de energía libre. Entre X1 y X2 la aleación se presenta como una mezcla de fases α y líquido, porque se encuentra una recta tangente común a las curvas de energía libre de fase α y de fase líquido. Entre X2 y X3 el sistema se presenta en estado líquido, porque la curva de energía libre de la fase líquido está por debajo de las demás curvas de energía libre. Entre X3 y X4 la aleación se presenta como una mezcla de fases β y líquido, porque se encuentra una recta tangente común a las curvas de energía libre de fase β y de fase líquido. Por encima de X4 la aleación se presenta como fase β. A la temperatura T3 el sistema se presenta como fase α para composiciones entre A puro y X1, porque la curva de energía libre de la fase α está por debajo de las demás curvas de energía libre. Entre X1 y X2 la aleación se presenta como una mezcla de fases α y líquido, porque se encuentra una recta tangente común a las curvas de energía libre de fase α y de fase líquido y entre X2 y X3 el sistema se presenta como una mezcla de fases β y líquido, porque se encuentra una recta tangente común a las curvas de energía libre de fase β y fase líquido, que es la misma recta tangente común a fase α y líquido. Por lo tanto entre X1 y X3 el sistema se presenta con tres fases en equilibrio : fase α, fase β y fase líquido. Por encima de X3 la aleación se presenta como fase β. A la temperatura T4 el sistema se presenta como fase α para composiciones entre A puro y X1, 15 porque la curva de energía libre de la fase α está por debajo de las demás curvas de energía libre. Entre X1 y X2 la aleación se presenta como una mezcla de fases α y β, porque se encuentra una recta tangente común a las curvas de energía libre de fase α y de fase β. Por encima de X2 la aleación se presenta como fase β. Si se llevan a un gráfico Temperatura en función de composición, los valores de composición en los que se encuentran las situaciones de equilibrio entre las distintas fases a cada temperatura, se obtiene el diagrama de fases del último gráfico. 

Ultrasonido - Ensayos no destructivos.

Modo de propagación de la onda sonora

Las ondas sonoras se propagan de manera longitudinal como en el aire (ondas de compresión) pero en medios sólidos también en forma transversal a la dirección de propagación (ondas de tensión de corte).











Resumen de la técnica


Equipo

Equipo para transmitir y recibir impulsos ultrasónicos y registrar las magnitudes de la energía ultrasónica reflejada por el objeto en estudio. Patrones de calibración y medios de acople acústico.

Aplicaciones.

La mayoría de las discontinuidades de las soldaduras, inclusiones de escoria, penetración incompleta, falta de fusión, falta de unión en brazing, medición de espesores.

Ventajas

Alta sensibilidad a discontinuidades planas. Resultados del ensayo inmediatos. Portable. Permite inspeccionar grandes espesores. Capacidad de utilizar baterías.

Desventajas

Requiere buenas condiciones superficiales. Medio de acople requerido. Pequeñas soldaduras, materiales delgados, y materiales con gran tamaño de grano difíciles de examinar. Baja sensibilidad a defectos muy delgados. Requiere patrones de calibración, operario altamente calificado, capacidad de registro permanente solo con dispositivos de registro auxiliares (computadora, etc).



Ensayos no destructivos - Radiografía Industrial

 Tipos de radiación frecuentemente utilizada en radiografía industrial: 

Rayos X: - de hasta 350 KV (unidades convencionales) - de alta energía (unidades no transportables) Rayos gamma: - fuente Cobalto 60. - fuente de Iridio 192.

Posicionamiento básico de la fuente y la película

Los rayos X o gamma provenientes de una fuente atraviesan el material a estudiar y son absorbidos proporcionalmente a la densidad y el espesor. Estos rayos impactan en una película sensible y dejan un registro de oscuridad proporcional a la exposición recibida.


La película y el proceso de exposición


La capa de emulsión es una gelatina que contiene boruro de plata, compuesto que tiene sensibilidad fotoquímica. En el proceso de revelado las zonas expuestas a los rayos x o gamma se tornan oscuras.


Densidad fotográfica


La densidad fotográfica es la escala para representar el grado de oscuridad de la película revelada. Si la intensidad de luz blanca que incide en la película es I1 y la cantidad que deja pasar es I2, entonces se define la densidad D como:

 


Curva característica de una película radiográfica


Densidad de diferentes películas en función del tiempo de exposición para las siguientes condiciones: Espesor de acero: 16mm 
Distancia focal: 600mm 
Energía de fuente: 200 KV 
Revelado: Hirendol,
T=20º, tiempo: 5 min



Pantallas intensificadoras

La sensibilidad es pobre cuando se toman radiografías con la película expuesta solamente. Se utilizan pantallas en contacto con ambos lados de la película para intensificar la energía incidente.

Pantalla metálica: papel recubierto por una capa de plomo de 0,03 a 0,1 mm de espesor. La generación de electrones secundarios produce la intensificación. Atenúa la radiación esparcida.

Pantalla fluorescente: se adiciona una capa fluorescente (CaWO4 ) al papel Sensibiliza la película transformando la radiación en luz visible.

Pantalla fluorometálica: se adiciona una capa fluorescente (CaWO4 ) a la pantalla metálica. Aumenta la velocidad y disminuye la radiación esparcida. 




Factores que afectan la calidad de la radiografía.


Contraste:
    Factores de la pieza
        1. Características de absorción del material
        2. Nivel de energía de radiación.
        3. Control de dispersión de la radiación (a) pantallas de plomo (b) escudos contra radiación dispersa en el reverso de la película (c) colimación de la fuente.
    
    Contraste de la película
        1. Sensibilidad de la película.
        2. Tipo y nivel de energía de radiación.
        3. Tamaño de grano radiográfico.
        4. Tiempo de exposición.
        5. Revelado

Definición
    Factores geométricos
        1.Tamaño del punto focal
        2. Distancia entre fuente y película
        3. Contacto entre material y película
        4. Variación de espesor y configuración de la pieza.
        5. Contacto entre película y pantalla.
        6. Movimiento relativo película-pieza.

    Tamaño de grano de la película
        1.Tipo de película
        2.Tipo de pantalla
        3.Nivel de energía de radiación
        4.Procesamiento de la película.

Medidas de seguridad en radiología industrial


- Control de seguridad antes del ensayo 
Certeza del buen estado del equipo (fuente, equipo de monitoreo y mecanismos de seguridad), delimitación y señalización del área de trabajo.
 - Control de seguridad durante el ensayo 
Monitoreo de la cantidad de radiación dispersa y reflejada en la zona.contolada y en la zona supervisada (menores que 1,5 rem/año o 0,6 mrem/h y menores que 0,5 rem/año o 0.06 mrem/h, respectivamente)
- Control de seguridad después del ensayo 
Certeza del apagado del equipo o del guardado correcto de la fuente radioactiva en el contenedor blindado y del buen funcionamiento de los dispositivos de seguridad. 
Monitoreo de presencia de radiación en proximidades del contenedor 
Correcto almacenamiento y registro del equipamiento.

- Dosis máximas permitidas para la exposición a radiación:


 Debe mantenerse lo más baja posible, pero no debe se mayor a 0.5 rem/año para todas las personas. Se extiende este límite a los trabajadores con radiación a 5 rem/año.
Se establece que el área controlada debe ser tal que la dosis de exposición fuera de ella no exceda los 3/10 de la dos
El área supervisada debe tener un tamaño tal que la exposición fuera de ella no exceda 1/10 de la dosis máxima anual.is máxima anual.

- Dosis máximas para un período de tres meses:
Hombres: 3 rem en 3 meses 
Mujeres en edad reproductiva: 1,3 rem en tres meses

- Dosis máxima integrada anual: D = 5*(edad - 18)









Características de la técnica


Equipo

Fuentes de rayos X (y de energía eléctrica) o rayos gamma, películas sensibles, soportes para películas, pantallas de plomo, equipo para revelado de películas y soluciones.

Aplicaciones

Discontinuidades en uniones soldadas, incluyendo: penetración incompleta, fisuras, porosidades, inclusiones, corrosión, defectos de sobrematerial, evaluación dimensional de espesor de paredes. (similar aplicación que con isótopos).

Ventajas

Registro permanente (en la película revelada). Niveles de energía ajustables. Generalmente produce radiografías de mejor calidad que con radiación gamma.

Desventajas 

Costo inicial elevado de equipamiento. Generalmente no es portable. Agotamiento de las fuentes radioactivas. Cantidad de energía y longitud de onda de la fuente fijas. Personal experimentado y calificado requerido.










Ensayos no destructivos - Tintas penetrantes

 Las Tintas Penetrantes (TP) hacen visibles defectos superficiales abiertos en la superficie.

Un líquido, el penetrante, es aplicado sobre la superficie de la pieza, dejando que se introduzca en las discontinuidades. Una vez removido el exceso, el penetrante atrapado en las discontinuidades es forzado a salir por medio de un revelador,

De esta forma, los defectos se hacen visibles a ojo desnudo, permitiendo distinguir fisuras hasta ~0.03 mm

El ensayo por TP es versátil y apto para todo tipo de material y geometría de pieza. Se usa tanto en el examen local de piezas grandes, como en producción, para el examen integral de muchas piezas pequeñas.

Antiguamente se usó polvo de carbón sobre la superficie de piezas cerámicas, el cual se localiza en las fisuras haciéndolas visibles.

Una técnica similar se utilizó en los talleres de ferrocarril, mediante un aceite pesado diluido con kerosene como penetrante y una suspensión fina de tiza en alcohol como revelador.

Este método fue muy utilizado desde finales del siglo XIX hasta la aparición de las partículas magnéticas en 1940, que posee mayor sensibilidad en materiales ferromagnéticos.

La empresa Magnaflux introdujo las TP fluorescentes en 1942.

La metodología básica de la técnica reside en aplicar una TP coloreada, la posterior remoción del excedente, y la aplicación de un revelador.

La Tinta Penetrante atrapada en una discontinuidad tiñe de color al polvo revelador, indicando de esta manera la presencia de defectos.


Para evaluar diferentes tipos de materiales no-porosos:
  • metálicos, ferrosos y no-ferrosos 
  • no-metálicos, p.ej. plásticos o gomas 
  • cerámicos no-porosos y vidrio

Para evaluar la presencia de diferentes discontinuidades:

  • fisuras 
  • áreas porosas
  • picado (pitting)
Las TP se utilizan en soldadura y en el mantenimiento predictivo de ejes, partes de avión, engranajes, piezas fundidas, piezas de motores de combustión interna, etc).
Las TP pueden considerarse como una extensión del examen visual, con la ventaja de tener mayor visibilidad, debido a:
 indicaciones de mayor tamaño que el defecto mismo
 indicaciones con mejor contraste y mayor probabilidad de detección.

El proceso de inspección consta de seis etapas:


1 - Limpieza de las superficies 
2 - Aplicación de la TP 
3 - Remoción del exceso de penetrante 
4 - Aplicación del revelador 
5 - Inspección e interpretación 
6 - Limpieza final de la superficie

La efectividad de la inspección depende de la capacidad de la TP para mojar la superficie y formar una película continua y uniforme, para luego migrar hacia las cavidades abiertas a la superficie.
En cavidades sucias (ocupadas por contaminantes), la tinta penetrante no podrá ingresar.
Por lo tanto, es fundamental obtener una superficie limpia, libre de pintura o recubrimientos, grasa, aceite y capas de óxido.

La tinta penetrante se aplica sobre la superficie de la pieza evaluada, para que la misma se introduzca en las discontinuidades abiertas a la superficie.

Dependiendo del tipo de pieza, las técnicas incluyen:
  • Inmersión de la pieza (p.ej. para piezas pequeñas) 
  • Pulverización (para piezas grandes, ensayo total o parcial) 
  • Pincel (para piezas grandes, ensayo total o parcial)
La TP ingresa en los defectos por capilaridad, por lo tanto, necesita un bajo ángulo de contacto y una adecuada tensión superficial.
Las TP son diseñadas para obtener la máxima penetración, con ángulos de contacto próximos a cero.
Debe respetarse el tiempo de penetración recomendado por el fabricante, en general 5-60 min. Un tiempo excesivo no perjudica el ensayo, a menos que se produzca el secado del penetrante.


La penetración puede transcurrir con la pieza sumergida, aunque se obtiene una mayor sensibilidad dejando escurrir, debido al aumento de la concentración de color.
Densidad. La fuerza de gravedad puede actuar a favor o en contra de la fuerza capilar, dependiendo de la orientación del defecto, pero en general no posee un efecto importante.

El penetrante debe poseer las siguientes propiedades:

  • Facilidad de penetración
  • Evaporación lenta
  • Facilidad de limpieza
  • Capacidad de formar películas finas
  • Buena absorción por el revelador
  • Inerte, no toxico, no inflamable
La remoción es una etapa crítica y debe realizarse cuidando de eliminar la menor cantidad de penetrante retenido en las discontinuidades.
Una correcta formulación de la TP encontrará un compromiso entre la fuerza de adhesión (mojado) y la facilidad de remoción. La limpieza debe ser adecuada para obtener un background aceptable, que no disminuya la sensibilidad de la técnica.

Una forma de clasificación de las TP es según la forma de remoción


En piezas de geometría complicada se recomienda el líquido removible con agua, cuyo exceso se elimina con una ducha suave.
El postemulsificable es el mejor, trabajando adecuadamente aún en superficies rugosas (p.ej. piezas fundidas).
El método C, removible con solvente es recomendado para evaluar áreas localizadas en grandes piezas, ya que requiere mayor mano de obra. La limpieza se realiza con una sola pasada en seco y una sola pasada en húmedo en la misma dirección.
En producción seriada se recomiendan métodos lavables con agua por ser más económicos.
El tiempo de enjuague debe mantenerse al mínimo, lo cual se hace observando el background.

Si bien las tintas penetrantes podrían utilizarse sin revelador, este aumenta la probabilidad de detección de la falla.

El revelador cumple dos funciones básicas:

  • funciona como un papel secante
  • genera un fondo uniforme que mejora el contraste
La clasificación del revelador es de acuerdo a la forma de aplicación:
  •  Forma a - en polvo seco
  • Forma b - soluble en agua
  • Forma d - suspensión en agua
  • Forma c - húmedo no-acuoso
Revelador en polvo seco.

Puede aplicarse mediante soplete o espolvoreado, inmersión o en lecho fluidizado, cámara de niebla y electrostáticamente.
El exceso se elimina por sacudida o choro de aire a baja presión.
La sensibilidad es baja ya que el revelador es retenido solo donde hay penetrante atrapado (no genera un fondo uniforme).
El electrostático forma una película uniforme que mejora el contraste.

Revelador acuoso. 

Se aplica antes del secado posterior a la limpieza, siendo el spray la mejor forma. También puede hacerse por inmersión. Luego se realiza el secado a una T~22 °C.

Revelador húmedo no-acuoso. 

Se aplica mediante un portador volátil que se evapora rápidamente a Tamb. No se permite sumergir ya que la TP atrapada en una discontinuidad puede ser disuelta por el portador. 

Revelador en película líquida

Consiste en una solución o suspensión coloidal de resina o polímeros que forman un film translúcido en la superficie.

Secado


Las superficies deben ser secadas antes de aplicar el revelador seco no-acuoso, mediante horno de recirculación, chorro de aire caliente o frío o secado a temperatura ambiente.

El revelador absorbe la TP de las fisuras dando lugar a la indicación de defecto debido al contraste generado

La capa de revelador debe ser continua, delgada y sin chorreaduras. Se denomina tiempo cero de revelado al tiempo en que se empiezan a observar las indicaciones de falla, momento en que es posible determinar con cierta precisión el tamaño y cantidad de defectos. Posteriormente el revelador continúa extrayendo TP y el tamaño de las indicaciones aumenta, pudiendo producirse un solapamiento.

El tiempo mínimo de revelado será de 10 min. Los tiempos máximos son de 2 horas y 1 hora para revelador acuoso y no-acuoso.

La observación del desarrollo de la indicación es ventajoso para interpretar los resultados. La señal aparece y crece, siendo posible evaluar el largo de fisuras al tiempo cero, pero no las dimensiones restantes del defecto. Las indicaciones son evaluadas y clasificadas (tipo, tamaño, ubicación, orientación) para ser consideradas aceptable o no.

Examen con luz negra. La luz ambiente debe ser <20 lx, mientras que la luz negra >1000 W/cm2 y 320<<380 nm, sobre la superficie a evaluar. Calentamiento mínimo 10 min. Operario: adaptación >1 min.
Examen con luz visible. Luz natural o artificial con una intensidad mínima de 1000 lx

La probabilidad de detección depende de la naturaleza de los defectos, aumentando con:

  • En defectos volumétricos respecto de planares ya que generalmente atrapan más volumen de penetrante y este ingresa más rápido
  • Cuando los defectos son más profundos, lo cual favorece la retención de tinta y son menos propensos al sobrelavado
  • Cuando los defectos poseen una abertura estrecha ya que son menos propensos al sobrelavado
  • Cuando la superficie posee baja rugosidad, ya que aumenta el contraste al disminuir el background
  • Cuando la superficie de las fisuras son rugosas, ya que aumenta la velocidad a la que el penetrante entra en el defecto
  • Cuando las piezas se encuentran descargadas o en tensión
Clasificación de defectos. 
La norma ASTM E433 provee los criterios de clasificación de defectos, de la siguiente manera:
Tipos
Tipo 1: Aquellos en los que ninguna dimension es mayor a 3 veces la otra.
Tipo 2: Aquellos en los que una dimnesion es mayor a 3 veces la otra.

Clases
A. Simple
B. Multiples desalineados.
C. Multiples alineados.
D. Interseccion de superficies.

El paso final del ensayo es la limpieza del componente, para eliminar los restos de penetrante y revelador que pudieran afectar procesos posteriores de fabricación o el servicio.

Ventajas
  • Posee muy buena sensibilidad para defectos pequeños.
  • El metodo posee pocas limitaciones en cuanto al material a evaluar.
  • Se peude evaluar grandes areas y volumenes de pieza a bajo costo.
  • Se pueden inspeccionar piezas de geometria compleja.
  • Las indicaciones se producen sobre la superficie de la pieza y constituyen una representacion visual del defecto.
  • Los elementos utilizados pueden ser portatiles y son de bajo costo.
Limitaciones.
  • Solo detecta defectos abiertos a la superficie
  • Solo se evaluan materiales no-porosos.
  • La limpieza previa es critica y los recubrimientos deben eliminarse
  • El metal deformado por metodos de preparacion, tales como mecanizado, rectificado, etc. debe ser eliminado.
  • Puede utilizarse unicamente en el rango de temperatura de 10-38 °C
  • Se requiere acceso a la superficie inspeccionada
  • La rugosidad y la porosidad aumentan el background
  • Requiere limpieza posterior al ensayo en piezas sanas.