You are on page 1of 32

Tecnológico nacional mexicano.

Instituto tecnológico de ciudad Juárez.

Tecnología de los materiales.

Unidad 2:
Conducción eléctrica de los materiales.

Alonso Noé Mejía Gutiérrez.


17110808.
Ing. Eléctrica.

Profesor: Ing. Jesús Noé Barraza alegría.


 Antecedentes de la conducción eléctrica.
Los primeros experimentos realizados por Tales de Mileto al frotar ámbar
mostraban efectos de atracción y repulsión entre cuerpos. Sin embargo, la
investigación detallada de estos fenómenos recién se inició hacia
principios del siglo XVIII.
Posteriormente, los romanos ensayaron los primeros métodos de
electroterapia de la historia, sumergiendo a los paralíticos en lagunas con
abundancia de peces eléctricos a fin de que los inválidos recibieran sus
descargas, las que consideraban benéficas. Más tarde se comprobó que
otros cuerpos, como la piedra imán, el vidrio, la resina, el diamante y el
cuarzo, tenían fuerza de atracción semejante a la del ámbar. Sin embargo
tuvieron que transcurrir muchos siglos para que se buscara una
explicación racional de aquellos fenómenos.
En realidad, ni la civilización griega ni la romana, ni luego el mundo de la
Edad Media (cuando la ciencia era una herejía e implicaba la hoguera para
sus practicantes) contribuyeron de manera importante a la comprensión de
la electricidad y del magnetismo. A pesar de que sus efectos continuaron
interesando esporádicamente a los eruditos y atemorizando a los
ignorantes, el estudio científico de la electricidad se inició recién en el siglo
XVII.
Uno de estos investigadores fue Stephen Gray, (Este investigador fue el
primero en transmitir electricidad a través de un conductor y descubrió que
para que esto ocurra, el conductor tenía que estar aislado de tierra.) quien
demostró que las cargas de electricidad estática podían ser conducidas
por algunos materiales. Entre 1729 y 1736, Stephen Gray obtuvo
resultados de muchos experimentos que indicaban que la electricidad de
un tubo de vidrio, que había sido excitado previamente por fricción, podía
ser transportada a otros cuerpos dándoles la habilidad de atraer y repeler
objetos livianos.
Gray y su colaborador, Jean Desaguliers, condujeron experimentos que
mostraban que ciertos objetos, estando alejados a una distancia de 240 a
270 metros, podían ser electrificados conectándolos por medio de un
alambre de metal con un tubo de vidrio previamente frotado con un paño.

1
Por el contrario, si en lugar de efectuar la unión con un alambre metálico
empleaban un hilo de seda, el objeto no se energizaba. También
verificaron que el elemento distante no podía ser electrificado si la línea de
transmisión hacía contacto con la tierra, pero que era posible energizarlo si
dicha línea estaba separada del suelo, suspendida por medio de hilos de
seda.
Con todos estos experimentos concluyeron que la electrificación era un
efecto que se presentaba en la superficie de los cuerpos, en donde
aparecía lo que llamaron una "virtud" o "fluido" eléctrico y que en la
actualidad se llama carga eléctrica. Encontraron que la carga eléctrica
podía moverse libremente de un cuerpo a otro a través de ciertos
materiales que llamaron conductores (el cuerpo humano, los metales, el
aire húmedo, etc.). También verificaron que materiales tales como la
madera, la seda y la cerámica no conducen electricidad, por lo que los
llamaron aisladores o no-conductores.
De esta manera, Gray descubrió dos importantes propiedades de la
electricidad: que puede ser conducida y aislada. Posteriormente, la
asistencia financiera del reverendo Granville Wheler permitió la continuidad
de sus estudios.
Este trabajo inspiraría luego a generaciones de investigadores a
experimentar con corrientes eléctricas y cómo transmitirlas a grandes
distancias. A pesar de la importancia de sus investigaciones (algunos
proponen que fue el precursor de las comunicaciones eléctricas) recibió
poco crédito por ellas. En ese momento, los descubrimientos en
electricidad ocurrían rápidamente y sus hallazgos tendieron a parecer
triviales en poco tiempo.
En la actualidad no hay un monumento a Gray y se cree que fue enterrado
en una tumba común de un viejo cementerio de Londres, en un área
reservada a pensionistas pobres de Charterhouse.
Pasaron más de 2.000 años sin avances desde Tales de Mileto hasta que
el inglés Guillermo Gilbert, médico de cámara de la reina Isabel I, retoma
alrededor del 1600 los estudios de los griegos y emplea por primera vez la
palabra electricidad para describir sus experimentos sobre electricidad y
magnetismo. En su obra De Magneticisque Corporibus et de Magno
Magnete Tellure detalló que algunas sustancias como el vidrio, el azufre y
2
la resina se comportaban como el ámbar, y cuando eran frotadas atraían
objetos livianos; mientras que otras como el cobre o la plata no ejercían
ninguna atracción. A las primeras las llamó "eléctricas", mientras que a las
segundas las denominó "aneléctricas".
En 1672 el físico alemán Otto von Guericke desarrolló la primera máquina
electrostática para producir cargas eléctricas. Esta máquinaconsistía de
una esfera de azufre que podía hacer girar con una mano y frotar con la
otra. Además de atraer pequeños trozos de papel producía (lo cual era
inesperado) crujidos y diminutas chispas mientras se la frotaba. Por
primera vez se veía que la electricidad podía fluir, aunque en realidad se
pensaba que era un fluido que podía ser transferido de un objeto a otro por
frotamiento. Luego, a fines de 1673 el francés François de Cisternay Du
Fay identificó la existencia de dos cargas eléctricas, positiva y negativa.
Según su teoría, estas cargas estaban ligadas a la existencia de dos tipos
de fluidos eléctricos: uno de atracción y otro de repulsión.
En 1785, el francés Charles Coulomb corroboró que la fuerza entre cargas
eléctricas era proporcional al producto de las cargas e inversamente
proporcional al cuadrado de la distancia que separaba las cargas. Este
enunciado se conoció como Ley de Coulomb. El italiano Galvani hizo otro
descubrimiento importante en forma accidental hacia fines del siglo XVIII.
En 1786 observó que al conectar un alambre de hierro o latón al nervio de
una pata de rana y una varilla al músculo, éste se contraía del mismo
modo que cuando se le hacía pasar una descarga eléctrica.
Alejandro Volta, profesor de la Universidad de Pavia, Italia, no aceptó la
conclusión ofrecida por Galvani y demostró que la contracción de las patas
de la rana observada por Galvani no tenía nada que ver con la rana en sí,
sino que era debida a los alambres de hierro y latón, los que generaban
electricidad al tomar contacto con la humedad salina de la rana. Más tarde,
Volta fabricó una pila con placas de cobre y cinc superpuestas y en
contacto con una solución salina. El resultado fue una corriente eléctrica
que fluía por el hilo de unión. Sin embargo, había muy poco en los estudios
que se hacían en aquellos tiempos que tuviera verdadero significado. A la
electricidad se la consideraba más bien como un juego para atraer o
repeler y producir chispitas. Y en realidad, las minúsculas cantidades de
electricidad generadas por las máquinas de frotamiento no tenían ninguna

3
utilidad práctica. Casi todos los conocimientos actuales de electricidad se
adquirieron en los últimos 200 años.
El descubrimiento de Faraday condujo directamente al del dínamo, o
principio del generador: cuando una bobina gira dentro de un campo
magnético en el cable se genera una corriente eléctrica. Thomas Alva
Edison, el científico e inventor estadounidense, desarrolló este concepto y
construyó un generador eléctrico capaz de producir corrientes eléctricas
mucho mayores que la pila de Volta.
Ya era obvio que la electricidad en movimiento era una forma de energía.
A principios del 1800, Humphry Davy descubrió que la electricidad podía
emplearse también para producir luz. Conectó los terminales de una
batería muy potente a dos varillas de carbón apenas separadas entre sí, y
obtuvo una luz muy brillante; la lámpara de arco había sido inventada. En
1841, el inglés J.P. Joule formuló las leyes del desprendimiento del calor
producido al paso de una corriente eléctrica por un conductor. Estas leyes
explican lo que ocurre en un cable que conduce corriente: éste se calienta
porque la resistencia del cable convierte parte de la energía eléctrica en
calor. Este principio es la base de todos los aparatos eléctricos de
calefacción o similares. En 1879 Edison introdujo la lámpara eléctrica
haciendo pasar una corriente eléctrica a través de un fino filamento de
carbón encerrado en una ampolla de vidrio, en cuyo interior había hecho el
vacío. El filamento se puso incandescente e iluminó durante 44 horas.
Hacia el año 1850, casi todos los efectos eléctricos importantes habían
sido descubiertos y explicados. Había dos importantes excepciones. Una
de ellas era la existencia de ondas electromagnéticas. En 1865 el británico
James Clerk Maxwell demostró matemáticamente que las ondas
(alteraciones electromagnéticas) están asociadas a todas las corrientes
eléctricas variables, y 22 años después (en 1887) Heinrich Hertz, produjo y
detectó en la realidad las ondas previstas por MaxwelI. Este
descubrimiento condujo a la idea, desarrollada extensamente por
Guillermo Marconi, de que las ondas electromagnéticas podían ser
empleadas para transmitir mensajes sin cables a través del aire. Al
principio se las utilizó para enviar señales telegráficas y luego, en el siglo
XX, para transmitir sonidos e imágenes. La pregunta acerca de qué era
realmente la electricidad y qué era lo que fluía por el circuito eléctrico no

4
fue contestada hasta 1897, en que J. J.Thompson descubrió el "ladrillo" de
que estaba construida la electricidad: el electrón. Mediante un fuerte
campo eléctrico deflectó una corriente eléctrica que circulaba por el vacío y
constatando en qué dirección se desviaba, probó que estaba constituida
por cargas eléctricas negativas, o electrones. Más tarde, en 1911, Roberto
Millikan demostró que el electrón transportaba la menor carga eléctrica
posible. Estos descubrimientos abrieron la puerta al desarrollo de la radio,
la televisión, las computadoras, la telefonía y casi toda la tecnología que
nos rodea actualmente.
Llegan del sol, del viento, del agua de los ríos, del mar, de las
profundidades de la tierra y de algunos residuos. No se agotan, se
obtienen de forma periódica y no limitada en el tiempo, no producen lluvia
ácida ni contribuyen al efecto invernadero, no dejan residuos importantes,
acercan las fuentes de producción al consumidor ahorrando miles de
kilovatios en transporte, fortalecen la independencia energética y la
industria nacional, favorecen la creación de empleo y por si esto fuera
poco, nos resultan baratas. En síntesis, ésta sería la definición de las
energías renovables en sus distintas manifestaciones: eólíca, solar,
biomasa, hidráulica y geotérmica. La dependencia de combustibles no
renovables (petróleo, carbón, gas) nos obliga a repensar el actual modelo
energético, debido a la gravedad de los daños ambientales. En este
sentido, la eficiencia energética, el ahorro energético y las energías
renovables son las mejores vías para afrontar el cambio climático y el
efecto invernadero que se avecina.
Las energías renovables han cubierto durante miles de años las
necesidades energéticas de la Humanidad y lo volverán a hacer en un
futuro, tras un breve paréntesis de apenas dos siglos, en los que las
fuentes energéticas basadas en combustibles fósiles y nucleares, han
devastado el planeta y continúan poniendo en serio peligro la subsistencia
de los seres vivos. Embarcarnos en estas energías limpias no significa,
como algunos piensan, retroceder al pasado y paralizar el avance
tecnológico. Por el contrario, sacar buen rendimiento de una energía
gratuita y aprovechable, es síntoma de progreso y de un desarrollo
sostenible.
 Teorías sobre el movimiento electrónico de los materiales.

5
Modelo atómico de Dalton.
El modelo atómico de Dalton surgido en el contexto de la química, fue el
primer modelo atómico con bases científicas, propuesto entre 1803 y 1807
por John Dalton, aunque el autor lo denominó más propiamente "teoría
atómica" o "postulados atómicos".

El modelo permitió aclarar por primera vez el por qué las sustancias
químicas reaccionaban en proporciones estequiométricas fijas (Ley de las
proporciones constantes), y por qué cuando dos sustancias reaccionan
para formar dos o más compuestos diferentes, entonces las proporciones
de estas relaciones son números enteros (Ley de las proporciones
múltiples). Por ejemplo 12 g de carbono (C), pueden reaccionar con 16 g
de oxígeno (O2) para formar monóxido de carbono (CO) o pueden
reaccionar con 32 g de oxígeno para formar dióxido de carbono (CO2).
Además, el modelo aclaraba que aun existiendo una gran variedad de
sustancias diferentes, estas podían ser explicadas en términos de una
cantidad más bien pequeña de constituyentes elementales o elementos.
En esencia, el modelo explicaba la mayor parte de la química de fines del
siglo XVIII y principios del siglo XIX, reduciendo una serie de hechos
complejos a una teoría combinatoria realmente simple.
Dalton postuló su teoría formulando una serie de enunciados simples:
1. La materia está formada por partículas muy pequeñas llamadas
átomos, que son indivisibles y no se pueden destruir.
2. Los átomos de un mismo elemento son iguales entre sí, tienen la
misma masa e iguales propiedades. Los átomos de diferentes
elementos tienen masa diferente. Comparando la masa de los
elementos con los del hidrógeno tomado como la unidad, propuso el
concepto de peso atómico relativo.
3. Los átomos permanecen sin división, aún cuando se combinen en las
reacciones químicas.
4. Los átomos, al combinarse para formar compuestos, guardan
relaciones simples de números enteros y pequeños.

6
5. Los átomos de elementos diferentes se pueden combinar en
proporciones distintas y formar más de un compuesto.
6. Los compuestos químicos se forman al unirse átomos de dos o más
elementos.
La materia está formada por partículas muy pequeñas llamadas “átomos”.
Estos átomos no se pueden dividir ni romper, no se crean ni se destruyen
en ninguna reacción química, y nunca cambian.
Los átomos de un mismo elemento son iguales entre sí, tienen la misma
masa y dimensiones. Por ejemplo: todos los átomos de hidrógeno son
iguales.
Por otro lado, los átomos de elementos diferentes son diferentes. Por
ejemplo: los átomos de oxígeno son diferentes a los átomos de hidrógeno.
Los átomos pueden combinarse para formar compuestos químicos. Por
ejemplo: los átomos de hidrógeno y oxígeno pueden combinarse y formar
moléculas de agua.
Los átomos se combinan para formar compuestos en relaciones numéricas
simples. Por ejemplo: al formarse agua, la relación es de 2 a 1 (dos
átomos de hidrógeno con un átomo de oxígeno).
Los átomos de elementos diferentes se pueden combinar en proporciones
distintas y formar más de un compuesto. Por ejemplo: unos átomos de
carbono con uno de oxígeno forman monóxido de carbono (CO), mientras
que dos átomos de oxígeno con uno de carbono, forman dióxido de
carbono (CO2).
La hipótesis de John Dalton, que afirmaba que los elementos en estado
gaseoso eran monoatómicos y que los átomos de los elementos se
combinaban en la menor proporción posible para formar átomos de los
compuestos, lo que hoy llamamos moléculas, generó algunas dificultades.
Por ejemplo, Dalton pensó que la fórmula del agua era HO. En
consecuencia de esto se realizaron cálculos erróneos sobre la masa y
peso de algunos compuestos básicos.
En 1805, Gay-Lussac y Alexander von Humboldt mostraron que el agua
estaba formada por dos átomos de hidrógeno y uno de oxígeno. En 1811,
Amedeo Avogadro concretó la exacta composición del agua, basándose

7
en lo que hoy se conoce como Ley de Avogadro y la evidencia de la
existencia de moléculas diatómicas homonucleares. No obstante, estos
resultados fueron ignorados en su mayor parte hasta 1860. Esto fue, en
parte, por la creencia de que los átomos de un elemento no tenían ninguna
afinidad química hacia átomos del mismo elemento. Además, algunos
conceptos de la disociación de moléculas no estaban explicados en la Ley
de Avogadro.
En 1860, en el Congreso de Karlsruhe sobre masas estables y pesos
atómicos, Cannizzaro revivió las ideas de Avogadro y las usó para realizar
una tabla periódica de pesos atómicos, que tenían bastante similitud con
los actuales valores. Estos pesos fueron un importante prerrequisito para
el descubrimiento de la Tabla periódica de Dmitri Mendeléyev y Lothar
Meyer.
Hasta la segunda mitad del siglo XIX no aparecieron evidencias de que los
átomos fueran divisibles o estuvieran a su vez constituidos por partes más
elementales. Por esa razón el modelo de Dalton no fue cuestionado
durante décadas, ya que explicaba adecuadamente los hechos. Si bien el
modelo usualmente nacido para explicar los compuestos químicos y las
regularidades estequiométricas, no podía explicar las regularidades
periódicas en las propiedades de los elementos químicos tal como
aparecieron en la tabla periódica de los elementos de Mendeleiev (esto
sólo sería explicado por los modelos que suponían el átomo estaba
formado por electrones dispuestos en capas). El modelo de Dalton
tampoco podía dar cuenta de las investigaciones realizadas sobre rayos
catódicos que sugirieron que los átomos no eran indivisibles sino que
contenían partículas más pequeñas cargadas eléctricamente

8
Modelo atómico de Thomson.
El modelo atómico de Thomson es una teoría sobre la estructura atómica
propuesta en 1904 por Thomson, quien descubrió el electrón en 1897,
pocos años antes del descubrimiento del protón y del neutrón. En el
modelo, el átomo está compuesto por electrones de carga negativa en un
átomo positivo, incrustados en este al igual que las pasas de un pudin. Por
esta comparación, fue que el supuesto se denominó «Modelo del pudin de
pasas». Postulaba que los electrones se distribuían uniformemente en el
interior del átomo suspendidos en una nube de carga positiva. El átomo se
consideraba como una esfera con carga positiva con electrones repartidos
como pequeños gránulos. La herramienta principal con la que contó
Thomson para su modelo atómico fue la electricidad.
El nuevo modelo atómico usó la amplia evidencia obtenida gracias al
estudio de los rayos catódicos a lo largo de la segunda mitad del siglo XIX.
Si bien el modelo atómico de Dalton daba debida cuenta de la formación
de los procesos químicos, postulando átomos indivisibles, la evidencia
adicional suministrada por los rayos catódicos sugería que esos átomos
contenían partículas eléctricas de carga negativa. El modelo de Dalton
ignoraba la estructura interna, pero el modelo de Thomson agregaba las
virtudes del modelo de Dalton y simultáneamente podía explicar los
hechos de los rayos catódicos.
9
Si bien el modelo de Thomson explicaba adecuadamente muchos de los
hechos observados de la química y los rayos catódicos, hacía predicciones
incorrectas sobre la distribución de la carga positiva dentro de los átomos.
Las predicciones del modelo de Thomson resultaban incompatibles con los
resultados del experimento de Rutherford, que sugería que la carga
positiva estaba concentrada en una pequeña región en el centro del
átomo, que es lo que más tarde se conoció como núcleo atómico. El
modelo atómico de Rutherford, permitió explicar esto último, revelando la
existencia de un núcleo atómico cargado positivamente y de elevada
densidad.5
Otro hecho que el modelo de Thomson había dejado por explicar era la
regularidad de la tabla periódica de Mendeleiev. Los modelos de Bohr,
Sommerfeld y Schrödinger finalmente explicarían las regularidades
periódicas en las propiedades de los elementos químicos de la tabla, como
resultado de una disposición más estructurada de los electrones en el
átomo, que ni el modelo de Thomson ni el modelo de Rutherford habían
considerado.

Modelo atómico de Rutherford


El modelo atómico de Rutherford es un modelo atómico o teoría sobre la
estructura interna del átomo propuesto por el químico y físico británico-
neozelandés Ernest Rutherford para explicar los resultados de su
«experimento de la lámina de oro», realizado en 1911.
Rutherford llegó a la conclusión de que la masa del átomo se concentraba
en una región pequeña de cargas positivas que impedían el paso de las
10
partículas alfa. Sugirió un nuevo modelo en el cual el átomo poseía un
núcleo o centro en el cual se concentra la masa y la carga positiva, y que
en la zona extranuclear se encuentran los electrones de carga negativa.
Antes de que Rutherford propusiera su modelo atómico, los físicos
aceptaban que las cargas eléctricas en el átomo tenían una distribución
más o menos uniforme. Rutherford trató de ver cómo era la dispersión de
las partículas alfa por parte de los átomos de una lámina de oro muy
delgada. Los ángulos resultantes de la desviación de las partículas
supuestamente aportarían información sobre cómo era la distribución de
carga en los átomos. Era de esperar que, si las cargas estaban distribuidas
uniformemente según el modelo atómico de Thompson, la mayoría de las
partículas atravesarían la delgada lámina sufriendo solo ligerísimas
deflexiones, siguiendo una trayectoria aproximadamente recta. Aunque
esto era cierto para la mayoría de las partículas alfa, un número importante
de estas sufrían deflexiones de cerca de 180º, es decir, prácticamente
salían rebotadas en dirección opuesta al incidente.
La importancia del modelo de Rutherford residió en proponer por primera
vez la existencia de un núcleo central en el átomo (término que acuñó el
propio Rutherford en 1912, un año después de que los resultados de
Geiger y Mardsen fueran anunciados oficialmente). Lo que Rutherford
consideró esencial, para explicar los resultados experimentales, fue «una
concentración de carga» en el centro del átomo, ya que, sin ella, no podía
explicarse que algunas partículas fueran rebotadas en dirección casi
opuesta a la incidente. Este fue un paso crucial en la comprensión de la
materia, ya que implicaba la existencia de un núcleo atómico donde se
concentraba toda la carga positiva y más del 99,9 % de la masa. Las
estimaciones del núcleo revelaban que el átomo en su mayor parte estaba
vacío.

Rutherford propuso que los electrones orbitarían en ese espacio vacío


alrededor de un minúsculo núcleo atómico, situado en el centro del átomo.
Además, se abrían varios problemas nuevos que llevarían al
descubrimiento de nuevos hechos y teorías al tratar de explicarlos:

11
 Por un lado, se planteó el problema de cómo un conjunto de cargas
positivas podían mantenerse unidas en un volumen tan pequeño,
hecho que llevó posteriormente a la postulación y descubrimiento de
la fuerza nuclear fuerte, que es una de las cuatro interacciones
fundamentales.
 Por otro lado, existía otra dificultad proveniente de la electrodinámica
clásica que predice que una partícula cargada y acelerada, como
sería el caso de los electrones orbitando alrededor del núcleo,
produciría radiación electromagnética, perdiendo energía y
finalmente cayendo sobre el núcleo. Las leyes de Newton, junto con
las ecuaciones de Maxwell del electromagnetismo aplicadas al átomo
de Rutherford llevan a que en un tiempo del orden de {\displaystyle
10^{-10}} 10^{-10}s, toda la energía del átomo se habría radiado, con
la consiguiente caída de los electrones sobre el núcleo. Se trata, por
tanto de un modelo físicamente inestable, desde el punto de vista de
la física clásica.
Según Rutherford, las órbitas de los electrones no están muy bien
definidas y forman una estructura compleja alrededor del núcleo, dándole
un tamaño y forma algo indefinidas. Los resultados de su experimento le
permitieron calcular que el radio atómico era diez mil veces mayor que el
núcleo mismo, y, en consecuencia, que el interior de un átomo está
prácticamente vacío.
El modelo atómico de Rutherford fue sustituido muy pronto por el de Bohr.
Bohr intentó explicar fenomenológicamente que solo algunas órbitas de los
electrones son posibles. Lo cual daría cuenta de los espectros de emisión
y absorción de los átomos en forma de bandas discretas.

El modelo de Bohr «resolvía» formalmente el problema, proveniente de la


electrodinámica, postulando que sencillamente los electrones no radiaban,
hecho que fue explicado por la mecánica cuántica según la cual la
aceleración promedio del electrón deslocalizado es nula.

12
Modelo atómico de Bohr
El modelo atómico de Bohr es un modelo clásico del átomo, pero fue el
primer modelo atómico en el que se introduce una cuantización a partir de
ciertos postulados. Dado que la cuantización del momento es introducida
en forma ad hoc, el modelo puede considerarse transicional en cuanto a
que se ubica entre la mecánica clásica y la cuántica. Fue propuesto en
1913 por el físico danés Niels Bohr, para explicar cómo los electrones
pueden tener órbitas estables alrededor del núcleo y por qué los átomos
presentaban espectros de emisión característicos (dos problemas que eran
ignorados en el modelo previo de Rutherford). Además el modelo de Bohr
incorporaba ideas tomadas del efecto fotoeléctrico, explicado por Albert
Einstein en 1905.
Bohr intentaba hacer un modelo atómico capaz de explicar la estabilidad
de la materia y los espectros de emisión y absorción discretos que se
observan en los gases. Describió el átomo de hidrógeno con un protón en
el núcleo, y girando a su alrededor un electrón. El modelo atómico de Bohr
partía conceptualmente del modelo atómico de Rutherford y de las
incipientes ideas sobre cuantización que habían surgido unos años antes
con las investigaciones de Max Planck y Albert Einstein.
En este modelo los electrones giran en órbitas circulares alrededor del
núcleo, ocupando la órbita de menor energía posible, o la órbita más
cercana posible al núcleo. El electromagnetismo clásico predecía que una
partícula cargada moviéndose de forma circular emitiría energía por lo que
los electrones deberían colapsar sobre el núcleo en breves instantes de
tiempo. Para superar este problema Bohr supuso que los electrones
solamente se podían mover en órbitas específicas, cada una de las cuales

13
caracterizada por su nivel energético. Cada órbita puede entonces
identificarse mediante un número entero n que toma valores desde 1 en
adelante. Este número "n" recibe el nombre de número cuántico principal.
Bohr supuso además que el momento angular de cada electrón estaba
cuantizado y solo podía variar en fracciones enteras de la constante de
Planck. De acuerdo al número cuántico principal calculó las distancias a
las cuales se hallaba del núcleo cada una de las órbitas permitidas en el
átomo de hidrógeno. Estos niveles en un principio estaban clasificados por
letras que empezaban en la "K" y terminaban en la "Q". Posteriormente los
niveles electrónicos se ordenaron por números. Cada órbita tiene
electrones con distintos niveles de energía obtenida que después se tiene
que liberar y por esa razón el electrón va saltando de una órbita a otra
hasta llegar a una que tenga el espacio y nivel adecuado, dependiendo de
la energía que posea, para liberarse sin problema y de nuevo volver a su
órbita de origen. Sin embargo no explicaba el espectro de estructura fina
que podría ser explicado algunos años más tarde gracias al modelo
atómico de Sommerfeld. Históricamente el desarrollo del modelo atómico
de Bohr junto con la dualidad onda-corpúsculo permitiría a Erwin
Schrödinger descubrir la ecuación fundamental de la mecánica cuántica.
En 1913, Niels Bohr desarrolló su célebre modelo atómico de acuerdo a
tres postulados fundamentales:
Primer postulado
Los electrones describen órbitas circulares en torno al núcleo del átomo sin
irradiar energía.
Segundo postulado
Las únicas órbitas permitidas para un electrón son aquellas para las cuales
el momento angular, L del electrón sea un múltiplo entero de h=h/2π
Tercer postulado
El electrón solo emite o absorbe energía en los saltos de una órbita
permitida a otra. En dicho cambio emite o absorbe un fotón cuya energía
es la diferencia de energía entre ambos niveles.
Se puede demostrar que este conjunto de hipótesis corresponde a la
hipótesis de que los electrones estables orbitando un átomo están
14
descritos por funciones de onda estacionarias. Un modelo atómico es una
representación que describe las partes que tiene un átomo y como están
dispuestas para formar un todo. Basándose en la constante de Planck
{\displaystyle E=h\nu \,} E=h\nu \, consiguió cuantizar las órbitas
observando las líneas del espectro.

Modelo atómico de Sommerfeld


El modelo atómico de Sommerfeld1 es un modelo atómico hecho por el
físico alemán Arnold Sommerfeld2 (1868-1951) que básicamente es una
generalización relativista del modelo atómico de Bohr (1913).
En 1916, Sommerfeld perfeccionó el modelo atómico de Bohr intentando
paliar los dos principales defectos de este. Para eso introdujo dos
modificaciones básicas: Órbitas casi-elípticas para los electrones y
velocidades relativistas. En el modelo de Bohr los electrones solo giraban
en órbitas circulares. La excentricidad de la órbita dio lugar a un nuevo
número cuántico: el número cuántico azimutal, que determina la forma de
los orbitales, se lo representa con la letra l y toma valores que van desde 0
hasta n-1. Las órbitas son:
l = 0 se denominarían posteriormente orbitales s o sharp
l = 1 se denominarían p o principal.

15
l = 2 se denominarían d o diffuse.
l = 3 se denominarían f o fundamental.
Para hacer coincidir las frecuencias calculadas con las experimentales,
Sommerfeld postuló que el núcleo del átomo no permanece inmóvil, sino
que tanto el núcleo como el electrón se mueven alrededor del centro de
masas del sistema, que estará situado muy próximo al núcleo al tener este
una masa varios miles de veces superior a la masa del electrón.
Para explicar el desdoblamiento de las líneas espectrales, observado al
emplear espectroscopios de mejor calidad, Sommerfeld supuso que las
órbitas del electrón pueden ser circulares y elípticas. Introdujo el número
cuántico secundario o azimutal, en la actualidad llamado l, que tiene los
valores 0, 1, 2,…(n-1), e indica el momento angular del electrón en la
órbita en unidades de {\displaystyle {\frac {h}{2\pi }}} {\displaystyle {\frac
{h}{2\pi }}}, determinando los subniveles de energía en cada nivel cuántico
y la excentricidad de la órbita.
En 1916, Arnold Sommerfeld, con la ayuda de la teoría de la relatividad de
Albert Einstein, hizo las siguientes modificaciones al modelo de Bohr:

1. Los electrones se mueven alrededor del núcleo, en órbitas circulares


o elípticas.
2. A partir del segundo nivel energético existen dos o más subniveles
en el mismo nivel.
3. El electrón es una corriente eléctrica minúscula.
En consecuencia, el modelo atómico de Sommerfeld es una generalización
del modelo atómico de Bohr desde el punto de vista relativista, aunque no
pudo demostrar las formas de emisión de las órbitas elípticas, solo
descartó su forma circular.

16
Modelo atómico de Schrödinger
El modelo atómico de Schrödinger12 (1926) es un modelo cuántico no
relativista. En este modelo los electrones se contemplaban originalmente
como una onda estacionaria de materia cuya amplitud decaía rápidamente
al sobrepasar el radio atómico.
El modelo de Bohr funcionaba muy bien para el átomo de hidrógeno. En
los espectros realizados para otros átomos se observaba que electrones
de un mismo nivel energético tenían energías ligeramente diferentes. Esto
no tenía explicación en el modelo de Bohr, y sugería que se necesitaba
alguna corrección. La propuesta fue que dentro de un mismo nivel
energético existían subniveles. La forma concreta en que surgieron de
manera natural estos subniveles, fue incorporando órbitas elípticas y
correcciones relativistas. Así, en 1916, Arnold Sommerfeld modificó el
modelo atómico de Bohr, en el cual los electrones solo giraban en órbitas
circulares, al decir que también podían girar en órbitas elípticas más
complejas y calculó los efectos relativistas.
El modelo atómico de Schrödinger concebía originalmente los electrones
como ondas de materia. Así la ecuación se interpretaba como la ecuación
ondulatoria que describía la evolución en el tiempo y el espacio de dicha
onda material. Más tarde Max Born propuso una interpretación
probabilística de la función de onda de los electrones. Esa nueva
interpretación es compatible con los electrones concebidos como
partículas cuasipuntuales cuya probabilidad de presencia en una
determinada región viene dada por la integral del cuadrado de la función
de onda en una región. Es decir, en la interpretación posterior del modelo,
este era modelo probabilista que permitía hacer predicciones empíricas,

17
pero en el que la posición y la cantidad de movimiento no pueden
conocerse simultáneamente, por el principio de incertidumbre. Así mismo
el resultado de ciertas mediciones no están determinadas por el modelo,
sino solo el conjunto de resultados posibles y su distribución de
probabilidad.
El modelo atómico de Schrödinger predice adecuadamente las líneas de
emisión espectrales, tanto de átomos neutros como de átomos ionizados.
El modelo también predice la modificación de los niveles energéticos
cuando existe un campo magnético o eléctrico (efecto Zeeman y efecto
Stark respectivamente). Además, con ciertas modificaciones
semiheurísticas el modelo explica el enlace químico y la estabilidad de las
moléculas. Cuando se necesita una alta precisión en los niveles
energéticos puede emplearse un modelo similar al de Schrödinger, pero
donde el electrón es descrito mediante la ecuación relativista de Dirac en
lugar de mediante la ecuación de Schrödinger. En el modelo de Dirac, se
toma en cuenta la contribución del espín del electrón.

Sin embargo, el nombre de "modelo atómico" de Schrödinger puede llevar


a una confusión ya que no define la estructura completa del átomo. El
modelo de Schrödinger explica solo la estructura electrónica del átomo y
su interacción con la estructura electrónica de otros átomos, pero no
describe cómo es el núcleo atómico ni su estabilidad.
Si bien el modelo de Schrödinger describe adecuadamente la estructura
electrónica de los átomos, resulta incompleto en otros aspectos:
1. El modelo de Schrödinger en su formulación original no tiene en
cuenta el espín de los electrones, esta deficiencia es corregida por el
modelo de Schrödinger-Pauli.
2. El modelo de Schrödinger ignora los efectos relativistas de los
electrones rápidos, esta deficiencia es corregida por la ecuación de
Dirac que además incorpora la descripción del espín electrónico.
3. El modelo de Schrödinger si bien predice razonablemente bien los
niveles energéticos, por sí mismo no explica por qué un electrón en
un estado cuántico excitado decae hacia un nivel inferior si existe
alguno libre. Esto fue explicado por primera vez por la

18
electrodinámica cuántica y es un efecto de la energía del punto cero
del vacío cuántico.
Cuando se considera un átomo de hidrógeno los dos primeros aspectos
pueden corregirse añadiendo términos correctivos al hamiltoniano atómico.

Modelo atómico de Chadwick.


En 1932 un físico inglés, James Chadwick, confirmó la existencia de otra
partícula subatómica de la que se tenían múltiples sospechas: el neutrón.
Los neutrones son partículas subatómicas que no tienen carga eléctrica, y
cuya masa es casi igual a la de los protones.
El neutrón es una partícula subatómica que no tiene carga eléctrica. Su
masa es casi igual a la del protón.
Chadwik determinó mediante el estudio de reacciones nucleares la masa
del Neutrón, el cual no posee carga (Por eso le llamaron Neutrón) siendo
ésta de:
mn = 1.6750 x 10-24 g
n = neutrón

19
 Efecto piel.
El efecto pelicular es un efecto eléctrico muy curioso. Se da únicamente en
corriente alterna, y consiste en que la densidad de corriente se da
principalmente por el exterior del conductor.
En un conductor, la circulación de una corriente se distribuye en la
superficie de su sección de acuerdo a la frecuencia. En corriente continua
o alterna de muy baja frecuencia, toda la sección conduce. A medida que
la frecuencia aumenta, la circulación sólo se produce por las zonas
exteriores del conductor. A frecuencias muy altas, sólo conduce la
superficie exterior. Esto se conoce como “efecto Skin” (efecto Piel)
Este fenómeno hace que la resistencia efectiva o de corriente alterna sea
mayor que la resistencia óhmica o de corriente continua. Este efecto es el
causante de la variación de la resistencia eléctrica, en corriente alterna, de
un conductor debido a la variación de la frecuencia de la corriente eléctrica
que circula por éste.
El efecto pelicular (o piel) es un fenómeno electromagnético debido a la
dificultad de los campos electromagnéticos de penetrar en los materiales
conductores. Se demuestra directamente de las ecuaciones de Maxwell
(que son la mejor forma de describir estos fenómenos de forma clásica), y
se confirma para diámetros del conductor superiores a 3 veces la distancia
de la superficie a la que circula la carga para una misma frecuencia. En
cuanto pueda voy a consultar ése artículo para ver la demostración, pero lo
que sé hasta ahora es que sólo depende de la frecuencia, es decir, a
mayor frecuencia, más cerca de la superficie circula la carga.

20
En corriente continua, la densidad de corriente es similar en todo el
conductor (figura a), pero en corriente alterna se observa que hay una
mayor densidad de corriente en la superficie que en el centro (figura b).
Este fenómeno se conoce como efecto pelicular, efecto skin o efecto
Kelvin. Hace que la resistencia efectiva o de corriente alterna sea mayor
que la resistencia óhmica o de corriente continua.

Este efecto es apreciable en conductores de grandes secciones,


especialmente si son macizos. Aumenta con la frecuencia, en aquellos
conductores con cubierta metálica o si están arrollados en un núcleo
ferromagnético.
Una forma de mitigar este efecto es el empleo en las líneas y en los
inductores del denominado hilo de Litz, consistente en un cable formado
por muchos conductores de pequeña sección aislados unos de otros y
unidos solo en los extremos. De esta forma se consigue un aumento de la
zona de conducción efectiva.
Otra forma de reducir su efecto es fabricar los conductores huecos, las
llamadas barras de las subestaciones que son conductores rígidos en vez
de los conductores habituales.
El efecto piel es que en la transmisión de corriente alterna entre más alta
sea la tensión es más visible este efecto lo que pasa es que la corriente no
se transmite en toda el área de sección transversal del conductor, sino que
la mayor parte se hace por la periferia, en los conductores de muy alta
tensión para evitar la pérdida del material conductor se hacen huecos, ya
que por el centro no conduce corriente, o son muy bajas casi

21
despreciables. Por eso el ACSR. El alma de acero no es para transmitir
corriente, es para mejorar las propiedades mecánicas del conductor al que
está expuesto.

Hay 4 palabras claves para entender este concepto:


Frecuencia, profundidad de piel, flujo de electrones e impedancia del
conductor.
Como sabemos no es lo mismo la corriente que circula por un alambre
recto que por uno enrollado. Concentrémonos en el alambre recto:
Su hay una corriente en este alambre recto y dicha corriente es alterna se
produce en Campo magnético E, que se expande y contrae a lo largo del
conductor, y provoca un voltaje el cual se opone al flujo de corriente,
bueno esto se conoce como auto-inductancia.
Ahora Imaginemos que este voltaje que se opone a la corriente en el
centro (ES UNA IMPEDANCIA) del conductor, se hace más grande con la
frecuencia, provocando que el flujo de electrones tome el camino más fácil,
(donde la impedancia es menor) que es cerca del exterior. Por otra parte,
la profundidad de piel en el conductor en el cual la densidad corriente de la
onda portadora cae (1/e), o el 37% de su valor a lo largo de la superficie,
es conocida como profundidad de piel y es función de la frecuencia,
permeabilidad y conductividad del medio.
Así, diversos conductores, tales como plata, aluminio, y cobre, tienen
diversas profundidades de piel. El resultado neto del efecto piel es una
disminución eficaz en el área de la superficie transversal del conductor, y,
por lo tanto, un aumento neto en la resistencia de AC del alambre. Por

22
ejemplo, para el cobre, la profundidad de piel es aproximadamente 0. 85
cm en 60 Hz y 0. 007 cm a 1Mhz, el flujo de electrones pierde la
profundidad en el centro y tiende a viajar por las orillas, se redujo
completamente el área transversal de conducción. Observando este
ejemplo de otra forma, el 63% del flujo de corriente de RF en el alambre de
cobre fluirá a una distancia de 0. 007 cm del borde exterior del cable.

 Efecto resistivo.
Resistencia eléctrica es toda oposición que encuentra la corriente a su
paso por un circuito eléctrico cerrado, atenuando o frenando el libre flujo
de circulación de las cargas eléctricas o electrones. Cualquier dispositivo o
consumidor conectado a un circuito eléctrico representa en sí una carga,
resistencia u obstáculo para la circulación de la corriente eléctrica.

A.- Electrones fluyendo por un buen conductor eléctrico, que ofrece baja
resistencia. B.- Electrones fluyendo por un mal conductor. eléctrico, que
ofrece alta resistencia a su paso. En ese caso los electrones chocan unos
contra otros al no poder circular libremente y, como consecuencia, generan
calor.
Normalmente los electrones tratan de circular por el circuito eléctrico de
una forma más o menos organizada, de acuerdo con la resistencia que
encuentren a su paso. Mientras menor sea esa resistencia, mayor será el
orden existente en el micromundo de los electrones; pero cuando la
resistencia es elevada, comienzan a chocar unos con otros y a liberar
energía en forma de calor. Esa situación hace que siempre se eleve algo la
temperatura del conductor y que, además, adquiera valores más altos en
el punto donde los electrones encuentren una mayor resistencia a su paso.

23
Responsable del calentamiento del conductor y de caída de tensión a lo
largo del conductor. La resistencia depende del tipo de material del cual esté
hecho. Este efecto es dominante sobre los demás en redes de baja tensión,
debidos al calibre de los conductores que se emplean en dichos niveles de
tensión.
Una resistencia ideal es un elemento pasivo que disipa energía en forma de
calor según la ley de Joule. También establece una relación de
proporcionalidad entre la intensidad de corriente que la atraviesa y la tensión
medible entre sus extremos, relación conocida como ley de Ohm:
U(t) = R*i(t)

donde i(t) es la corriente eléctrica que atraviesa la resistencia de valor R y


u(t) es la diferencia de potencial que se origina. En general, una resistencia
real podrá tener diferente comportamiento en función del tipo de corriente
que circule por ella.

El conductor es el encargado de unir eléctricamente cada uno de los


componentes de un circuito. Dado que tiene resistencia óhmica, puede ser
considerado como otro componente más con características similares a las
de la resistencia eléctrica.

De este modo, la resistencia de un conductor eléctrico es la medida de la


oposición que presenta al movimiento de los electrones en su seno, es decir
la oposición que presenta al paso de la corriente eléctrica. Generalmente su
valor es muy pequeño y por ello se suele despreciar, esto es, se considera
que su resistencia es nula (conductor ideal), pero habrá casos particulares
en los que se deberá tener en cuenta su resistencia (conductor real).

RESISTENCIA DE LA LINEA

Los conductores que normalmente se utilizan en líneas aéreas son de


aluminio y alma de acero reforzado (ACSR), conductor totalmente de
aluminio (AAC), conductor totalmente de aleación de aluminio (AAAC),
conductor de aluminio reforzado (ACAR). Estos conductores de estos
materiales ofrecen buenas características a la tracción mecánica (caso del
ACSR), buena conductividad y además poseen poco peso.
Para determinar el efecto resistivo de los conductores se puede hacer por
cálculos o por mediciones. En primera instancia parece sencillo el cálculo
de la resistencia de un conductor, pero hay varios factores que complican
24
dicho cálculo. Estos factores son los siguientes: la temperatura, efecto skin
(pelicular), la forma espiral de los hilos que componen el conductor
(espiralización), la frecuencia de la corriente, la tierra como sistema de
retorno.
El valor de la resistencia efectiva se puede obtener a partir de la medición
de pérdida de potencia y del valor efectivo de la corriente. El valor de la
resistencia obtenido de esta manera sería:

𝑃𝑒𝑟𝑑𝑖𝑑𝑎𝑠 𝑑𝑒 𝑝𝑜𝑡𝑒𝑛𝑐𝑖𝑎 𝑒𝑛 𝑒𝑙 𝑐𝑜𝑛𝑑𝑢𝑐𝑡𝑜𝑟


𝑅= Ω
𝐼2
La resistencia DC de un conductor de material uniforme se puede calcular
como:

𝜌𝑙
𝑅𝐷𝐶 =
𝐴
Donde,

RDC = resistencia DC del conductor en W.


A = área de la sección transversal del conductor, en m²
l = longitud del conductor, en m.
𝜌 = resistividad del material del conductor, en W.m
2.83 x 10-8 W.m para el aluminio a 20 °C.

La resistividad del material del conductor varía en forma aproximadamente


lineal con la temperatura. Esta variación se puede calcular con la siguiente
expresión:

𝑇2 + 𝑇0
𝜌2 = 𝜌1
𝑇1 + 𝑇0
Donde,
T2, T1 son las temperaturas en °C correspondientes a las
Resistividades 𝜌2 y 𝜌1 respectivamente.

T0 es una constante que puede tomar los siguientes valores,


234.5 para cobre recocido de 100% de conductividad,
241 para cobre estirado en frío de 97.3% de conductividad,
228 para aluminio estirado en frío de 61% de conductividad.

25
INFLUENCIA DEL EFECTO SKIN EN LA RESISTENCIA

La resistencia también se ve afectada por el efecto skin (pelicular o


superficial). Este consiste en la tendencia que tiene la corriente alterna a
concentrarse en la superficie del conductor, efecto que se incrementa con la
frecuencia. La resistencia se ve incrementada con este efecto ya que
disminuye al área efectiva del conductor para transportar la corriente. El
cálculo del incremento de la resistencia debido al efecto skin es complejo,
dando lugar a ecuaciones tipo Bessel. Para efectos prácticos la corrección
por este efecto se va a considerar al tomar el valor de resistencia a la
corriente alterna de las tablas que suministran los fabricantes. Este valor se
da para la frecuencia de trabajo del conductor, a una temperatura
determinada y para diferentes valores de corriente (pequeñas y »75% de la
corriente nominal).

INFLUENCIA DEL SISTEMA DE RETORNO EN LA


RESISTENCIA.

Cuando el sistema de retorno de una corriente es un conductor físico o una


tierra de características ideales (𝜌 =0.0), la resistencia total será
simplemente la suma de las dos resistencias de los respectivos
conductores, el de fase y el de retorno. Cuando el sistema de retorno lo
constituye la tierra física la resistencia total está dada por las correcciones
de Carson:

𝑅𝑇𝑂𝑇𝐴𝐿 = 𝑅𝐴𝐶 + ∆𝑅
Donde ∆𝑅 es una serie infinita.

𝜋 4 𝑓
∆𝑅 = 8𝜋 × 10−4 × 𝑓 [ − √10𝜋 × 10−4 × ℎ√ … ]
8 3 𝜌
Donde,

h es la altura del conductor con respecto a la superficie del suelo en


m.
f es la frecuencia de la corriente en hz.
𝜌 es la resistividad del suelo en W.m.

26
Para cálculos a 60 hz. una solución que se considera práctica es considerar
únicamente el primer término de la serie. Para este caso la corrección sería
un término constante que es independiente de la altura del conductor. En lo
sucesivo a este término constante de corrección por retorno por tierra se le
llamará Rn, y su valor será:


𝑅𝑛 = 0.0592
𝐾𝑚

27
 Materiales conductores.

28
 Materiales conductores aplicados en la ingeniería eléctrica.
Los materiales conductores son aquellos que ofrecen poca resistencia al
paso de la electricidad, por lo que se transforman en las mejores formas de
distribuir la energía en el espacio físico.

Si bien todos los materiales permiten la conducción de corriente eléctrica


en algún grado, la diferencia se percibe en la efectividad que presentan
para transportar energía.
Se reconocen como conductores a aquellos que mejor lo hacen, mientras
que por el contrario serán aislantes los materiales que no dejen pasar la
electricidad. Existe un nivel medio entre ambos constituido por los
materiales semiconductores, que se comportan como aislantes en ciertas
circunstancias, pero su conductividad puede alterarse de acuerdo a las
condiciones en las que se encuentre.
Químicamente, el proceso que ocurre con los materiales conductores es
que algunos electrones pasan libremente de un átomo a otro por un
proceso de diferencia de potencial entre los extremos del conductor.
Precisamente este movimiento de los electrones es la corriente eléctrica.
Los conductores, entonces, son los que cuentan con un gran número de
electrones libres que se mueven a través del material, transmitiendo con
mayor facilidad la carga de un objeto a otro. Para describir estos
materiales, en muchas ocasiones se realiza la comparación con una
tubería por la que pasa un fuerte caudal de agua.
Los mecanismos de conductividad no son idénticos en los tres estados de
la materia. En el caso de los líquidos, la conductividad se relaciona con la
presencia de sales en solución, al tiempo que en los sólidos la

29
conductividad tiene que ver con las bandas de valencia y la formación de
una nube de electrones.
De acuerdo a la forma en la que se realiza y fundamenta la conducción, los
materiales de este tipo suelen clasificarse de la siguiente manera:
 Conductores metálicos: Son los que tienen una conducción
electrónica, pues los portadores de las cargas son electrones libres.
Esto ocurre precisamente porque a este grupo pertenecen los
metales y las aleaciones.
|Metal |Conductividad (S/m( |
| |a temperatura ambiente |
|Plata |6,8 x 107 |
|Cobre |6,0 x 107 |
|Oro|4,3 x 107 |
|Aluminio |3,8 x 107 |
|Latón (70 % Cu – 30 % Zn) |1,6 x 107 |
|Acero simple |0,6 x 107 |
|Acero inoxidable |0,2 x 107|
 Conductores electrolíticos: Son los que tienen una conducción de
tipo iónica, en donde las sustancias se disocian total o parcialmente
formando iones positivos o negativos, que son los portadores de
cargas. Aquí el paso de la corriente eléctrica se produce en
consonancia con un desplazamiento de materia y con una reacción
química. son sustancias que, al disolverse en agua, son capaces de
conducir la electricidad, ejemplos de estos son las sales, los ácidos y
las bases.
Algunos óxidos, al disolverse en agua, forman bases o ácidos y por lo
tanto conducen la corriente eléctrica.
Existen sustancias que no conducen la electricidad al disolverse en agua,
estas reciben el nombre de no electrolitos.

30
Esa es la diferencia entre un electrolito y un no electrolito, que, al
disolverse en agua, el primero produce iones en solución y el segundo no.
Cuando en una solución se ha formado un número suficiente de iones,
esta es capaz de conducir la corriente eléctrica.
Para determinar si una sustancia en solución es un electrolito o no
electrolito, se utiliza un sencillo aparato, constituido por un par de
electrodos conectados a un foco, una pila y un vaso de precipitados.

 Materiales conductores gaseosos: Son aquellos gases que han sido


ionizados, y con ello han adquirido la capacidad de conducir la
electricidad. Si bien no se utilizan con frecuencia, el aire es un gas y
es un gran conductor de la electricidad, lo que se evidencia en los
rayos y las descargas eléctricas de ese tipo.

31

You might also like