You are on page 1of 248

Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.

html

Introducción a la Informática. Estudios GAP,


facultad Derecho
Capítulo 1. Introducción. El método científico

Asignaturas
Introducción a la Informática
Introducción
Ofimática
La información
Historia de la Informática
Representación de la información
Periféricos de un ordenador
Lenguajes de programación
Sistemas operativos
Redes y comunicaciones
Informática Aplicada a la Gestión Pública
Introducción a la ingeniería del software
Metodologías de desarrollo
Metodologías habituales
Bases de datos. Introducción
Bases de datos. Organización ficheros
Bases de datos relacionales
Bases de datos comerciales
Introducción a internet
Intercambio electrónico de datos (EDI)
Comercio electrónico
Teletrabajo
Calidad
Informática Aplicada al Trabajo Social
Fundamentos de los ordenadores
Los ordenadores en la actualidad
Introducción al hardware
Fundamentos del software
Aplicaciones software
Diversos usos de los ordenadores
Comercio electrónico
Inteligencia artificial
Prácticas
Visión general de la informática
Internet
Editores de textos
Hojas de cálculo
Bases de datos
Lenguaje Pascal
Avisos
Escepticismo
Divulgación
Informática

1 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

Ciencia en general
Biología
Criminología
Inicio
Contacte

La ciencia y el método científico


Ejemplo del método científico
Escepticismo y pensamiento crítico
Algunos casos en la informática

1.1 La ciencia y el método científico

Es habitual que los humanos busquemos explicaciones sobre lo que vemos, sentimos y oímos, que una
vez encontradas suelen ser complejas y variadas. Es la forma de trabajar de nuestra mente, que usa la
inteligencia para comprender mejor nuestras experiencias.

Con frecuencia es suficiente designar con un nombre a una situación sucedida. Por ejemplo, un agricultor
escucha un sonido fuerte procedente del cielo y dice "es un trueno". Pero no siempre el nombre nos da
suficiente información sobre el tema, aunque si es tranquilizador el hecho de ser capaces de asignar un
nombre, esto significa que hemos tenido una experiencia similar previamente y que podemos reconocerla.
Nos indica que otras personas también han percibido el mismo tipo de hechos.

A partir de nuestra experiencia podemos deducir lo que ocurrirá a continuación. El agricultor dirá "lloverá
pronto". Hemos sido capaces de organizar nuestras percepciones de forma que podemos reconocerlas
como modelos comunes y hemos aprendido a utilizar una información que nos ayuda a comprender
aquello con los que nos encontramos en la vida cotidiana. El agricultor puede decir "dios se ha enfadado y
manda estos rayos contra nosotros, pronto se compadecerá y enviará lluvia". En otras ocasiones el mismo
dios enviará sol, o viento, o nieve.

Teorías

Las teorías se desarrollan como respuestas a preguntas del tipo ¿por qué? o ¿cómo?. Se observa alguna
secuencia de hechos, alguna regularidad en torno a dos o más variables y alguien se pregunta por qué esto
es así. Una teoría intenta explicar los hechos y consiste en:

Un conjunto de definiciones que claramente describen las variables que se van a utilizar
Un conjunto de supuestos que delinean las condiciones bajo las cuales se va a aplicar la teoría
Una o más hipótesis sobre el comportamiento de estas variables
Predicciones que se deducen de los supuestos de la teoría, y que se pueden contrastar con datos
efectivos obtenidos de observaciones o experimentos.

Una de las principales consecuencias de las teorías es que nos sirven para predecir hechos que todavía no
han sucedido. De esta forma podemos comprobar si una teoría es correcta o no, haciendo experimentos
cuyos resultados pueden no sólo demostrar que la teoría es falsa, sino también sugerir dónde se equivoca,
y de esta forma se pueden proponer teorías corregidas.

Criterios de aceptación de una teoría

La pregunta que lógicamente aparece a continuación es ¿cuáles son los criterios necesarios para convencer
a alguien que una explicación dada es correcta?. Por supuesto, la respuesta depende del tipo de persona.

2 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

Para alguien que se inclina por aceptar una explicación teísta puede ser suficiente con verificar que la
explicación coincide con la de los libros religiosos, otras personas aceptan una idea si está avalada por
alguien al que se le considera instruido e inteligente. Ambos argumentos seguro que no convencen a un
auditorio científico.

Puede haber más de una explicación científica sobre una cuestión. A veces una explicación puede incluir
a otra, por ejemplo la teoría cinética de los gases engloba la ley de Gay-Lussac. Un examen de casos en
los que las nuevas teorías sobre la naturaleza han sido aceptadas puede ser de mucha ayuda.

Supongamos que en un período de la historia se haya aceptado una teoría sobre la naturaleza que
proporciona una explicación de los sucesos y que es válida en muchos casos, llamémosla primera teoría
aceptada. Supongamos que esta teoría tenga algunos defectos que son reconocidos por lo menos por
algunos científicos, en estas condiciones debe proponerse una nueva teoría, en cierto modo para subsanar
estos defectos. Seguidamente se comentan factores de gran ayuda con vistas a convencer a la comunidad
científica que acepte una nueva teoría:

A) Reductibilidad

La nueva teoría debe ser por lo menos tan buena como la antigua. La norma que se sigue para demostrar
este criterio consiste en demostrar que en las situaciones pertinentes la nueva teoría se reduce a la antigua.

Cuando se ha acumulado un gran cuerpo de información en un campo, cualquier modificación debe tener
en cuenta todos los logros de las teorías existentes. Esto significa que toda persona que desee aportar algo
en este campo, debe conocerlo muy bien, una teoría expuesta por un individuo inexperto es muy difícil
que llegue a ser considerada.

El primer criterio puede resumirse de la siguiente forma: una teoría nueva debe conducir a los mismos
resultados obtenidos con las teorías aceptadas previamente en todos los casos que se ha probado que son
útiles.

B) Innovación

La nueva teoría debe ser mejor que la antigua, no es suficiente dar los mismos resultados que la anterior.
Se dice que ambas teorías son equivalentes cuando en todos los casos las predicciones de la nueva teoría
son las mismas que las de la antigua y la elección entre una u otra es cuestión de gustos. Si
verdaderamente la nueva teoría debe reemplazar a la anterior, debe añadir algo nuevo.

Por ejemplo, la teoría cinética de los gases no sólo reproduce todos los
logros de Gay-Lussac y Arquímedes, sino que ayuda a explicar
fenómenos sobre los que las antiguas teorías no tenían nada que decir.
Con ayuda de la teoría cinética podemos calcular, por ejemplo la
velocidad del sonido y la resistencia que el aire ofrece a los proyectiles
que lo atraviesan.

Es más importante el caso en el que una teoría nueva es capaz de


obtener predicciones correctas donde la antigua fallaba. Esto sucedió
en el año 1900 cuando la física decía que los electrones de los átomos
al describir órbitas a su alrededor deben radiar energía y por lo tanto
caerían en espiral hacia el centro de la órbita. Como los átomos son
estables, pues caso contrario no estaríamos nosotros aquí, la teoría
anterior no es correcta. Fue necesaria la aparición de la Física Cuántica
para explicar los hechos experimentales. Una nueva teoría debe
explicar hechos que no hayan sido abarcados por teorías previamente

3 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

aceptadas o que hayan sido predichos de forma incorrecta.

C) Testabilidad

Debe ser posible comprobar que una teoría es correcta. Normalmente el


argumento clave a favor de una teoría es que realice una predicción real
del resultado de un experimento que no haya sido todavía efectuado. La
teoría de Maxwell de la electricidad y magnetismo propuesta en 1873
predijo que las ondas electromagnéticas podrían ser enviadas a través del
espacio a velocidades próximas a las de la luz, estas ondas fueron
descubiertas por Heinrich Hertz en 1887. La comprobación final llegó el
12 de diciembre de 1901 por parte, entre otros, del italiano Guillermo
Marconi, que patentó su descubrimiento en 1900.

Existen teorías tan indefinidas o complicadas que se resisten a una comprobación experimental. El
Oráculo de Delfos en la antigua Grecia, proclamaba que era capaz de predecir el futuro, pero sus
aseveraciones eran siempre tan indefinidas que si la predicción no resultaba cierta podía argumentarse que
había sido mal interpretada. Una teoría que siempre puede reajustarse de forma que explique cualquier
resultado experimental no puede ser satisfactoria.

Deben poderse obtener consecuencias de una nueva teoría que difieran de las demás teorías similares, y
además estas consecuencias deben prestarse a comprobación experimental.

D) Elegancia

Una teoría sobre la naturaleza debe ser bella. Este es otro elemento (llamémosle elegancia o belleza) que
ayuda a que una nueva teoría tenga mejor acogida. Los científicos creen que las formas de las leyes de la
naturaleza son simples, las teorías físicas más importantes del pasado son muy simples, como F=ma,
E=mc2.

Una nueva teoría debe inclinarse por un enunciado universal de sus principios que sea breve y de gran
contenido.

Como expuso Henri Poincaré (1854-1912), en la conferencia que ofreció


en la Sociedad Psicológica de París.

... ¿cuáles son las entidades matemáticas a las que les atribuimos este
carácter de belleza y de elegancia, las que pueden producirnos tal
emoción estética? Son las que tienen sus elementos armoniosamente
dispuestos, de tal forma que la mente puede captar sin esfuerzo su
totalidad, al tiempo que percibe sus detalles ...

E) Otras consideraciones

Finalmente se ha de llamar la atención sobre los criterios que no deben tenerse en cuenta. Por ejemplo no
es necesario que una teoría científica esté de acuerdo con las ideas de V. I. Lenin, por poner un ejemplo,
sin negar en ningún momento la gran importancia de dicha persona. O tampoco es necesario que esté
conforme con respecto a lo que nos dice la Biblia sobre la creación, aunque mucha gente lo crea, sin darse
cuenta que dicho documento es una novela.

4 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

Método científico

La elección no es entre teoría y observaciones, sino entre mejores o peores teorías para explicar las
observaciones; los hechos son intocables. Pero esto no quiere decir que las teorías sean humildes
sirvientes de las observaciones, de hecho casi todos los científicos están más interesados en las teorías,
viéndose los experimentos como unos sirvientes que permiten decidir entre varias teorías.

El método científico se puede describir mediante el siguiente proceso:

1. Plantear un problema
2. Observar algo
3. Buscar una teoría que lo explique
4. Hacer predicciones usando esa teoría
5. Comprobar esas predicciones haciendo experimentos u observaciones
6. Si los resultados están de acuerdo con la teoría, volver al paso cuatro, si no, volver al tercero

En la práctica, el método científico es más complicado. No siempre está clara la metodología para hacer
los experimentos, que cambia de un área de la ciencia a otra. Hay "experimentos" que se pueden hacer en
un ordenador, y otros donde esto no está tan claro. Los resultados han de ser aceptados por expertos en el
área correspondiente antes de ser publicados. Los experimentos deben repetirse independientemente, y a
veces no se consiguen los mismos resultados. Las demostraciones han de ser verificadas, y

5 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

ocasionalmente se encuentran errores. Un ejemplo real propuesto a escolares, se explica en detalle en la


web "Curioso Pero Inútil (CPI)", sobre la reacción que se produce al mezclar mentos con algunas bebida
resfrescantes gaseosas de cola.

Enlace recomendado: Los premios "Anti Nobel" 2004

En matemáticas se admite el especular sobre las consecuencias de alguna famosa conjetura no demostrada
con ¡muchísimo cuidado de anunciar esta dependencia! Algunos experimentos son tan laboriosos que
deben hacerse entre varios científicos, o partes del experimento se asignan a otros expertos (análisis
estadístico, construcción de instrumental e instalaciones, programas informáticos). Hay experimentos que
requieren años o incluso decenios para realizarse (exploración espacial), para construir el instrumental
(CERN), o para analizar los datos.

Algunas observaciones ocurren en fechas inaplazables (eclipses) o lugares inconvenientes (volcanes). A


veces se pierden irremisiblemente parte de los datos, que hay que suplir de alguna forma. Hay
experimentos irrealizables con la tecnología disponible, o demasiado caros, o que requieren demasiado
tiempo (evolución). No sólo se cambian las teorías, sino también los axiomas, definiciones, modelos y
clasificaciones. Algunos filósofos arguyen, con cierta razón, que no existe El método científico, sino
muchos métodos científicos.

¿Es infalible?

Nótese un aspecto importante del método científico, no acaba nunca; no existe una "verdad científica
absoluta". Pero esto no disminuye el valor de las aplicaciones de la ciencia; el principio de Arquímedes
sigue explicando por qué los barcos flotan. ¿El método científico es infalible? Sí y no. No, en el sentido
que suele producir teorías provisionales que son falsas. Hablaremos más de esto después.

Sí que es infalible en dos sentidos, por una parte, el método científico nunca asegura nada de forma
conclusiva, así que no puede equivocarse. Dicho de otra forma, si demuestras que alguna teoría científica
está equivocada, estás formando parte del mismo método científico, que se está autocorrigiendo gracias a
tu ayuda. Esto puede parecer una tontería hasta que se compara con otras formas de obtener conocimiento.

Pero en estos casos tampoco se equivoca, porque, dada la naturaleza inexperimentable de estos
fenómenos, el método científico no valida nada al respecto ni cierto ni falso. De nuevo, esto puede
parecer una tontería hasta que se recuerdan los problemas que otras doctrinas tienen para delimitar su
alcance.

También se puede argumentar que si bien es posible que el método científico no


sea suficiente para conocer toda verdad, por lo menos es necesario el tener alguna
forma de autocrítica. Recordemos una opinión de Francis Crick, codescubridor de
la molécula de ADN (ácido desoxiribonucleico, DNA) recogida en su libro "La
búsqueda científica del alma"; según él, nuestro cerebro evolucionó cuando
éramos cazadores-recolectores, y por lo tanto es un mero accidente que con dicho
órgano seamos capaces hoy día de comprender la complejidad y abstracción
propias de la ciencia moderna, ya que de poco nos servía esta habilidad para dejar
descendientes en la época en que nuestro cerebro alcanzaba su forma actual. Como
toda cara tiene su cruz, este órgano tan complejo y capaz como es nuestro cerebro,
nos proporciona un instrumento inapreciable para poner en marcha la ilimitada
capacidad que tenemos para engañarnos a nosotros mismos. Y añade Crick, más o menos, que sin una
cierta disciplina como proporcionan la ciencia y el escepticismo, es muy dudoso que el género humano
hubiese sido capaz de progresar culturalmente.

6 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

A mediados del siglo XIV, el filósofo inglés Guillermo de Occam, formuló lo que se podría llamar un
principio, un principio del pensamiento, y que ha pasado a la historia de la filosofía de la ciencia. Es el
llamado "principio de economía del pensamiento", o "principio de parsimonia", o más comúnmente, la
"navaja de Ockam".

En su formulación original, esta regla dice "Entia non sunt multiplicanda sine necesitate", que los que
saben de latín dicen que se traduce como que "los entes no deben ser multiplicados si no es necesario".
Según este principio, si tenemos dos modelos científicos para explicar un fenómeno, aquel que sea más
"sencillo" será digno de mayor consideración. En realidad, esto no es así. Como el método científico
impone, ha de ser la comprobación experimental, la verificación empírica, la que ha de decidir entre los
dos modelos. Pero, en muchas ocasiones, la complejidad del fenómeno a estudiar impide una eficaz
comprobación empírica, o la misma prueba experimental no permite decidir entre los distintos modelos.

Un símil simple sería éste: si las teorías científicas fuesen programas de ordenador, y tuviésemos tres
"programas" para explicar lo mismo, nos quedaríamos con el que ocupase menos espacio en nuestro
ordenador. Esta podría ser, por tanto, una formulación más elaborada, o más próxima a una formalización,
del célebre principio.

Karl Popper y el criterio de demarcación

La filosofía de la ciencia en el siglo XX se ha constituido en una actividad cuya principal


preocupación ha sido el problema del cambio científico. Inherente a este problema se encuentra el
problema de la evaluación de teorías científicas. ¿Hay algo así como un cambio científico? ¿existe
progreso en la ciencia? En caso tal, ¿es susceptible de una teoría de la racionalidad científica?

Diversos filósofos se han hecho famosos por sus aportaciones a esta faceta de la filosofía: Paul K.
Feyerabend (1924-1994), Imre Lakatos (1922-1974), Thomas S. Kuhn (1926-1996) y Karl Popper
(1902-1997).

El problema de la demarcación tiene que ver fundamentalmente con la pregunta: ¿Cómo


discriminar entre una hipótesis científica y otra que fuese más bien una especulación filosófica o
metafísica o pseudociencia? La solución racional la aportó Popper.

Lo que diferencia a la ciencia de otros tipos de conocimiento es su posibilidad sistemática de ser


RECHAZADA por los datos de la realidad. A diferencia del enfoque empírico-inductivo, según el
cual un enunciado es científico en la medida en que su VERACIDAD pueda ser confirmada por la
experiencia, en el enfoque racionalista de Popper y sus seguidores, un enunciado será científico en
la medida en que más se arriesgue o se exponga a una confrontación que evidencie su FALSEDAD,
esto es el criterio de demarcación.

Según esta posición, la ciencia se distingue de otros conocimientos por ser "falsable" (y no
"verificable"), es decir, porque contiene mecanismos orientados a determinar su posible falsedad.
La base de este criterio está en la misma crítica al empirismo y al inductivismo: por más que un
enunciado se corresponda fielmente con miles de millones de casos de la realidad, en principio nada
impide que de pronto aparezca un caso contradictorio.

Si, por ejemplo, observamos milones de cuervos y vemos, además, que todos son negros, no hay
razón lógica para concluir en que todo cuervo es necesariamente negro, ya que siempre cabe la

7 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

posibilidad de que aparezca alguno de otro color. Y, dado que el conjunto completo de todos los
casos posibles escapa a la observación del ser humano, nunca será posible VERIFICAR o
comprobar la verdad de un enunciado como "todos los cuervos son negros". Pero, en cambio, sí
será siempre posible determinar su FALSEDAD, para lo cual bastará un solo caso en que no se
cumpla la ley. Por tanto, el conocimiento científico no persigue demostrar su veracidad, sino
exponerse a cualquier caso que evidencie su falsedad. Así, todo enunciado científico podrá ser
mantenido sólo provisionalmente (aún cuando transcurran siglos), mientras no aparezca un caso
que lo contradiga (es decir, jamás podrá ser decisivamente VERIFICADO); pero, en cambio, sí
podrá ser refutado y desechado definitivamente apenas surja un dato que lo niegue.

En síntesis, los enunciados científicos se distinguen justamente por estar siempre expuestos a
pruebas de FALSEDAD. De esta forma, el "falsacionismo" viene a ser el criterio de demarcación
entre ciencia y no-ciencia y, por tanto, es la magnitud de su "contenido de falsedad" lo que hace
más o menos científico a un conocimiento dado. De lo anterior se infiere que la meta de la ciencia y
de la investigación jamás podrá ser la CERTEZA objetiva, la cual no existe, sino, más bien, la
"verosimilitud", o sea, el grado en que un enunciado sea capaz de salir ileso de las pruebas de
falsación y de prevalecer ante otros enunciados competidores por su mayor capacidad de cobertura
ante los datos de la experiencia.

A diferencia del positivismo lógico, el racionalismo desecha el concepto de "verdad objetiva e


inmutable", acepta la relatividad del conocimiento científico, admite los factores sociales e
intersubjetivos que condicionan su validez y, tal vez lo más importante, plantea su carácter de
CORRECTIBILIDAD sobre la base de constantes procesos de falsación ante los hechos y ante otras
opciones de conocimiento.

Así, y de acuerdo a esta interpretación, mientras el conocimiento especulativo idealista (los


discursos retóricos, por ejemplo, o políticos, religiosos, subjetivistas, psicologistas, etc.) se vale de
subterfugios para evadir su confrontación con la experiencia y para escapar a toda evidencia de
falsedad, el conocimiento científico se valida, por encima de todo, en sus posibilidades de error.
Desde este ángulo queda plenamente aceptado y justificado el hecho de que sea en la ciencia,
precisamente, donde se descubra la mayor cantidad de errores del conocimiento humano, ya que
otros tipos de conocimientos evaden las confrontaciones o riesgos y esconden sus debilidades.
Como contraparte, es también en la ciencia donde se halla el mayor número de rectificaciones y
evoluciones, mientras otros tipos de conocimiento permanecen estancados e improductivos.

En resumen, el esquema de Popper del método científico es muy sencillo y él mismo lo expresó en
su forma más condensada en el título de su famoso libro, Conjeturas y refutaciones. La ciencia es
simplemente asunto de tener ideas y ponerlas a prueba, una y otra vez, intentando siempre
demostrar que las ideas están equivocadas, para así aprender de nuestros errores.

Actualmente se están viendo gran cantidad de anuncios y artículos sobre métodos o técnicas
pertenecientes a la pseudomedicina. Son claros ejemplos de irracionalidad, y de lo que no debe ser nunca
una teoría científica.

Seguidamente se comentan escuetamente algunas terapias pseudocientíficas muy llamativas, que algunos
de los lectores habrán sufrido alguna vez.

Homeopatía .- Inventada por el médico alemán Samuel Christian Hahnemann (1755-1843), trata las
enfermedades con disoluciones extremadamente diluidas (de hecho suele ser agua edulcorada). Su no
validez se justifica de forma comprensible sin ser experto en ciencias ni en medicina, sólo con el sentido

8 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

común.

¿Por qué no creo que la homeopatía sea


efectiva?
¿Qué hace alguien normalmente cuando se siente enfermo? Generalmente, irá a ver a un
médico. ¿Por qué? Porque un médico se supone que es la persona más cualificada para
estudiar los síntomas que presenta, realizar todas las exploraciones necesarias para
determinar con exactitud que está afectando a su salud, administrar sustancias de probada
efectividad en estos casos o intervenir de manera más enérgica realizando una operación,
y llevar a cabo el seguimiento de la evolución del paciente. Si se decide a administrar
alguna sustancia al paciente, ¿cómo se determina que esa droga en particular tiene altas
posibilidades de ser eficaz?.

Desde siempre se ha conocido la importancia del efecto placebo en el proceso de


curación. El efecto placebo es un efecto no específico consistente en la curación de una
enfermedad por el simple hecho de tratarla, ndependientemente del tipo de tratamiento
que se siga. Paracelso ya advertia en el siglo XVI "Ha de saberse que la voluntad es un
poderoso ayudante de la medicina", en muchos casos la simple confianza del paciente en
el médico puede producir una curación, y a veces ni siquiera esta confianza es necesaria.
Por lo tanto si se pretende determinar el efecto de una nueva droga sobre una enfermedad
se hace imprescindible eliminar el sesgo introducido por el efecto placebo; esto puede
realizarse mediante un ensayo o test doble ciego.

Imaginemos un grupo de pacientes bastante homogéneo en cuanto a edad, hábitos,


historial clínico, etc... que padecen una misma enfermedad y sin que ellos lo sepan,
dividámoslo en dos, Grupo A y Grupo B, por ejemplo. Llamemos a la nueva droga que
pretendemos estudiar Droga I y obtengamos una sustancia totalmente inofensiva y sin
efectos terapéuticos como por ejemplo, cápsulas con agua destilada o pastillas de lactosa;
llamemos a esta sustancia Droga II. En un ensayo doble ciego se administra a uno de los
grupos, pongamos el Grupo A, una de las dos drogas, digamos la Droga I, mientras que al
Grupo B se le administra la Droga II; pero de manera que ni los pacientes ni los médicos
que los tratan saben a que grupo pertenece cada uno ni que drogas les estan siendo
suministradas. Concluída la experiencia se reunen los datos de los dos grupos y se
analizan para determinar si el porcentaje de curaciones en el Grupo A, para el que se
empleó la Droga I, es mayor que en el Grupo B, al que se suministro la sustancia inócua,
la sustancia placebo, Droga II. Si esto es así y se demuestra así en otros ensayos similares
realizados sobre otros grupos se concluye que la Droga I es eficaz contra esa enfermedad.
De todos modos ¿por qué se producen curaciones en el Grupo B si sólo se le está
administrando una sustancia totalmente inócua?, por una parte tenemos el hecho de que
el simple tratamiento, aunque sea con una sustancia inútil, ayuda a activar los
mecanismos de defensa del propio organismo, por otra parte tenemos el hecho de que
muchas enfermedades tienen componentes psicosomáticos y finalmente tenemos el hecho
de que un gran número de enfermedades presentan un cierto período de remisión, la
enfermedad aparece, progresa y después desaparece aunque no se realice ningún
tratamiento.

9 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

Esta introducción puede parecer algo extensa pero será muy útil a la hora de discutir
algunos puntos relativos a la homeopatía.

La homeopatía se originó en Alemania a principios del siglo XIX. Samuel Hahnemann


(1755-1843) publicó en 1810 un voluminos libro titulado "Organon", en el desarrollaba y
exponía toda la homeopatía y es esa misma homeopatía, siguiendo básicamente los
mismos principios expuestos en "Organon", la que se sigue practicando hoy en día. Los
dos pilares básicos de la homeopatía son la Ley de Similia y la Ley de los Infinitesimales.
Veamos ahora con calma como son de ridiculos estos dos principios fundamentales
homeopáticos.

La Ley de Similia asegura que una sustancia curará una cierta enfermedad si suministrada
a una persona sana provoca los mismos síntomas o sintomas muy parecidos a los que
produce dicha enfermedad. De esta ley, o supuesta ley, deriva el nombre de homeopatía:
homois "similar" y pathos "sufrimiento", en griego. Para ser uno de los principios básicos
de la homeopatía no deja de ser bastante sorprendente. Si alguien sufre una intoxicación
por arsénico. ¿se curará administrándole más arsénico? Yo diria que no. De todos modos,
dado que cualquier sustancia puede emplearse como un remedio homeopático, ¿cómo se
sabe que síntomas produce una sustancia determinada?. Según Hahnemann se debia
realizar un proceso de prueba. Se debía administrar a una persona sana cantidades cada
vez mayores de esa sustancia hasta que aparecieran los primeros síntomas de
intoxicación, dichos síntomas debían compararse con las enfermedades catalogadas y si
eran parecidos a los síntomas de alguna enfermedad, esa sustancia pasaba a considerarse
útil para el tratamiento de dicha enfermedad.

La Ley de los Infintesimales nos dice que cuanto más pequeña sea la dosis más poderoso
será el efecto de la sustancia. Los efectos de la sustancia se potencian con la dilución de
la misma; cuanto más diluida esté la sustancia más poderoso será su efecto. Los remedios
homeopáticos se preparan siguiendo diluciones decimales. Se parte de una cierta cantidad
de disolución, se extrae una décima parte y a dicha fracción se le añaden nueve decimos
de agua destilada, se agita la nueva mezcla resultante y se repite el proceso varias veces
hasta llegar al grado de dilución deseado. Son muy habituales grados de dilución de
1/1000000 o 1/10000000, y en algunos casos se llega a grados de dilución tan extremos
que la probabilidad de encontrar alguna molécula de la supuesta sustancia activa en la
preparado final es inferior al 50%. Si la sustancia no es soluble en agua puede molerse
muy finamente y mezclarse con lactosa, siguiendo un proceso de dilución similar pero
empleando la lactosa en lugar de agua destilada. Un compuesto que es prácticamente
agua destilada o lactosa debería resultarnos familiar, no es más que un placebo como los
que se emplean en los ensayos clínicos doble ciego!!. Del mismo modo que en nuestro
Grupo B había pacientes que se curaban, algunos de los pacientes que acuden a un
homeópata se curarán, ¿significa eso que los remedios homeopáticos son efectivos?
Después de lo explicado en la introducción vemos que la respuesta es un NO rotundo.

En el siglo XIX la medicina no estaba muy desarrollada, se basaba en principios erróneos


y los remedios que se suministraban solían ser muy agresivos, incluyendo por ejemplo las
sangrías entre sus prescripciones habituales.

Con este panorama, no es extraño que la homeopatía tuviera un cierto éxito.


Suministrando remedios totalmente inócuos al menos no hacía empeorar la salud del
paciente, y en algunos casos este podía superar la enfermedad y curarse por si solo de una
manera mucho más satisfactoria que con la intervención de la medicina de la época. Sin
embargo, hoy en día la situación es radicalmente diferente, la medicina y la farmacología
actuales son disciplinas que se rigen por el método científico y han conseguido éxitos sin

10 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

precedentes. Por otra parte, ningún preparado homeopático ha superado nunca un ensayo
doble ciego realizado con un mínimo de garantías contra el fraude o el engaño.

Después de todo lo dicho cabe preguntarse ¿por qué la homeopatía sigue siendo popular?
¿cómo se las arreglan los homeópatas para justificar lo injustificable?. Un punto que
suele destacarse a menudo es que la medicina trata enfermedades mientras que la
homeopatía trata enfermos. Se arguye que la medicina sólo mira de atacar los síntomas
de las enfermedades, mientras que la homeopatía trata al paciente como un todo, (sea eso
lo que sea). Por supuesto,esto es un disparate, porque si bien es cierto que hay casos en
que se prescriben medicinas para eliminar o mitigar los síntomas, (la más típica sería la
aspirina), se olvida que esto no constituye la norma. Por ejemplo, la medicina dió un paso
de gigante con el descubrimiento de los antibióticos, y precisamente una sustancia como
la penicilina lo que hace es atacar la raiz del problema en ningún caso los síntomas. Por
su parte, ¿qué hace la homeopatía?

Estudia los síntomas del enfermo y administra en cantidades infinitesimales una


sustancia que en grandes cantidades provoca esos mismos síntomas en una persona sana,
en otra persona!!. ¿Quién pone más enfasis en los síntomas?; además, diría que con este
proceder no se trata al paciente como un individuo único o como un todo.

Otro punto que se destaca de la homeopatía es que las disoluciones infinitesimales que
prescribe sólo incluyen productos naturales. Esta es una falacia que se podría aplicar a un
montón de "medicinas lternativas".

Parece que los productos naturales son per se beneficiosos pero se olvidan de que la
naturaleza está llena de venenos y tóxinas de origen vegetal o animal potentísimos. Los
antibióticos, empleados por la medicina no por la homeopatía, tienen su origen en un
producto natural pero no olvidemos que los productos naturales están expuestos a la
contaminación; por lo tanto la purificación de estas sustancias o su síntesis artificial
representa un gran paso hacia adelante.

La Ley de los Infinitesimales viola los principios establecidos por la medicina, la


farmacología, la física o la química, ¿cómo la justifican los homeópatas?. Hanhemann
pensaba que a medida que la sustancia perdía propiedades "materiales" a base de
diluciones sucesivas, ganaba propiedades "espirituales". Hoy en día, las propiedades
"espirituales" han sido reemplazadas por energías misteriosas o por vibraciones de no se
sabe que; ningún culto pseudocientífico actual sería tal sino mencionara energías que no
puede detectar ni poner de manifiesto, y la homeopatía no es ninguna excepción.

En relación a esto será interesante destacar el caso del Dr. Benveniste. Benveniste
encabezaba un artículo publicado en el año 1988 en Nature, en el que parecía establecer
que una disolución muy diluída de un cierto anticuerpo podía desencadenar una reacción
en leucocitos humanos. Lo sorprendente era que "muy diluido" significaba en este caso
una dilución de una parte entre 10120!!.

Esto significaba que no existía ni un solo anticuerpo en la disolución final. ¿Cómo lo


explicaba Benveniste? Para él, el agua tenía una especie de "memoria". Podía retener la
estructura del anticuerpo, de modo que aunque este ya no estaba presente, el agua podía
desencadenar la reacción en los leucocitos.

Parecía que este estudio daba una cierta credibilidad a la Ley de los Infinitesimales; sin
embargo, habría que advertir primero que ese estudio estaba en parte subvencionado por
una importante empresa francesa de productos homeopáticos. Por supuesto, esto por si

11 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

mismo no desacredita la investigación realizada, pero un equipo enviado por Nature al


laboratorio de Benveniste demostró que los experimentos estaban estadisticamente mal
controlados, que no se habían tomado medidas para eliminar causas de error sistemático
y no existía una base sólida para las afirmaciones que se realizaban en el artículo. El
experimento sólo fué reproducido por un equipo israelí; curiosamente la persona
encargada de realizar el recuento de leucocitos que habían reaccionado era la misma!!.
Parece pues que la Ley de los Infinitesimales sigue sin confirmación experimental y sigue
contradiciendo todas las leyes conocidas de la física y de la química.

La homeopatía es un culto médico que se aprovecha de la ignorancia de la gente para


prescribir remedios inútiles y además cobrar por ello. La salud de las personas es algo
demasiado delicado como para permitir que se juege con ella y es por ello que al igual
que los "productos milagro", los productos homeopaticos deberían desaparecer de las
farmacias.

Documento elaborado por Ferran Terrasa.

Senoterapia .- Inventada por un médico italiano, hace pocos años. Se trata de diagnosticar enfermedades
por la forma de los pechos femeninos y curar con un masaje suave sobre los mismos.

Magnetizadores.- Para imanar al agua, engañan a mucha gente, pues el agua y fluidos análogos no se
pueden imanar.

Magnetizadores. Robert Park, de la


Sociedad Física Americana
"No conozco ningún científico que se tome esta afirmación seriamente... es otra manía.
Ellos van y vienen con brazaletes de de cobre y cristales, y ese tipo de cosas, y esto
pasará también" - Robert Park, de la Sociedad Física Americana"

"Los átomos de hierro de un iman están atestados juntos en un estado sólido en el que un
átomo está junto a otro. En tu sangre solo 4 atomos de hierro se encuentran en cada
molécula de hemoglobina, y están separados por distancias demasiado grandes como para
formar un imán. Esto es fácilmente comprobable pinchando tu dedo y colocando una
gota de sangre cerca de un imán." - Michael Shermer

La Magnetoterapia es un tipo de "medicina alternativa" que afirma que los campos


magnéticos tienen poderes curativos. Algunos afirman que los imanes pueden ayudar a
los huesos rotos a curar más rápido, pero la mayoria del material proviene de aquellos
que afirman que calma el dolor. Gran parte del soporte a estas nociones proviene de
testimonios y anécdotas, y puede ser atribuido a "efectos placebo y otros efectos
acompañantes de su uso" (Livingston 1998). No hay casi ninguna evidencia científica
apoyando la magnetoterapia. Una grandemente publicitada excepción es un estudio a
doble ciego realizado en la Escuela de medicina Baylos que comparó el efecto de imanes
e imanes simulados en la rodilla enferma de 50 pacientes de post-polio. El grupo
experimental reportó una significativamente mayor disminución del dolor que el grupo
de control. No ha habido ninguna repetición todavía de este estudio.

12 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

Un estudio menos publicitado en el Ney York College de Medicina Podológica encontró


que los imanes no tenían ningún efecto en la curación del dolor de talón. Tras un periodo
de 4 semanas, 19 pacientes llevaron una plantilla moldeada que incluia una lámina
imantada, mientras 15 pacientes llevaron la misma plantilla pero sin la lámina. En ambos
grupos el 60% informó de mejoras.

A despecho de que no haya habido virtualmente ningún test científico de la terapia


magnética, una creciente industria está produciendo brazaletes magnéticos, bandas,
plantillas, fajas, colchones, etc... y anunciando milagrosos poderes para sus productos. El
mercado magnético puede estar aproximandose a los 150 millones de dólares anuales
(Collie). (Lerner anuncia que las ventas en EE.UU. pueden ser de medio millar de
millones, y que en el resto del mundo se llega como mucho a dos veces esa cifra) Los
imanes se estan convirtiendo en la elección preferidda para quiroprácticos y otros
"especialistas del dolor". La anteriormente alfarera Marylynn Chetkof vende productos de
Russell Biomagnetics, y anuncia que los imanes son mejores que los calmantes, o que
vivir con dolor (Collie). Incluso un contratista de la construcción como Rick Jones esta
tratando de invertir en la actual locura magnética. El ha fundado una compañía
denominada Optimum Health Technologie Inc.s (Tecnologias para la Salud Optima) para
comercializar su "Magnassager" (Magneto-masajeador), un vibrador portátil con imanes
al precio de 489$. Jones anuncia que su invento "no es solo otro artefacto para dar
masajes" El dice que usa un campo magnético para ayudar a circular la sangre mientras
masajea los músculos. Jones obtuvo 300000 $ de los inversores y gastó todo ello en
"desarrollo de producto y márketing" Ni un centavo se destinó a estudios científicos del
aparato antes de enviarlo al mercado, aunque el le dio 20000$ a un Fisiólogo para evaluar
su aparato "para asegurarme de que no era un cachivache".

La afirmación de que el magnetismo ayuda a "circular la sangre" es común entre los


defensores de la magnetoterapia, pero no hay ninguna evidencia científica de que los
imanes le hagan nada a la sangre. Aun en contra de las evidencias de que los imanes no
tienen otro efecto que el placebo, abundan las teorias de cómo funcionan. Algunos dicen
que los imanes son como un masaje shiatsu; otros afirman que los imanes aceptan al
hierro de los hematíes, incluso otros afirman que los imanes generan una reacción
alcalina en el cuerpo (Collie). Bill Roper, jefe de Magnetherapy afirma que "Los imanes
no curan ni calman nada. Todo lo que hace es colocar tu cuerpo en su estado normal para
que pueda empezar el proceso de curación" (Collie). Como ha averigaudo esto no queda
del todo claro.

Algunos defensores de la terapia magnética parecen basar su creencia en una


convencimiento metafísico de que todas las enfermedades se deben a una especie de
desequelibrio o dis-harmonia en la energía. El equilibrio o flujo de energía
electromagnética debe ser restaurado para recuperar la salud, y suponen que los imanes
son capaces de hacer eso.

Los más rabiosos abogados de la terapia magnética son atletas como Jim Colbert y John
Huston (golf), Dan Marino (fútbol americano) y Lindsay Davenport (tenis). Su creencia
está basada en poco más que razonamiento post-hoc. Es posible que el alivio que un
cinturón magnético proporciona a un golfista con un problema de espalda, por ejemplo,
no sea simplemente una función del efecto placebo o de la falacia regresiva. Bien puede
ser debida a la ayuda de la aportación de calor adicional que el cinturón provoca. El
producto funcionaría igual de bien sin los imanes. Además, los deportistas no son dados
a los tests científicos más de lo que lo son los fabricantes de magnetocacharros.

Los atletas no son los únicos enamorados de los poderes curativos de los imanes. El Dr.

13 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

Richard Rogachefsky, un cirujano ortopédico de la Universidad de Miami, afirma haber


usado imanes en cerca de 600 pacientes, incluidas persoas que habian sido disparadas. El
dice que los imanes "aceleran el proceso de curación". ¿Su evidencia? Puede explicarlo
mirando los rayos X. El Dr. William Jarvis es escépticoa este respecto. Dice: "Cualquier
doctor que se apoya en impresiones clínicas, en lo que piensan, en lo que ven, es un loco"
(Collie). Hay una buen razón por la que los científicos hacen estudios controlados a doble
ciego para testear la eficacia causal: para prevenir la Autosugestión.

El Dr. Mark S. George, un profesor asociado de psiquiatría, Neurología y Radiología en


la Universidad Médica de Carolina del Sur, en Charleston, hizo un experimento
controlado sobre el uso de imanes para tratar la depresión. Sólo estudió 12 pacientes en 2
semanas, sin embargo, asi que sus resultados son poco significativos.

Mientras las ventas de productos magnéticos continuan aumentando hay unos pocos
estudios científicos en marcha. La Universidad de Virginia está testando imanes en
pacientes de fibromialgia. Las universidades de Miami y Kentucky estan haciendo
pruebas en gente con síndrome de tunel carpiano (Collie), En el presente, sin embargo,
no tenemos ninguna buena razón para creer que los imanes tienen ningún poder curativo
más que los cristales o los brazaletes de cobre.

Ionizadores de aire.- Dicen aumentar los iones negativos en el aire por que son maravillosos para todo.
Estudiados los aparatos, muchos ni siquiera son capaces de formar iones.

Acumulador de orgones.- El orgón es una energía telúrico-sexual, son como las partículas elementales
de la energía sexual (como los quars que forman el óctuple sendero, pero de orgasmo), y tener muchas,
dice el alemán que promociona este engaño, es muy conveniente.

Psicoanálisis.- Fascinante forma, inventada por Freud para sacar dinero a la burguesía y crédulos por el
estilo.

Técnica biocibernética quántica holográmica.- Inventada por un autodenominado "profesor" Pere


Ribalta, de Sabadell. Actualmente ha sido condenado a 15 años de cárcel, por los daños causados en
enfermos que siguieron sus tratamientos, incluso con resultado de muerte.

Curación espiritual.- Los espíritus benéficos de los cielos o incluso el mismo Dios curan nuestras
enfermedades siempre que tengamos fe y a veces dinero que donar.

a) Ciencia Cristiana.-Especie de Iglesia médica, que cura a base de fe. La curación es la salvación
eterna. La oración y no cometer pecados la mejor profilaxis.

b) Lourdes, Fátima. Mendujorge y más.- Milagros católicos para todos los gustos. La Virgen María
en plan enfermera.

Las religiones casi siempre han considerado de alguna forma la persistencia de vida después de la muerte,
incluso hay personas que han estado muy graves que relatan hechos que aparentemente están fuera de la
normalidad. Todas estas creencias son falsas, estando actualmente justificados dichas situaciones desde el
punto de vista puramente científico.

Otras creencias irracionales

Astrología.- En todo el mundo se publican miles de secciones astrológicas, los tan conocidos
"horóscopos", aparecen indiscriminadamente en periódicos, revistas, folletos y en los últimos años en
Internet. La astrología presupone que la posición de los planetas y el Sol en una determinada franja del
cielo; llamada constelaciones del zodiaco, influyen en nuestras vidas. Según dicen los astrólogos (no

14 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

confundir con astrónomos) la posición del Sol a la hora de nacer marca de por vida las características
particulares de una persona.

Carece de cualquier base científica, las fuerzas gravitacionales de los planetas son insignificantes sobre
una persona en el momento de nacer; además es absurdo que cada doceava parte de la población terrestre
tenga un futuro igual. Cualquier intento de verificación experimental no corfirma la validez de esta
pseudociencia.

Enlace recomendado: Una revisión crítica de la astrología

Enlace recomendado: Visión crítica de la astrología

Grafología.- Es otra pseudociencia que entre las muchas "utilidades" que ofrece, está la de adivinar el
carácter de una persona en base a su escritura. No se debe de confundir con la valoración de igualdad
entre dos escritos o firmas, que es función de los "peritos caligráficos". Lamentablemente se enseña como
ciencia en una asignatura de los estudios de Licenciatura en Criminología en la Universidad de Murcia.

Enlace recomendado: Grafología, otra pseudociencia

Valoramos la ciencia como factor de


progreso, pero también nos asustamos de
sus implicaciones ¿Lo hacemos de forma
racional o moviéndonos por instintos?
Fuente: Blogalia, autor Javier Armentia

Publicado en Territorios, Ciencia y Futuro, El Correo, miércoles 15 de octubre de 2003

La percepción pública de la ciencia viene mediada por numerosos factores, que a menudo
nada tienen que ver con el contenido y alcance real de las investigaciones, sino con ideas
populares que se van asentando, propiciadas desde los medios de comunicación y, a
menudo, alentadas desde sectores interesados en hacer valer sus opiniones. En general,
siempre se suele comentar que existe un analfabetismo científico funcional en una parte
de la ciudadanía: el desconocimiento sobre aspectos fundamentales de la ciencia y la
tecnología actuales se suele poner de manifiesto en encuestas de opinión. En diferentes
encuestas que se han ido realizando en los últimos decenios se muestra cómo la gente
puede creer que el hombre convivió con los dinosaurios, cómo no entienden la estructura
atómica de la materia o muchas otras "lagunas" en los conocimientos objetivos. En el
Eurobarómetro, una encuesta que se viene realizando desde hace quince años se incluía
en 1996 una pregunta para valorar el conocimiento de las tecnologías genéticas por parte
de los europeos. Dos terceras partes de los encuestados decía que era correcta la

15 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

afirmación "los tomates naturales no tienen genes, sólo los transgénicos los tienen".

Sin embargo, la valoración que se establece sobre la ciencia es mucho más positiva que
lo que cabría concluir del estado de desconocimiento. En los mismos Eurobarómetros, se
ve cómo el ciudadano europeo concede en general mucho valor a la ciencia, depositando
en ella una confianza alta a la hora de la resolución de importantes problemas como los
ambientales, las enfermedades o en general, por su capacidad de mejorar la calidad de
vida. Recientemente se ha publicado el estudio "Percepción social de la ciencia y la
tecnología en España", promovido por la Fundación Española Ciencia y Tecnología
(FECyT). Los encuestados en este trabajo, valorando en una escala de 1 a 5 en la que 1
significaba que no había asociación alguna y 5 una asociación completa, relacionaban la
ciencia con "progreso" (4,35), "bienestar" (3,74), "riqueza" (3,55), "oportunidades"
(3,55). Hacen notar los autores cómo la asociación con el progreso es mayor que otras
características que se suelen relacionar con los avances científico-tecnológicos.

De esta manera, la idea que podríamos obtener del estado de la percepción social de la
ciencia sería en cierto modo positivo: valoramos la ciencia, aunque la desconocemos.
Una conclusión obvia, precisamente en la dirección que trabajan los planes comunitarios
en este sentido, sería favorecer la comunicación sobre ciencia, la educación, y fomentar
las vocaciones a la vez que realizar políticas de inversión en ciencia que permitan la
creación de un verdadero espacio científico europeo no sólo como motor de la industria,
sino con la capacidad de involucrar al ciudadano.

La realidad, sin embargo, muestra que hay sectores de la ciencia en los que esa
valoración cae, o en general, en los cuales se establece una duda o incluso un temor ante
la propia ciencia. El asunto de los organismos transgénicos es un buen ejemplo donde se
muestra cómo la investigación científica y la opinión popular se separan de manera
importante. Las efectivas campañas de alerta (a menudo sin justificación racional alguna)
por parte de algunos sectores del activismo ecologista han conseguido que la percepción
de lo "transgénico" sea muy negativa. De poco sirve que las grandes multinacionales de
la biotecnología hayan promovido una imagen casi idílica del avance que podría suponer
estas técnicas en solucionar el hambre en el mundo, o mejorar la calidad de los cultivos.
La sombra de la duda sobre la inocuidad de los productos ha conseguido que, incluso (o
principalmente) en los planos políticos se hayan establecido moratorias o programas de
contención ante estos nuevos productos.

La fuerza de las palabras convierte a algunas en verdaderos tabús: sólo mencionarlas


hace que la gente se posicione críticamente (por más que se reconozca el
desconocimiento de por qué no gusta o por qué se teme). El hecho de que principalmente
la vía de información sobre temas de ciencia sean los medios de comunicación
generalistas (en primer lugar radio y televisión) en los cuales la información científica
ocupa un pequeñísimo porcentaje del tiempo de emisión, algo que los propios
encuestados califican como insuficiente, facilita el que ciertas ideas se transmitan
acríticamente. Un ejemplo reciente, que aún promueve calurosos debates en las todas las
escalas sociales lo constituyen los efectos (presuntos) de las radiaciones emitidas por
antenas de telefonía. Dejando aparte el hecho de que ningún estudio contrastado
adecuadamente ha conseguido demostrar el efecto cancerígeno de las antenas (ni
tampoco del uso de los teléfonos móviles), y a pesar de que las investigaciones
establecen que estas tecnologías trabajan dentro de un margen de riesgo adecuado,
simplemente hablar de "radiaciones electromagnéticas" supone que mucha gente piense
que son algo dañino.

En anuncios de televisión podemos oír cosas como que un producto "protege contra las

16 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

dañinas radiaciones electromagnéticas". ¿Pero no es la luz una radiación


electromagnética? ¿No lo son las ondas de radio o las de TV? El propio calor nos llega
en forma de radiación infrarroja, la misma con la que conseguimos que los mandos a
distancia hagan su función. Un mundo sin radiaciones electromagnética sería un mundo
muerto. Confundir de esta manera al público, podríamos pensar, sería delictivo si no se
contara con una percepción de lo dañino mediada por campañas políticas en contra de la
telefonía, por ejemplo, en donde se juega a asociar la "radiación" también con otra
palabra tabú: "radiactividad".

Nada tiene que ver una con otra, pero en un mundo que sobrevivió a una tensión de
decenios con la amenaza de la guerra nuclear, todo lo relacionado con ese mundo nos
sigue pareciendo peligroso y desasosegante. Lejos están los años en que los detergentes
proporcionaban un "blanco nuclear":hasta los años cincuenta la ciencia del átomo era
percibida como uno de los mayores avances, a pesar del uso bélico de la misma a finales
de la II Guerra Mundial. Pero posteriormente todo un activismo antinuclear consiguió
hacer cambiar a la opinión pública: todo lo radiactivo es peligroso.

Es evidente que tales maximalismos no son acordes con una actitud científica que ha de
valorar siempre los riesgos y las consecuencias de forma menos apasionada. Pero
también es evidente que nos movemos de forma mucho más gregaria y menos crítica que
lo que sería conveniente. El hecho de que cuando un médico solicita para un paciente un
diagnóstico mediante resonancia magnética nuclear casi sistemáticamente oculte las dos
últimas palabras, por la asociación casi instantánea que establecemos entre "nuclear" y
cáncer, es un síntoma de que las cosas no se están haciendo bien.

Y PALABRAS COMODÍN: LO NATURAL


La alta valoración que ponemos al adjetivo "natural" es la otra cara de la misma moneda
que hace tabúes a los términos científicos. Parece que todo lo natural fuera
intrínsecamente bueno (a pesar de que tan naturales son los virus como cualquier agente
infeccioso o veneno que existe en la naturaleza). Basta con echar un vistazo a los
anuncios de cualquier tipo de producto para encontrar cómo se ejercita la desinformación
propagandística en este sentido.

El hecho de que mucha gente prefiera una "medicina natural" indica el desconocimiento
y el prejuicio que establecemos: de hecho, unas dos terceras partes de los medicamentos
convencionales tienen principios activos que son "naturales", pero el proceso industrial
permite, adecuadamente, establecer la forma de aplicación y la dosis adecuada que lo
hacen un tratamiento efectivo. Por el contrario, y sirva como ejemplo, un cocimiento
(natural) de plantas recetado como una verdadera panacea por una medicina que se dice
alternativa supone una dosificación incontrolada: ni se puede saber exactamente cuánto
medicamento estamos ingiriendo ni podemos controlar otras sustancias que se están
introduciendo a la vez.

La moda de lo natural frente a lo artificial sigue existiendo, pero se aprovecha de nuestro


desconocimiento para vendernos algo que, realmente, no es ciencia, sino pura
pseudociencia.

(cortesía de J. Merelo)

Carl Sagan

17 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

Carl Sagan hace un análisis muy interesante sobre el caso de Lourdes. Resulta que desde
la "aparición" de 1858, unos cien millones de personas han visitado Lourdes con la
esperanza de ser curados de una enfermedad que la medicina "oficial" no ha logrado
vencer. La Iglesia Católica (ICAR) ha rechazado la autenticidad de una enorme cantidad
de casos, y sólo ha aceptado 65 en casi un siglo y medio.

Existen casos bien documentados de personas "desahuciadas" que se han curado sin
intervención médica, aunque son muy escasos. Esto no es el caso del efecto placebo. Se
atribuye simplemente a "curación espontánea", no hay razón alguna aparente para que la
curación se dé, y sin embargo se da.

Si se consideran los 65 casos en casi siglo y medio aceptados por la ICAR, estos casos
son de tumores, tuberculosis, optalmitis, bronquitis, parálisis, etc. Pero ninguno es por,
digamos regeneracion de un miembro o de una espina dorsal cercenada. De las 65
curaciones, hay una proporción de diez a uno más de mujeres que de hombres. La
probabilidad de curación después de visitar Lourdes es entonces, de aproximadamente
una en un millon, se tienen tantas probabilidades de curarse despues de visitar Lourdes,
como se tienen de ganar el premio mayor de la loteria, o de morir en un accidente aéreo,
por ejemplo.

La curación espontánea de todos los tipos de cáncer juntos se estima en algo entre uno en
diez mil y uno en cien mil. Si sólo un cinco por ciento de aquellos que van a Lourdes
fueran por cáncer, tendría que haber habido entre 50 o 500 curas "milagrosas"
unicamente por cáncer. Dado que sólo tres de las 65 curas comprobadas eran casos de
cáncer, el índice de curación espontánea en Lourdes parece ser inferior que el de
cualquier otro lugar. En otras palabras, un enfermo tendría más probabilidad de curarse
espontáneamente (o "milagrosamente" si prefiere) quedándose en casa sin hacer nada en
vez de ir a Lourdes. Evidentemente, si se habla con uno de los 65 curados, va a ser muy
difícil convencerlo de que no fue su viaje a Lourdes lo que curó su cáncer.

Esta es una ilustracion clasica de la falacia post hoc ergo propter hoc (despues del
hecho, por lo tanto, debido al hecho)

Esto no tiene que ver con el efecto placebo, que en la mayoria de los casos produce una
"cura falsa", lo cual es fatal para pacientes que tienen una enfermedad tratable por la
medicina.

CARL SAGAN

Nació en Nueva York el nueve de Noviembre de 1934.


Estudió en la Universidad de Chicago, donde recibió un Ph.D. en astrofísica.
Casado con Ann Druyan.
Ampliamente reconocido por sus trabajos científicos, es más recordado por
sus esfuerzos por aumentar la difusión de la ciencia desde una visión
razonada y escéptica.

"La mayoría de los organismos en la Tierra dependen de su información


genética, que está 'precableada' en sus sistemas nerviosos, en mayor grado
que de su información extragenética, que es adquirida durante sus vidas. Para
los seres humanos, y de hecho para todos los mamíferos, es al contrario. Aún cuando nuestro
comportamiento es aún significativamente controlado por nuestra herencia genética, tenemos, a
través de nuestros cerebros, una mucho más rica oportunidad de crear nuevos senderos culturales y

18 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

de comportamiento a corto plazo. Hemos hecho una especie de acuerdo con la naturaleza: nuestros
hijos serán difíciles de criar, pero su capacidad para nuevos conocimientos aumentará en mucho la
capacidad de supervivencia de la especie humana. Además, los seres humanos hemos inventado, en
las más recientes pocas décimas de porciento de nuestra existencia, el conocimiento no sólo
extragenético sino también extrasomático; información almacenada fuera de nuestros cuerpos, de la
cual, la escritura es el más notable ejemplo."

(De "The Dragons of Eden", Los Dragones del Edén)

No hay garantía de que el universo se conformará a nuestras predisposiciones. Pero no veo cómo
podremos tratar con el universo - tanto el universo exterior como el interior - sin estudiarlo. La
mejor manera de evitar abusos es que la población en general sea científicamente literata, para
comprender las implicaciones de tales investigaciones. A cambio de la libertad de investigación, los
científicos están obligados a explicar sus trabajos. Si la ciencia es considerada un sacerdocio
cerrado, muy difícil y arcano para la comprensión de la persona promedio, los peligros de abuso son
mayores. Pero si la ciencia es un tópico de interés y preocupación general - si tanto sus delicias
como sus consecuencias sociales se discuten regular y competentemente en las escuelas, la prensa,
y en la mesa familiar - habremos mejorado enormemente nuestras posibilidades para entender cómo
es realmente el mundo y para mejorarlo a él y a nosotros."

(De "Broca's Brain", El Cerebro de Broca)

Sus contribuciones

Carl Sagan fue central para el descubrimiento de las altas temperaturas superficiales de
Venus y las causas de los cambios estacionales observados en la apariencia de Marte.
Ganó el Premio Pulitzer para no-ficción en 1978 por Los Dragones del Edén:
Especulaciones Sobre la Evolución de la Inteligencia Humana.
En 1980, su serie en 13 capítulos para los servicios de televisión pública "Cosmos", se
convirtió en una de las series más populares en la historia de la televisión pública
Americana.
Carl Sagan fue el "David Duncan Professor of Astronomy and Space Sciences" y el Director
del Laboratorio para Estudios Planetarios en la Universidad de Cornell.
Fue un importante contribuyente a las misiones de exploración Mariner, Viking y Voyager.
Obtuvo las Medallas de NASA por Excepcionales Logros Científicos, Logros en el Programa
Apollo, y Servicio Público Distinguido (dos veces).
El premio internacional de Astronáutica: el Prix Galbert.
El premio Joseph Priestley "por distinguidas contribuciones al bienestar de la humanidad".
El Premio Masursky del American Astronomical Society.
Y en 1994, el Public Welfare Medal, el honor más elevado del National Academy of
Sciences.
Director de la División de Ciencias Planetarias de la Sociedad Americana de Astronomía.
Director de la Sección de Astronomía de la Sociedad Americana para el Avance de la
Ciencia.
Presidente de la Sección de Planetología de la Unión Geofísica Americana.
Editor en Jefe de Icarus, la principal revista profesional de estudios del Sistema Solar.
Cofundador y Presidente del Planetary Society, el más grande grupo de intereses espaciales
del mundo.
Hay un asteroide, el 2709 Sagan, en su nombre.
Más de 400 artículos científicos y populares publicados.

Carl Sagan murió el Viernes, 20 de Diciembre de 1996, a la edad de 62 años.

Libros (de algunos existe versión en español):

19 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

Intelligent Life in the Universe (con I. S. Shklovskii)


The Dragons of Eden (1977): Speculations on the Evolution of Human Intelligence
Murmurs of Earth: The Voyager Interstellar Record (con F. D. Drake, Ann Druyan, Timothy
Ferrys, Jon Lomberg and Linda Salzman Sagan)
The Cosmic Connection: An Extraterrestrial Perspective
Other Worlds
Mars and the Mind of Man (conRay Bradbury, Arthur C. Clarke, Bruce Murray and Walter
Sullivan)
Intelligent Life in the Universe
Broca's Brain (1979): Reflections On the Romance of Science
Cosmos (1980)
Contact (1985): A Novel
Comet (1985) (conAnn Druyan)
A Path Where No Man Thought (1990): Nuclear Winter and the End of Arms Race
(conRichard Turco)
Shadows of Forgotten Ancestors (1992): A Search for Who We Are (conAnn Druyan)
Pale Blue Dot: A Vision of the Human Future in Space
The Demon-Haunted World: Science as a Candle in the Dark
Billions & Billions (1997): Thoughts on Life and Death at the Brink of the Millennium
(Póstumo, publicado por Ann Druyan)

Estafa pura y dura..- Hasta ahora hemos visto efectos más o menos subjetivos tanto por el lado del
paciente como por parte de pseudomédico. Sin embargo gran parte de las técnicas de curanderismo se
tratan de una auténtica estafa. El método habitual utilizado es el de diagnosticar una enfermedad
inexistente, montar toda una parafernalia espíritual-mágico-médica y decir que el mal ha desaparecido.
Las mayores o menores dotes escénicas del supuesto sanador la darán fama y dinero. Más graves aún son
las estafas sobre enfermos reales (y a veces muy graves) que depositan su confianza, lo único que les
queda, en estos vendedores de ilusión, suelen ser los casos más sangrantes y tristes de familias
destrozadas o arruinadas por las "artes" de estas gentes.

Cirugía psíquica
Sin apoyo, equipo quirúrgico o anestesia curanderos inprovisados hacen curaciones
complejas, como extracciones de tumores usando sólo sus manos o, ¿algo más?. La gente
desesperada recurre a medidas desesperadas. Los que han sido victimas de este engaño
han pagado el precio, pero el embuste no se limita a los filipinos. La cirugia psíquica se
ha vuelto un fenómeno latinoamericano, lo vemos por todos los países en pequeñas
iglesias y grupos y lejos de la vista del publico. Sus magos y timadores se hacen pasar
por verdaderos curanderos y les quitan a las personas su dinero y también la oportunidad
de un verdadero tratamiento médico. Las operaciones se realizan en cuartos oscuros
donde la trampa es facil de ocultar, pero aún en las condiciones más abiertas el ardid es
dificil de detectar. El procedimiento empieza pidiéndole al paciente que se acueste en una
mesa mirando hacia el cielo para ver hacia Dios pero enseguida se verá la verdadera
razón de esto. No hay ningún intento por mantener condiciones de asepsia.

Al terminar el procedimiento el falso cirujano limpia el área de insercción con las toallas.
Toda la operacion puede realizarse en minutos. Cuando termina el paciente puede

20 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

examinar los resultados, no hay huellas de ningún tipo de corte, incisiones o cicatrices.

Ahora miremos como se realiza esta convincente operación:

Antes de la llegada del paciente el cirujano psíquico prepara las herramientas para su
farsa:
sangre simulada, algodón colorante alimentario, una bolsa de plástico y varias tiras de
tocino con mucha grasa. Estos artículos se usan para crear unos pequeños recipientes
llamados cargas. Funcionan asi: El tocino se pone en la bolsa y se satura con colorante.
Esto será el convincente tumor que se extrae del estómago del paciente, luego la bolsa se
llena con una buena dósis de sangre simulada, los guantes evitan las evidencias
incriminatorias en las manos del cirujano, forma una bola con la bolsa y la carga está
lista. la carga se oculta donde sea menos evidente, el recipiente del algodón por ejemplo.
El timador se asegura de que no se vea y luego pasa el paciente. A este se le dice que
mire hacia arriba, en algunos procedimientos se le coloca boca abajo. En cualquiera de
los casos, esto da al supuesto cirujano una posición propicia para disfrazar su artimaña.
El algodón no tiene nada que ver con la higiene, el propósito de frotar el estomago es
darle opotunidad de ocultar la carga con la palma de la mano antes de masajear el area.
Los curanderos psiquicos no son más que unos timadores

El curandero de Campanillas protagoniza


un espacio de Tele5
JOSÉ PRIETO. EFE/MADRID (2001/11/23)

Telecinco emite hoy, a partir de la medianoche, el reportaje de investigación 'El


extirpador', en el que se muestra cómo un autodenominado 'cirujano psíquico', que lleva
siete años 'operando' en Campanillas, engaña a sus pacientes, personas enfermas que ven
en él su salvación.

En 'El extirpador' se cuenta la historia de Andrés, anteriormente operario de grúa de la


construcción de Barcelona y antiguo militante activo de los Testigos de Jehová, que lleva
7 de sus 52 años 'curando' en su consulta de la barriada de Campanillas a pacientes que le
llegan de toda España, porque su fama ha traspasado fronteras.

Él asegura que es un 'cirujano psíquico' porque con la sola ayuda de un bisturí simple y
sus manos, dice él, se mete en las entrañas de sus pacientes y 'extirpa' tumores y 'arregla'
lo que los médicos son incapaces de curar en los quirófanos.

El protagonista del reportaje prepara su zona de operaciones con meticulosidad. Primero


dibuja el contorno de la camilla con sal e impide que nadie lo traspase y cerca de él
coloca un cesto con algodones donde esconde un simple bisturí con el que realiza las
supuestas incisiones que, milagrosamente, no dejan ni siquiera un rasguño.

A través de las incisiones imaginarias extrae el tumor o la causa del mal del enfermo, que
no es otra cosa que vísceras de cerdos, corderos o aves.

21 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

Los reporteros localizan, incluso, el establecimiento donde el 'sanador' adquiere el


espinazo de cerdo con el que simula columnas vertebrales humanas. En cuanto a la
sangre con la que tiñe sus operaciones, se trata en realidad de pigmento mezclado con
otros líquidos.

El día que la policía le detiene, Andrés está llevando a cabo una delicada operación en los
testículos de su primer paciente.

1.2 Ejemplo del método científico

Casi todo el mundo ha visto alguna vez un experimento semejante a éste:

Supongamos una bolsa de material ligero. Un extremo de la bolsa tiene una boca, que puede mantenerse
abierta, por ejemplo mediante un aro; este extremo se sostiene sobre algo que caliente el aire como un
hornillo o un mechero.

La bolsa se levanta y se hincha en todo su volumen. En este momento se suelta, y se eleva hasta el techo
de la habitación, permanece en el techo durante un momento, y luego cae lentamente hasta el suelo. ¿Qué
ha ocurrido? ¿Por qué ha ocurrido?

Existen muchas formas de explicar los sucesos que se producen en la naturaleza. El tipo de explicación
que aceptemos depende de nuestros conocimientos y de los supuestos que hayamos aceptado. La
explicación que convence a una persona, puede no satisfacer a ninguna otra. Haciendo la pregunta ¿Por
qué se eleva la bolsa hasta el techo?, se pueden dar distintas respuestas.

A) Respuesta animista

"Porque quiere alejarse del fuego". Esta respuesta satisfaría a muchos niños e incluso a algunas personas
primitivas (aunque actualmente hay quienes "encuentran" una relación con la parapsicología).

El animismo es la creencia de que todos los objetos naturales se encuentran vivos y poseen alma. El hecho
de que la bolsa se eleve no es más sorprendente que el que un niño ande hacia una puerta. Un ejemplo es
el Chamanismo.

El mundo animista es un mundo caótico pues todos los objetos se comportan de acuerdo con sus impulsos
naturales. Sobrevivir en este mundo implica ser capaces de conocer qué es lo que va a ocurrir a
continuación, y si es posible controlarlo en alguna medida.

B) Explicación mágica

La magia se define como el arte de producir efectos o controlar sucesos mediante encantamientos,
hechizos y rituales.

La imagen del científico como mago de salón, capaz de realizar todo tipo de trucos, no es posible
encontrarla actualmente. Hace más de un siglo era corriente que los científicos ganaran dinero haciendo
demostraciones de salón sobre chispas y productos químicos capaces de producir espumas.

El hombre primitivo debía enfrentarse con situaciones que no podía controlar. Entonces creía en la
existencia de seres superiores que podían hacer cosas que a los humanos no les estaban permitidas.

22 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

C) Explicación sobrenatural

Ha sido un "milagro". En otras palabras, existe algún ser que es capaz de interferir en los procesos
naturales y de producir sucesos que ordinariamente no ocurrirían. De igual forma que algunos reyes y
gobernantes, este ser tiene la propiedad de violar las leyes de la naturaleza, aun cuando originalmente
estas hayan sido creadas por él. Un caso curioso, que denota el bajo nivel cultural existente en España, es
que se anuncian cursos de milagros en Málaga, por 150 euros.

D) Explicación teísta

Teísmo es la creencia en un dios al que se le considera creador y gobernador del universo. "Es la voluntad
de dios". Haya habido o no, un milagro, todas las cosas ocurren de acuerdo con un esquema ordenado por
un ser supremo. Si existen leyes obedecidas por la naturaleza, es él quien las ha creado; si algún suceso
viola estas leyes, él es el único responsable. En última instancia, todo ocurre porque él lo desea y directa o
indirectamente lo produce. Esta creencia es soportada por mucha gente, incluso por algunos científicos.

Sin embargo desde el punto de vista científico explica muy poco, porque explica demasiado. Si todas las
cosas se deben a la voluntad divina y si esa voluntad se encuentra por encima del conocimiento humano,
es que no conocemos nada. Por otra parte si existe, o existió una divinidad que estableció originalmente el
sistema natural y sus leyes, de cualquier forma que se establecieran, es deber del científico descifrar la
naturaleza de estas leyes.

E) Explicación teleológica

Teleológico, significa dirigido hacia un fin definido, o que posee un último propósito. "El aire caliente por
naturaleza tiende a elevarse", según dijo Aristóteles. Mediante varios experimentos se puede comprobar
que el calor se encuentra asociado con la elevación de la bolsa.

Es el aire que llena la bolsa el que origina que ésta se estire y se hinche. Es el aire del interior de la bolsa
el que absorbe calor, calentándose y transportando la bolsa hasta el techo. ¿Por qué se acepta la existencia
de una sustancia invisible como el aire?. No es por que lo podamos sentir directamente, sino porque nos
ayuda a explicar otros fenómenos que podemos percibir. No todos los conceptos de este tipo sobreviven al
paso del tiempo.

En el esquema teleológico encontramos explicaciones más profundas que buscan propósitos más
generales. Así podemos decir que el aire caliente se eleva para que la tierra pueda enfriarse y las plantas
puedan crecer, y así nosotros tengamos alimentos para comer, y la cadena pueda alargarse enormemente.
Estas explicaciones dan lugar a discusiones filosóficas.

F) Explicación empírica

Empírico significa basado en la experiencia práctica, sin intentar comprender por qué se ha producido el
hecho.

* Principio de Arquímides: Cuando un cuerpo se sumerge en un fluido, es empujado hacia arriba por
una fuerza que es igual al peso del fluido desplazado.

Arquímedes vivió en la ciudad griega de Siracusa hacia el año 200 ane. Su principio lo
descubrió cuando el rey Hiero, le preguntó cómo podía saber si la corona que se había
comprado era realmente de oro. Este objeto tan valioso debía tratarse de forma no
destructiva. Arquímedes mientras se encontraba en los baños públicos tuvo una idea, y

23 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

salió corriendo por las calles de Siracusa, vestido a la usanza de los baños públicos
grecorromanos, es decir desnudo, gritando Eureka ("Lo he encontrado").

La aplicación de su principio distingue el plomo del oro, sumergiendo la corona en agua,


el plomo es más ligero que el oro y por lo tanto 1 kg de plomo ocupa más volumen que
uno de oro. Arquímedes pesó la corona en el aire y en el agua, si fuera de oro perdería
peso en al agua un 5 por ciento, y si fuera de plomo un 8 por ciento. De esta forma
demostró que habían estafado al rey, ganando una fama imperecedera, mientras que el
destino del orfebre fue menos afortunado.

A continuación se muestra una simulación en Java, de un experimento que permite verificar el principio
de Arquímides, relativo al empuje en líquidos. Un sólido colgando de un dinamómetro se sumerge en un
líquido (mediante el arrastre del ratón). En este caso se reduce la fuerza medida, siendo igual a la
diferencia entre el peso y la fuerza de empuje.

Se pueden cambiar (dentro de ciertos límites) los valores preseleccionados de las densidades y del área de
la base y altura del cuerpo actuando sobre los campos de texto correspondientes. Tras presionar la tecla
"Intro", el programa indica los nuevos valores de la profundidad, volumen desplazado, fuerza de empuje,
peso y fuerza medida. Se supone un valor g = 9.81 m/s2 para la aceleración de la gravedad. Si aparece el
mensaje "Máximo excedido" con letras en rojo, es necesario seleccionar otro rango de medida adecuado.

* Ley de Gay-Lussac: Cuando se calienta (o enfría) un gas a presión constante, se expansiona (o contrae)
proporcionalmente al aumento (disminución) de la temperatura.

Explicación
Cuando la temperatura aumenta, el aire del interior de la bolsa aumenta igualmente de
temperatura. Se constata que cuando aumenta la temperatura el volumen del gas crece igualmente

Esto se puede explicar viendo en detalle el comportamiento de las moléculas de gas

24 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

Como consecuencia de la agitación, las Al subir la temperatura del aire, la agitación de


moléculas de gas ejercen una cierta presión las moléculas aumenta igualmente; por lo que
sobre las paredes de la bolsa ejercen mayor presión sobre las paredes de la
bolsa, lo que tiene como consecuencia el
aumento de su volúmen.

Estos dos principios difieren de las explicaciones previas en dos aspectos importantes: son cuantitativos,
nos dicen la magnitud que cabe esperar de un efecto, y se pueden aplicar a otros experimentos además del
que estamos describiendo.

Estos principios se pueden aplicar al caso de la bolsa con aire caliente. De acuerdo con la ley de
Gay-Lussac, al calentar el aire se expansiona, por lo tanto desplaza una cantidad de aire más frío, exterior
a la bolsa, que es más pesado que el aire caliente del interior. Luego por el principio de Arquímedes, el
cuerpo sumergido (es decir la bolsa con aire caliente) es empujado hacia arriba por una fuerza que es
mayor que su propio peso. De esta forma la bolsa se eleva hasta el techo. Cuando el aire en su interior se
enfría, se vuelve tan pesado como el aire que le rodea y el peso extra de la bolsa, es suficiente para hacerla
descender.

Ambos principios son ejemplos de leyes empíricas, que describen lo más fielmente posible, qué es lo que
sucede.

Feynman y la educación científica


Aunque nunca hayan oído hablar de Richard Feynman (1918-1988) su aliento
seguramente les haya rozado en algún momento de sus vidas, sobre todo si han tenido la
suerte de disfrutar de uno de esos maestros que se divierten horrores enseñando ciencia y
haciéndonos sentir el placer de la propia inteligencia. Feynman no era el típico físiqueiro
de camisa de rayas con el bolsillo petao de bolis de cuatrocolores y mirada perdida en un
espacio multidimensional que caricaturizó con precisa crueldad Jerry Lewis en El

25 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

profesor chiflado. Al contrario: brillante, seductor y deslenguado, la biografía de


Feynman revela a un tipo dispuesto a disfrutar de la vida, ya sea haciendo y enseñando
física, o como miembro de un grupo de samba y asiduo intérprete de frigideira en el
carnaval de Río.

Fue precisamente en una de sus estancias en Brasil donde tuvo lugar la anécdota que hoy
les cuendo, recogida en ¿Está Vd de broma Mr Feynman? Nuestro hombre había pasado
varios meses dando clases a universitarios brasileños, asombrado por el carácter
memorístico de los estudios de física e ingeniería: sus alumnos conocían al dedillo todas
las definiciones pero eran incapaces de aplicarlas a problemas reales; anotaban
atentamente todo lo que decía el profesor pero nunca, jamás, hacían una pregunta sobre
lo que escuchaban. Al final del curso fue invitado a contar sus experiencias como
profesor ante una nutrida representación de la comunidad universitaria.

La sala de conferencias estaba llena. Comencé definiendo la ciencia como una forma de
comprender el comportamiento de la naturaleza. Luego pregunté: ¿Hay alguna buena
razón para enseñar ciencia? Desde luego, ningún país puede considerarse civilizado a
menos que triqui, triqui, triqui...? Y allí estaban todos diciendo que sí con la cabeza,
porque así es como piensan.

Luego dije, ¿Esto por supuesto es absurdo, porque ¿qué motivos tenemos para pensar que
debemos estar a la altura de otros países? Tiene que haber alguna razón seria, no sólo que
otros países también lo hacen. Hablé entonces de la utilidad de la ciencia, de su
contribución a la mejora de la condición humana y todo eso, provocándoles un poco.

Y seguí: El objetivo de mi charla es demostrarles que en Brasil... ¡no se enseña


absolutamente nada de ciencia! Podía verlos agitarse pensando: ¿Cómo? ¿Nada de
ciencia? ¡Es una estupidez!, pero si tenemos todos estos cursos?.

(...) Así que sostuve el libro de física elemental que ellos usaban y dije: En ningún lugar
de este libro se mencionan resultados experimentales, excepto en un sitio donde hay una
bola que rueda por un plano inclinado y se cuenta hasta dónde ha llegado la bola al cabo
de un segundo, dos segundos, tres segundos, etc. Los datos incluso vienen con errores de
modo que si uno los analiza parecen auténticos resultados experimentales, un poco por
arriba o por debajo de los valores teóricos. Hasta se menciona la necesidad de corregir
los errores experimentales, lo que es estupendo. El problema es que si calculamos el
valor de la aceleración a partir de estos datos obtenemos la respuesta correcta. Sin
embargo, una bola que rueda por un plano inclinado, si realmente se hace el experimento,
debe emplear parte de su energía para vencer la inercia y empezar a rodar, lo que hace
que con los datos reales obtengamos un valor de la aceleración que es 5/7 del valor
teórico. Así pues, este único ejemplo de un experimento es algo totalmente ficticio.
¡Nadie ha hecho rodar nunca esa bola, o no habrían obtenido este resultado!.

También he descubierto otra cosa, continué. Pasando las hojas al azar y poniendo el dedo
en cualquier página puedo mostrarles el problema; lo que allí aparece no es ciencia, sino
memorización. Así que seré lo suficientemente valiente como para hacerlo ahora, frente a
esta audiencia, y poner el dedo en cualquier sitio y leerles una frase cualquiera.

Y así lo hice. Brrrrrrrrrup - puse el dedo y comencé a leer: Triboluminiscencia.


Triboluminiscencia es la luz que se emite al aplastar cristales... ¿Es esto ciencia? ¡En
absoluto! Lo que aquí tenemos es lo que una palabra significa en términos de otras
palabras. No hemos dicho nada sobre la naturaleza, nada sobre el hecho de que cuando
uno aplasta cristales se produce luz, y por qué se produce. ¿Han visto alguna vez a un

26 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

alumno intentarlo? No lo verán, pues no pueden.

1.3 Escepticismo y pensamiento crítico

Las personas tendemos a agrupar nuestros conocimientos y queremos saber la razón por lo qué ocurre una
cosa determinada. Nos preguntamos cuál es la relación entre una experiencia concreta y alguna otra
experiencia. A lo largo de la historia de la humanidad han existido grandes pensadores, que han influido
mucho en el desarrollo posterior. La mayoría de las veces dudamos de las diversas razones que se nos
presentan para explicar un fenómeno, algunos, incluso creemos en muy pocos hechos, esta visión de la
realidad es lo que se denomina escepticismo.

Enlace recomendado: ¿Qué es el pensamiento crítico?

Con frecuencia a los escépticos se nos describe como personas inhumanas, frías y robóticas, esto es falso.
Como todo el mundo tenemos creencias (o convicciones como algunos prefieren denominarlas),
generalmente de tipo racional, fundamentadas en la lógica, en conocimientos científicos y en hechos
comprobados, nunca en el mero deseo de que algo sea cierto. En cuanto a la frialdad, es completamente
falso, posiblemente apreciamos cosas diferentes. Los escépticos no somos menos apasionados,
imaginativos o sensibles que los crédulos, y solemos tener mucho mejor sentido del humor.

Acerca del escepticismo

A pesar de todas las facilidades y el gran avance tecnológico que la ciencia ha logrado para la
humanidad a lo largo de su historia, actualmente, como siempre, existe una enorme desinformación
sobre varios aspectos del conocimiento humano. Se observa que por muchos motivos (¿educación
deficiente seria uno?), que un gran número de personas no consigue distinguir fácilmente entre una
realidad posible y una realidad ficticia.

Esta dificultad en separar lo real de lo irreal, permite la aparición y proliferación de personas o


grupos organizados que fomentan la desinformación con el objetivo de obtener ventajas de algún
tipo (monetarias, políticas, etc.), y con este fin incentivan conscientemente la desinformación y la
ignorancia.

Preguntas que nos hacemos

¿Cómo curar rápidamente una enfermedad terrible? ¿Cómo saber el futuro y así prevenir posibles
desventuras? ¿Existe alguna entidad superior que se preocupa por mí y me protege?

Estas son preguntas obvias que una persona con el mínimo de discernimiento ha realizado en
alguna etapa de su vida. ¿Quién no ha tenido veces incontables problemas de salud, de dinero o
sentimentales, problemas que ponen a prueba hasta la última pizca de resistencia física y
emocional?

Lamentablemente, la vida para una enorme mayoría de la población es una sucesión de penurias sin

27 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

fin, cuyos orígenes muchas veces vienen del propio ámbito y educación familiares, pasando por una
deficiente educación escolar, y finalizando en una sociedad desorganizada y no preparada para
resolver problemas elementales e inmediatos.

En este contexto, nada más natural que buscar una tabla de salvación en cualquier mano que se
extienda para aparentemente ayudar, buscando respuestas fáciles e inmediatas a problemas difíciles
y complicados.

Derecho a la duda

La rígida educación que nuestras sociedades han impuesto, limita desde temprano nuestra
capacidad de rebelión contra ideas y preconceptos adquiridos, y por esta razón, tendemos a aceptar
casi todo lo "establecido" como siendo algo intrínsecamente verdadero e irrevocable. La conclusión
es que hay millones de personas que no saben que tienen un derecho elemental, tanto como comer y
respirar, y es el derecho a la duda. Todos nacemos con este derecho, el de preguntar, indagar,
cuestionar y exigir pruebas ante cualquier afirmación realizada, sea del cuño que fuere, científica,
política, religiosa o económica, pero muy pocas personas ejercen este derecho natural.

El escepticismo es la escuela que pregona el uso de este derecho, el irrenunciable derecho a la duda,
el derecho que toda persona tiene a no ser engañada, manipulada o dirigida con fines excusos y
escondidos. El escepticismo es la sana actitud que hace rodar con suavidad el progreso de la
ciencia, invitándonos a cuestionar continuamente las bases de las disciplinas que dieron al hombre
la supremacía sobre el planeta, como son la Física, la Biología, la Química y otras, y que soportan a
nuestra tecnología.

Un escéptico no acepta ninguna verdad establecida a priori, sino que la acepta al final de una larga
cadena deductiva, o sea, cuando ya no hay argumentos que puedan invalidarla. Por el contrario,
otras escuelas de pensamiento pregonan algunas verdades como siendo legítimas por derecho
propio, y que necesitan argumentos propios para negarlas.

Exije pruebas

Así, la próxima vez que alguien te prometa una cura milagrosa a través de una piedra, pregúntate
antes: ¿cómo una piedra puede influir en mi salud?, cuando alguien te hable de energías espirituales
que realizan milagros, piensa si existe algún tipo de energía que no pueda ser medida ni estudiada
(sin necesidad de ser un experto en Física), y cuando te digan que ha sido visto un habitante de otro
planeta, pregúntate antes, cómo es que millares de astrónomos profesionales que vigilan el cielo día
y noche nunca han visto nada.

Exije pruebas, no te conformes con cualquier cosa. La persona que duda es la que debe ser
convencida, y así, tiene todo el derecho de escoger que armas prefiere, como le gustaría ser
convencida, y que método lógico desea emplear.

Cabe al proponente responder a todas y cada una de las dudas levantadas y dejar satisfecho al
escéptico en cuestión. Si alguna duda persiste después de presentadas todas las pruebas posibles,
entonces el escéptico tiene todo el derecho de continuar siendo escéptico.La carga de la prueba
siempre recae sobre quien afirma algo.

28 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

¿Qué es el argumento ad ignorantiam?


Un sujeto afirma el enunciado A y le pide a un segundo sujeto que intente demostrar que
el enunciado A no es cierto. Si el segundo sujeto fracasa en su demostración, el primer
sujeto dirá que su enunciado es cierto. Se trata del argumento ad ignorantiam: si no
puedes probar que lo que yo digo es falso, entonces lo que yo digo es verdadero.

Lo increíble es que aún hoy se siga usando este argumento continuamente: demuestra que
no he visto un ovni, demuestra que no hay fantastmas en tal hotel abandonado, demuestra
que mi péndulo no te adivina el futuro, etc.

Pues yo les digo a estos seguidores ikerjimenianos: hoy he viajado al futuro y he


conocido a mis nietos, tenían elefantes rosas con medias turquesas. Demostradme
que es falso. Este tipo de argumentación puede llevar a defender enunciados absurdos,
aunque también es útil para la sociedad: todo el mundo es inocente mientras no se
demuestre lo contrario.

Por último un texto de Locke en el que cataloga los argumentos en cuatro clases:

Antes de abandonar este asunto deberíamos reflexionar un poco sobre estas cuatro clases de
argumentos.... El primero consiste en recibir las opiniones de aquellos hombres que, por su aprendizaje,
por su eminencia, por su poder o por alguna otra causa, han adquirido una reputación y la han asentado
con autoridad ante los demás. Cuando los hombres han sido elevados a cualquier clase de dignidad, se
considera una falta de modestia, en otros, contradecirles en cualquier asunto, o poner en duda la
autoridad de aquellos hombres que ante los demás la tienen. Se suele censurar el que un hombre no
abandone rápidamente su propuesta ante la de otros autores ya consagrados, considerándolo como un
acto de orgullo desmedido; ....El que basa sus tesis en unas autoridades semejantes, piensa que siempre
debe de triunfar en su causa, y se muestra dispuesto a calificar de imprudente a cualquiera que ose
contradecirlas. Esto es lo que pienso se puede llamar «argumentum ad verecundiam»...En segundo lugar,
otra forma de la que los hombres se valen comúnmente para acallar a los demás, y para obligarlos a
aceptar sus juicios y a recibir las opiniones en debate, estriba en exigir al adversario que admita lo que
ellos alegan como una prueba, o que designen otra mejor Y a esto es a lo que llamo «argumentum ad
ignorantiam».... Una tercera forma consiste en obligar a un hombre mediante consecuencias extraídas de
sus propios principios a concesiones. Esto es lo que ya se conoce con el nombre de «argumentum ad
hominem»..... La cuarta manera consiste en el empleo de pruebas extraídas de los fundamentos del
conocimiento o de la probabilidad. Es a lo que llamo «argumentum ad judicium». Este, entre los cuatro,
es el único que conlleva una verdadera instrucción y que nos hace adelantar en el camino del
conocimiento...ya que, tal vez, me puede llevar hacia la reflexión de la verdad. ( Referencia)
Fuente: Ciencia en el XXI. Mirando con la mente.
Bajo licencia Cretaive Commons

El movimiento escéptico utiliza la red


para propagar sus ideas

29 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

Lo irracional nos invade, siendo el mundo de lo paranormal su punta de lanza más


visible. El movimiento escéptico trata de combatir esta plaga a base de "fomentar la
reflexión y la duda". Sus socios, entre los que se incluyen prestigiosos científicos,
pensadores o periodistas de todo el mundo animan a cualquier persona a participar.
Internet es una de sus herramientas más poderosas.

Jueves, 14 junio 2001


ÁLEX FERNÁNDEZ, IBLNEWS.com
Un 15% de la población recurre a curanderos cuando tiene algún problema de salud;
entre la cuarta parte y la mitad de los españoles tiene alguna creencia esotérica; las dos
principales revistas ocultistas de España venden más de 50000 ejemplares mensuales. La
lista de este tipo de datos es muy larga, lo cual es preocupante, por lo menos para aquel
que se considera escéptico.

¿Eres un escéptico? Seguramente tú, lector de IBLNEWS, seas un escéptico, aunque no


seas consciente de ello. De todas formas, si no tienes muy claro que es eso de ser
escéptico, te animamos a que leas las siguientes preguntas. Si tus respuestas son
negativas, ¡felicidades!, eres un escéptico convencido:

¿Es posible adivinar el futuro? ¿Visitan la Tierra seres de otros planetas? ¿Convivió el
ser humano con los dinosaurios? ¿Está próximo el fin del mundo? ¿Ha demostrado la
NASA que Jesucristo resucitó? ¿Es peligroso viajar por el triángulo de las Bermudas?
¿Tiene Satanás debilidad por la España profunda? ¿Hay gente capaz de operar sin causar
dolor ni cicatriz alguna? ¿Está el futuro escrito en las estrellas? ¿Existen las casas
encantadas? ¿Se pueden doblar cucharas con el poder de la mente? ¿Es posible
comunicarse con el mundo de los espíritus? ¿Dejó Dios escrito en la Biblia el pasado y el
futuro de la humanidad? ¿Son las pirámides egipcias obra de seres venidos de otros
mundos? ¿Se manifiestan los espíritus a través de la ouija?

Puede que parezcan estúpidas algunas de dichas preguntas, pero como decimos, muchas
personas responderían convencidas con un sí. Para Manuel Toharia, director del Museo
de Ciencias de Valencia y miembro de la ARP- Asociación para el Avance del
Pensamiento Crítico, la postura escéptica nace como reacción a la enorme cantidad de
creencias basadas en afirmaciones de personas que se arrogan cierta autoridad y/o que
tienen suficiente credibilidad entre personas crédulas ("si no hubiera bobos no habría
engañabobos").

Origen de la palabra "escéptico"

Tal vez haya más de uno que le suene mal aquello de ser "escéptico". En opinión de Félix
Ares, director del Museo de Ciencias de San Sebastián y actual presidente de la
Asociación, "en castellano la palabra escéptico tiene connotaciones negativas que no lo
tenía la palabra griega "esketikos".

En efecto, el escepticismo surge en la Grecia Clásica como escuela filosófica y su


creador, Pirron de Elis, defiende que es imposible conocer algo de modo totalmente
cierto. Los escépticos, por lo tanto, le dan ese sentido, como nos recuerda Ares: "todo
saber es provisional y revisable. Duda de todo. No creas en "popes" de ningún tipo".

El movimiento escéptico surge hace 25 años en Estados Unidos de la mano del filósofo
Paul Kurtz, que ayudado por científicos de la talla de Carl Sagan, Isaac Asimov, Martin
Gardner o Stephen Jay Gould crean la CSICOP, el Comité para la Investigación

30 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

Científica de lo Paranormal. En el mundo de habla hispana la idea cuaja en 1985 con la


creación de la sociedad ARP, la Alternativa Racional a las Pseudociencias, en la que
siguiendo la estela de la CSICOP, comienza a ganar paulatinamente adeptos en la lucha
contra lo irracional. Según Luis Alfonso Gámez, periodista de El Correo y miembro
histórico de la ARP, "A mediados de los años 80, ufólogos, astrólogos, parapsicólogos,
curanderos y demás campaban a sus anchas por los medios de comunicación sin que
nadie les llevara la contraria. Hasta que ARP empezó a sonar en los medios".

Sin embargo, la lucha es desigual. Para Toharia, "el combate contra las seudociencias
tiene pocos apoyos oficiales. En realidad, parece como si a los rectores de la sociedad no
les importase el nivel de engaño que sufren sus conciudadanos, generalmente por un
deficiente nivel cultural en lo científico". Según Gámez, "el gobierno norteamericano ha
preferido que la gente crea en OVNIs, para que no se hable de proyectos secretos
gubernamentales".

Internet: poderosa herramienta

Internet se ha convertido para los escépticos en el medio de comunicación y expansión


por excelencia. Como bien dice Javier Armentia, director del Planetario de Pamplona y
expresidente de la ARP, "en el últimos años, la labor de ARP se ha visto renovada con
nuevas aportaciones, de profesionales de muchos campos de la actividad intelectual. Ello
ha sido posible gracias a la popularización de esa nueva ágora que supone Internet".

Y es que la red ha permitido que el mensaje de ARP llegue a los escépticos de habla
hispana de todo el mundo bien a través de las webs de la asociación y sus simpatizantes,
bien a través de la lista de correo escéptica hispana. Según Gámez, "Internet es ahora
para nosotros una herramienta básica tanto de proyección hacia el exterior como a la hora
del trabajo interno: reuniones de la directiva, intercambio de opiniones con los socios,
sesiones del consejo de redacción de nuestra revista, etcétera. Es un frente en el que no
pasa semana sin que recibamos alguna solicitud de adhesión."

No sólo las pseudociencias

Más de uno podría pensar que los escépticos se limitan a luchar contra las
pseudociencias. Sin embargo, ser escéptico supone algo más, tal y como se refleja en los
estatutos de la asociación: "La ARP impulsa el desarrollo de la ciencia, el pensamiento
crítico, la educación científica y el uso de la razón; promueve la investigación crítica de
las afirmaciones paranormales y pseudocientíficas desde un punto de vista científico y
racional, y divulga la información sobre los resultados de estas investigaciones entre la
comunidad científica y el público en general."

Por otra parte, los escépticos no tratan de eliminar las creencias por sí mismas. Como
bien dice Toharia, "una creencia, sin más, podría ser criticada pero la libertad de las
personas para creer lo que quieran está por encima de lo demás (otra cosa es que quieran
imponer esa creencia por la fuerza, claro). Pero un creencia que se disfraza de ciencia no
es más que un fraude que hay que denunciar ante la sociedad como tal".

Por su parte, según Félix Ares, "Nunca nos hemos metido con las creencias; nos hemos
metido con aquellos que dicen que sus creencias están demostradas científicamente. Por
ejemplo, nunca nos hemos metido con los que creen que la Sabana Santa es la mortaja de
Jesucristo. Sí lo hemos hecho con los que dicen que la Ciencia ha demostrado que es la
mortaja de Jesucristo."

31 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

Queda mucho por hacer

Además de por lo comentado anteriormente, además de pensar y vivir como un escéptico,


se puede actuar como tal: Según Toharia "los que hemos dado ese paso pensamos que no
basta con tener una postura escéptica, sino que hay que evitar que determinados
"cuentistas" sigan engañando a la gente; se trata de los que, tomando el idioma y la
apariencia de la ciencia, no hacen más que propagar creencias sin fundamento racional
alguno".

En definitiva, se trata de combatir y someter a análisis escéptico no sólo lo paranormal,


sino todo conocimiento situado en el límite del saber científico y toda afirmación que se
sustente en él, en la pseudociencia o en la falsa ciencia. Así quedaba reflejado en el
editorial de la primera revista de la Sociedad: "Hay que acabar con las falacias a las que
se agarran los charlatanes pseudocientíficos para defender su presencia en los medios de
comunicación y para no ser objeto de chanzas, la principal de las cuales es argüir que
todas las ideas son respetables y tienen el mismo derecho a ser defendidas. No, no es
verdad. No todas las ideas son respetables. Las idioteces no son respetables; son
idioteces. Y, a veces, peligrosas. Cuando un pseudoarqueólogo aventura que algunas
razas humanas descienden de extraterrestres y otras no, está haciendo un nada sutil
ejercicio de racismo, y el racismo no es respetable, y hay que denunciarlo".

El editorial también hacía referencia a la influencia de los pseudocientíficos a través de


los poderosos medios de comunicación. En opinión de Luis Alfonso Gámez, si bien la
prensa escrita ha ido retirando de sus páginas el mundo de la pseudociencia, los medios
audiovisuales siguen siendo un lugar de referencia para los seguidores de lo paranormal.
Queda por lo tanto mucho por hacer, sobre todo para que no ocurran casos como los de
políticos que apoyan la inclusión de la homeopatía en la Sanidad Pública o que
respetables Universidades recojan en sus planes de estudios seminarios, cursos o
asignaturas sobre astrología.

1.4 Algunos casos en la informática

HOAXES (burlas, engaños)

Mensajes de solidaridad para ayudar a niños enfermos que no existen, falsas alertas de virus, dudosos
métodos para hacerse millonario. Cualquier cadena es buena para recolectar direcciones de correo
electrónico y saturar los servidores.

Hay otros que repiten el esquema de las viejas cadenas de la suerte que recibíamos por correo postal que
te auguran calamidades si cortabas la cadena y te prometen convertirte en millonario si la sigues. He
recibido muchas cadenas en las que se decía "no sé si será cierto pero por las dudas yo lo reenvío". Para
los temerosos, supersticiosos y magufos, la realidad es que yo he roto infinidad de cadenas y no me ha
sucedido nada.

Básicamente, podemos dividir los hoaxes en las siguientes categorías:

* Alertas sobre virus incurables


* Mensajes de temática religiosa
* Cadenas de solidaridad
* Cadenas de la suerte

32 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

* Leyendas urbanas
* Métodos para hacerse millonario
* Regalos de grandes compañías
* Otros
* Mensajes tomando el pelo a la gente que envía hoaxes

Hay otros mensajes que no nacen como hoaxes pero pueden ser considerados como tales:

* Poemas y mensajes de amor y esperanza (suelen venir en un archivo de Power Point pesadísimo).
* Mensajes para unirte a programas de afiliados.
* Chistes y fotos que circulan en cadena.

Enlace recomendado: Hoax. Los mitos más difundidos en Internet

Algunos detalles sobre los hoaxes


(Información ampliada en Rompecadenas)

Características Objetivos Consecuencias

No tienen Conseguir Hacen perder


firma. direcciones tiempo y
Algunos de mail. dinero al
invocan los Congestionar receptor.
nombres de los Congestionan
grandes servidores. los servidores.
compañías. Alimentar el Nos llenan de
Piden al ego del publicidad y
receptor que lo autor. basura.
envíe a todos Hacen perder
sus contactos. valor a
Te amenazan cadenas
con grandes creadas por
desgracias si gente que
no lo reenvias. realmente lo
necesita.

Hoax "Virgen de Guadalupe"

Este mensaje es un hoax y no debe ser reenviado. El texto es el siguiente:

"Asunto: VIRGEN DE GUADALUPE

No rompan la cadena, es milagrosa, pidan algo!!! Recuerden sus palabras: "No estoy yo aqui
que soy tu Madre?"

33 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

Carta a la Virgen de Guadalupe:


Hermosa Virgen de Guadalupe, te pido en nombre de todos mis hermanos del mundo que
bendigas y nos protejas.

Danos una prueba de tu amor y bondad y recibe nuestras plegarias y oraciones.


Oh Purisima Virgen de Guadalupe, alcanzame de tu hijo el perdon de mis pecados, bendicion
para
mi trabajo, remedio a mis enfermedades y necesidades, y todo lo que creas conveniente pedir
para mi familia.

Oh Santa Madre de Dios, no desprecies las suplicas que te dirigimos en nuestras necesidades.

Queridos hermanos, antes que nada quiero decirles que la Virgen de Guadalupe es buena y
milagrosa y siempre nos acompaña en cualquier lugar.

Esta carta tiene como fin darle la vuelta al mundo para recibir milagros con esta hermosa
cadena.

Debes hacer 19 copias y repartirlas en los siguientes diez dias y a cambio recibiras una prueba
de la Virgen por muy imposible que sea.

Esta carta es sagrada, por favor no te burles de ella, si la recibes y la repartes antes de los 10
dias, tendras una sorpresa y una felicidad muy grande.

QUE TENGAS UN BUEN DIA"

SPAM (Correo no solicitado)

Todos los usuarios de correo electrónico estamos acostumbrados a recibir cada día mensajes publicitarios
no solicitados. Esta práctica, aunque no es ilegal en muchos países, ya que no hay leyes que la prohiban,
perjudica a todos los usuarios de internet, inclusive a quienes la realizan.

Actualmente, se calcula que más del 50% de los e-mails que se envían son no solicitados, o sea, son
spam. Esto quiere decir que en el momento en que estás leyendo este tema, se están enviando varios
millones de e-mails no solicitados. El spam es perjudicial para todos, hasta para la empresa que lo envía.

Por lo general, las direcciones son robadas o compradas. Yo mismo recibo cada día dos o tres ofertas de
bases de datos con millones de direcciones de email al increible precio de US$ 35.

Esta gente aclara, con gran dignidad, que no copia ni vende software. También ponen en sus mensajes
(que dicho sea de paso son spam porque no son solicitados) "no compre bases truchas, todas nuestras
bases cuentan con direcciones reales y activas".

Aunque hay algunos spammers que te envían solamente un mensaje, también hay muchos que te
bombardean todas las semanas con el mismo mensaje con archivos adjuntos sobre la necesidad de filtrar
el agua de la ducha con un análisis de varias páginas, que nadie lee. De todos modos, si cada persona que
abre una página web te va a enviar un mail, el correo electrónico sería absolutamente inservible.

Tampoco es lógico que me envíen un mensaje en formato HTML promocionando un nuevo servicio de
distribución de videos, exclusivo para la ciudad de Lima, cuando yo vivo a miles de km de distancia.

34 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

Esto, además de ofrecer una imagen negativa sobre la empresa que envía el spam, muestra la poca utilidad
de las bases de datos compradas.

Por otro lado los spammers invocan una supuesta ley por la cual el mensaje que están enviando no puede
ser considerado spam si tiene una forma de ser removido. Esto es falso, esa ley no existe. Además, la
mayoría de las veces si uno contesta el mail pidiendo ser eliminado de la lista, lo único que hace es
confirmar que su dirección existe. Por lo tanto, es conveniente no responder nunca a un mensaje no
solicitado.

Lo mejor es aplicar filtros o reglas de mensaje para evitar recibir mensajes de esas direcciones, un
programa para el entorno Windows, gratuíto y muy bueno, es K9. Otra opción, es quejarse al postmaster
del que envía el spam.

Lo más peligroso de muchos correos no solicitados, es que pueden incluir archivos con virus o troyanos, y
ser activados ya sea de forma involuntaria al intentar leerlos o incluso si se tiene un programa de correo
como Outlook (de Microsoft)se activan automaticamente.

Es imprescindible el tener siempre un programa antivirus y otro que detecte los troyanos, el detector de
troyanos (o programas espía) más completo y gratuito es Ad-Aware, que se puede descargar de Lavasoft.
Se ha de tener mucho cuidado con este tipo de programas, pues algunos eliminan los troyanos, pero ellos
son otros troyanos.

Un troyano reciente, Whiter.F, está diseñado para eliminar todos los archivos del disco duro. Se propaga
mediante correo electrónico, redes P2P, canales de IRC o transferencias FTP. EL usuario ve un mensaje
que dice "cometiste un acto de pirateria, te lo mereces" y seguidamente borra los ficheros del disco duro.

La proliferación de filtros y virus se esta convirtiendo en un problema para los "spammers" profesionales.
Resulta que muchos proveedores de internet impiden que los mensajes comerciales no solicitados llegen a
los buzones de los usuarios. Por supuesto que no están dispuestos a ver como ese millonario negocio se
derrumba y ahora han centrado sus esfuerzos en bombardear a los usuarios de las aplicaciones de
mensajería instantánea.

AOL IM, Yahoo Messenger, ICQ y por supuesto MSN Messenger son desde hace unas semanas un lugar
donde no es raro encontrarse con un mense promocionando un producto y que no sabes como ha llegado
hasta allí. Se trata de spim, durante el 2003 se enviaron 1000 millones de spims, aunque en el 2002 fueron
500 millones, según recoge en una investigación Ferris Research. Y para este año se prevén nada más ni
nada menos que 4000 millones.

Juego de Palabras: 'Spam'

Publicado en el suplemento cultural 'Territorios' de El Correo, 13.10.04

35 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

La lengua inglesa goza de una inventiva peculiar para crear palabras, y también de una
capacidad especial para consolidarlas en el habla. Así se ha visto con "spam", el término
con que ya todos los usuarios del correo electrónico denominan a los mensajes
parasitarios que entran en su buzón. Hay quien piensa que la palabra es un tecnicismo de
la informática formado bien mediante siglas, bien por abreviatura de otra voz más larga.
Pero no nació así. "Spam" es el nombre de una marca de comida popularizada a
mediados del siglo XX. Se trataba de una variedad de carne en lata, puesta en el mercado
norteamericano por la empresa charcutera Hormel Foods en 1937. Sirvió de alimento a
los soldados estadounidenses y rusos en la II Guerra Mundial, y en los años 50 y 60
empezó a exportarse a varios lugares del mundo. Fue entonces cuando lo que en
principio se había llamado "Hormels Spiced Ham" quedó reducido a las cuatro letras de
"Spam", de mayor pegada comercial. Nada de esto explicaría cómo pudo "spam" llegar a
la jerga informática, ni siquiera metafóricamente, si no fuera porque los tronchantes
Monty Python la usaron hasta la saciedad en un sketch de su "Flying Circus" en 1969. En
él, unos vikingos entraban en una taberna y pedían la carta a la camarera, quien les
recitaba una inacabable retahíla de platos... en ninguno de los cuales faltaba el "spam":
«huevos con spam, spam con tomate, bacon y spam...». Al igual que el correo electrónico
no querido, el spam lo invadía todo y había que tragarlo de todas formas.
José María Romera

PHISHING

Recientemente se han popularizado los ataques phishing. Es una estafa que utiliza mecanismos
electrónicos, como puede ser un mensaje de correo o una página web, para convencer al usuario que
revele información sensible, que va desde datos personales y privados hasta las claves de acceso a
servicios.

Los ataques phishing son posibles por la combinación de unos mecanismos débiles de protección de
acceso que generalmente no son otra cosa que una simple combinación de usuario y contraseña, y la
capacidad innata de las personas a revelar cualquier información a quien nos la pregunte.

El método utilizado con más frecuencia en los casos de phishing masivo consiste en el envío de mensajes
que simulan ser enviados por alguien sobre quien en teoría confiamos (habitualmente bancos) y donde se
nos informe que, por cualquier circunstancia, es preciso revelar nuestra contraseña de usuario o bien
"verificar" nuestros datos rellenando un formulario.

36 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

La experiencia demuestra que la mayoría de las personas simplemente actúa de buena fe y se cree
cualquier petición de datos privados.

SMISHING

El SMiShing es como se denomina a un reciente tipo de delito usando técnicas de ingeniería social
mediante mensajes de texto dirigidos a los usuarios de telefonía móvil celular. Las víctimas reciben
mensajes cortos de texto con contenido similar a este: "Estamos confirmando que se ha dado de alta para
un servicio de citas. Se le cobrarán dos euros al día a menos que cancele su petición: www.?????.com",
cuando accedemos a la dirección web, las víctimas son incitados a descargar algún programa que suele ser
un troyano y si operamos bajo Windows es fácil que se instale en el ordenador. Otras veces el mensaje
señala un número para anular el servicio y una grabación pedirá datos personales, entre ellos un número
de cuenta bancaria o tarjeta de crédito. Hay otros que avisan de que hemos recibido una foto, premio,
video, tarjeta de felicitación, etc, con el mismo resultado final de ser víctima de un fraude.

WEB FALSA DE RECARGAS

- Es una variante del Phishing que solo busca un propósito, robar datos bancarios a los usuarios. Detrás de
llamativas ofertas prometiendo recargas más económicas (habitualmente de telefonía móvil celular) se
puede esconder una estafa, que lo único que busca es hacerse con información del usuario.

-Este tipo de fraude puede ser algunas veces mas peligroso que el tradicional phishing, el ataque no es
directo, se encuentra en los anuncios de los enlaces patrocinadores de buscadores de Internet.

OFERTA FALSA DE TRABAJO SCAM O PHISHING LABORAL / MULERO

El Scam es la captación de personas por medio de correos electrónicos, anuncios en web de trabajo, chats,
irc, etc... donde empresas ficticias le ofrecen trabajar cómodamente desde casa y cobrando unos
beneficios muy altos. Sin saberlo, la víctima esta blanqueando dinero obtenido por medio del phishing
(procedente de estafas bancarias).

* Siempre le piden que tenga o abra una cuenta bancaria.

* Su trabajo consiste en recibir transferencias bancarias a su cuenta bancaria, sacar este dinero
posteriormente para enviarlo a países extranjeros por medio de empresas tipo Western Union,
Money Gram.

* Frases para captar a victimas:

¿Esta usted en paro y tiene ganas de trabajar?

¿Quiere obtener un dinero extra?

¿Quiere trabajar cómodamente desde casa?

¿Quiere tener beneficios de forma rápida?.

* Nos mandan un contrato (falso) para hacer mas creíble la oferta.

Una vez obtenidos los datos de la victima y no colabora la victima será amenazada.

PHISHING-CAR - OFERTAS FALSAS DE VEHÍCULOS

37 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

Captación de compradores de coches a un coste muy bajo, la venta nunca se efectúa, esta persona realiza
un pago como señal, se queda sin dinero y sin coche.

- ¿Como se produce y en que consiste?

Se producen por medio de llamativas ofertas en vehículos lujosos, incluso tienen web trampas con
nombre de dominios muy similares a empresas con mucho prestigio que se dedican a la venta de
vehículos de ocasión, pero todas los fraudes tienen algo en común:

* El pago se realiza por medio de empresas de envió de dinero a otros países (Western Union,
Money Gram).

* El vendedor le oferta la entrega a domicilio.

* En un 90% el vehículo que venden esta fuera de su país, de esta manera usted solo puede verlo en
fotos.

* Le piden primero el 30% o el 40% del precio ofertado como primera señal.

* Captan a las victimas por medio de anuncios en web de venta de coches o de segunda mano y por
supuesto la recepción de correos electrónicos.

* Muchas veces el vendedor dice que es un español que vive en Gran Bretaña y por motivos
laborales de estancia en el país ingles, tiene que cambiar de forma urgente de coche por que se
conduce por la izquierda y su coche al estar matriculado en España el volante esta al lado contrario
y no se adapta, por este motivo vende el coche de forma muy económica, te enseñan un coche
matriculado en España.

* La mayoría de los estafados enviaron el dinero a Reino Unido, esto no quiere decir que cambien.

PHARMING

Es una técnica para llevar a cabo estafas "online", aunque en muchos medios comentan que no es
necesario usar ingeniería social esta definición no es totalmente cierta ya que es necesario que nuestra
maquina o la remota "sea manipulada". El pharming consiste en manipular las direcciones DNS que
utiliza el usuario, con el objetivo de engañarle y conseguir que las paginas que visite el usuario no sean
realmente originales aunque su aspecto sea idéntico.

Resumiendo desvía el tráfico de Internet de un sitio web hacia otro sitio de apariencia similar, con la
finalidad de engañar a los usuarios para obtener sus nombres y contraseñas de acceso, que se registrarán
en la base de datos del un sitio falso que fue creando antes y donde simula a la web que suplantan.

* Hay gusanos y troyanos que realizan esta función.

* La victima se entera cuando existe un movimiento extraño de dinero en sus cuentas.

LOTERIAS FALSAS

Falso premio de loterías, el usuario recibe un correo electrónico donde le notifican que tiene un premio de

38 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

loteria, si un usuario contesta a este correo le solicitaran a continuación todos datos bancarios para un
falso ingreso del premio.

En otros casos se le solicita un parte del premio que tendrá que enviarlo a un país para poder cobrar el
premio completo.

En todos los casos el premio es falso.

(Fuentes: Ministerio de Industria, julio de 2006 y Guia Rápida sobre el Fraude en la Red. Comisión de
seguridad en la red de la Asociación de Internautas a cargo de José María Luque Guerrero.")

BOTNET

Una botnet, o red robot, consiste en cierto número de ordenadores que, sin el conocimiento de sus
propietarios, han sido infectados por código malicioso y están siendo manipulados para enviar programas
maliciosos, como spam y spyware, hacia otras computadoras en Internet. Tales ordenadores, llamados
bots en el argot informático, operan bajo el control de un solo hacker (o un pequeño grupo de ellos)
conocido como botmaster.

Una vez que el botmaster ha creado la botnet, los ataques pueden ocurrir de diferentes maneras:
denegación de servicio distribuido Negación del Servicio (DDoS -Distributed Denial of Service), spam,
keyloggers programas espías que capturan la actividad del teclado de los usuarios- o ataques remotos.

Una de las principales estrategias de captación de atención de esta amenaza se basa en la ingeniería social.
Por ejemplo, a través del envío de un mail cuyo título indica: Check out this picture! (¡Mira esta foto!) .
Así, en un archivo adjunto infectado que simula ser una imagen .JPG, los hackers pueden inspeccionar en
búsqueda de vulnerabilidades dentro del sistema operativo o navegador. En cuestión de segundos, la red
queda infectada.

Los síntomas que puede detectar el usuario para determinar si su red ha sido infectada son:

1. Lentitud anormal en su sistema.

2. Aumento en el consumo de ancho de banda.

3. Mensajes emergentes extraños.

Enlaces recomendados: Carlo M. Cipolla: estupidez humana


Ccleaner, limpiador de basura en discos, bajo Windows
Ad-Aware detector y limpieza de troyanos

Bibliografía recomendada:

Bouvet, J.F.(dirección), Hierro en las espinacas, Taurus, Madrid, 1999

Dawkins R., Destejiendo el arco iris, Tusquets Editores, Barcelona, 2000

39 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

Sagan C., El Mundo y sus Demonios, Planeta, Barcelona, 1997

Sánchez Ron J.M., Historia de la Física Cuántica, Crítica, Barcelona, 2001

Shapiro E. , Física sin matemáticas, Alhambra, Madrid, 1981

Enlaces recomendados:

ARP-SAPC Sociedad para el avance del pensamiento crítico

¿Existe el método científico?

La página racionalista

Rompecadenas

Sin dioses

Maguferías en criminología
Fraudes en medicina y psicología

Enlaces de interés:

El nacimiento de la mecánica cuántica

Lista de citas y frases célebres:

Creer es más fácil que pensar. He ahí la razón de que hayan más creyentes.

"Si la gente es buena sólo porque temen al castigo y porque esperan una recompensa,
entonces verdaderamente somos un grupo lastimoso."
Albert Einstein

"Si ese ser es omnipotente, entonces cada ocurrencia, incluyendo cada acción humana,
cada pensamiento humano y cada sentimiento y aspiración humana también es Su obra;
¿cómo es posible pensar en hacer responsable al hombre por sus actos y pensamientos
ante tal Ser todopoderoso? Al dar castigo y recompensas, hasta cierto punto estaría
juzgándose a Sí mismo. ¿Cómo puede combinarse esto con la bondad y justicia que se le
adjudican?
Albert Einstein, Out of My Later Years (New York: Philosophical Library, 1950),
p. 27.

"No puedo concebir un Dios que recompensa y castiga sus criaturas, o que tenga una
voluntad del tipo que experimentamos en nosotros. Tampoco puedo ni quiero concebir
un individuo que sobrevive a su muerte física; dejemos que los espíritus débiles, por

40 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

miedo o por egoísmo absurdo, valoren tales ideas. Yo estoy satisfecho con el misterio de
la eternidad de la vida y con la consciencia y el atisbo de la maravillosa estructura del
mundo existente, junto con la lucha dedicada a comprender una porción, así sea
minúscula, de la Razón que se manifiesta a sí misma en la naturaleza."
Albert Einstein, The World as I See It.

"El comportamiento ético de un hombre debería basarse suficientemente en la simpatía,


educación y los lazos y necesidades sociales; no es necesaria ninguna base religiosa. El
hombre verdaderamente estaría en un pobre camino si tuviera que ser reprimido por
miedo al castigo y por la esperanza de una recompensa después de la muerte."
Albert Einstein, "Religion and Science", New York Times Magazine, 9 November
1930

"No creo en la inmortalidad del individuo, y considero que la ética es exclusivamente de


interés humano, sin ninguna autoridad sobrehumana detrás de ella."
"Albert Einstein: The Human Side", edited by Helen Dukas and Banesh Hoffman,
and published by Princeton University Press.

"Las bases de la moralidad no deberían ser dependientes de los mitos ni atadas a


cualquier autoridad, no sea que la duda acerca del mito o de la legitimidad de la autoridad
ponga en peligro la base del juicio y la acción intachables. "
Albert Einstein

"Si 50 millones de personas creen una tontería, sigue siendo una tontería."
Anatole France

Eh! supongo que somos gente horrible y realmente inmoral porque nos rehusamos a
acoger la idea de un tipo grande en el firmamento que exige ser adorado y alabado todo el
tiempo y que, si Ud. pertenece a la religión equivocada o no tiene religión, lo enviará a
un campo de concentración subterráneo y eterno a freirse para siempre.
Kel Crum

Aunque se ha dicho que la fe mueve montañas, la experiencia ha demostrado que la


dinamita lo hace mucho mejor.
Si conoce el autor de esta cita, le agradeceré mucho si me lo hace saber.

La verdad os hará libres. La mentira.. creyentes.


Pepe Rodríguez.

El problema con el mundo es que los estúpidos están seguros de todo y los inteligentes
están llenos de dudas.
Bertrand Russell

Bien, la evolución es una teoría. También es un hecho. Y los hechos y las teorías son
cosas distintas, no escalones en una jerarquía de certeza creciente. Los hechos son los
datos acerca del mundo. Las teorías son estructuras de ideas que explican e interpretan
los hechos. Los hechos no desaparecen cuando los científicos debaten teorías rivales para
interpretarlos. La teoría de la gravitación de Einstein reemplazó la de Newton en este
siglo, pero las manzanas no se quedaron suspendidas en el aire esperando el resultado. Y
los humanos evolucionaron de ancestros simiescos ya sea por medio del mecanismo
propuesto por Darwin o por otro que falte por escubrirse.
Stephen Jay Gould, "Evolution as Fact and Theory" Science and Creationism,
(New York: Oxford University Press, 1984), p. 118.

41 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii01.html

Siempre me ha parecido que el mayor pecado de todos es "presumir conocer la mente de


Dios..."
David B. Stephens, Ph.D.

Su artículo sobre las supercherías de los creacionistas afirma que en Alabama, todos los
textos de biología ahora deben llevar adhesivos advirtiendo al lector de que la evolución
es una "creencia sin probar" y "debería considerarse como (sólo) una teoría." Con miras
en el juego limpio, uno asumiría que los creacionistas igualmente insisten en que estos
adhesivos sean adheridos a las Biblias.
John R. Harris, Carta al Editor, L.A. Times

Las creencias antiguas son difíciles de erradicar incluso aunque sean demostrablemente
falsas
Edward O. Wilson, Consilience: The Unity of Knowledge, (First edition, New York:
Alfred A. Knopf, 1998), p. 256.

Cuando el cristianismo tomó el control del Imperio Romano, suprimió los escritos de sus
críticos e incluso los echó a las llamas.
Robert L. Wilken, The Christians As the Romans Saw Them (New Haven: Yale,
1984), p. xii.

La fe ciega puede justificar lo que sea. Si un hombre cree en un dios diferente, o incluso,
si usa un ritual diferente para adorar al mismo dios, la fe ciega puede decretar que debe
morir - en una cruz, empalado, atravesado por la espada de un Cruzado, con un disparo
en una calle de Beirut, o dinamitado en un bar en Belfast. Los memes de la fe ciega
tienen sus propias formas inmisericordes de propagarse a sí mismos. Esto es cierto en la
fe ciega patriótica y política al igual que en la religiosa.
Richard Dawkins, The Selfish Gene (New edition, New York: Oxford University
Press, 1989), p. 198.
Fuente: La Página Racional

fresqui del.icio.us meneame

Buscar en la web

Búsqueda escéptica

Búsqueda en todas mis páginas

42 de 45 18/04/2008 20:44
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of... http://www.um.es/docencia/barzana/II/Ii02.html

Introducción a la Informática. Estudios GAP,


facultad Derecho
Capítulo 2. Ofimática

Asignaturas
Introducción a la Informática
Introducción
Ofimática
La información
Historia de la Informática
Representación de la información
Periféricos de un ordenador
Lenguajes de programación
Sistemas operativos
Redes y comunicaciones
Informática Aplicada a la Gestión Pública
Introducción a la ingeniería del software
Metodologías de desarrollo
Metodologías habituales
Bases de datos. Introducción
Bases de datos. Organización ficheros
Bases de datos relacionales
Bases de datos comerciales
Introducción a internet
Intercambio electrónico de datos (EDI)
Comercio electrónico
Teletrabajo
Calidad
Informática Aplicada al Trabajo Social
Fundamentos de los ordenadores
Los ordenadores en la actualidad
Introducción al hardware
Fundamentos del software
Aplicaciones software
Diversos usos de los ordenadores
Comercio electrónico
Inteligencia artificial
Prácticas
Visión general de la informática
Internet
Editores de textos
Hojas de cálculo
Bases de datos
Lenguaje Pascal
Avisos
Escepticismo
Divulgación
Ciencia en general

1 de 26 18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of... http://www.um.es/docencia/barzana/II/Ii02.html

Biología
Criminología
Inicio
Contacte

Introducción
Openoffice (StarOffice)
Editor de textos
Hoja de cálculo

Selecciona un texto y
pulsa aquí para oírlo

2.1 Introducción

La explosión informativa que se da en la actualidad (entre cuyas causas destacan la incidencia de la


información en el desarrollo de la tecnología e investigación y que la sociedad demanda información) es
un hecho que hace difícil discernir la información conveniente o beneficiosa, de la que supone
contaminación o perjudicial, que a veces hace que se pueda decir que "no se distinga el árbol de entre el
bosque".

La velocidad de crecimiento, hace necesario que el tratamiento de la información, se lleve a cabo de


forma automática. Como origen y causa de éste crecimiento exponencial de la información, aparece
paradójicamente la solución, la informática, definida como el tratamiento de la información de forma
automatizada.

La informática, tan versátil y polimórfica comenzó a aplicarse a diferentes campos, empezando el uso de
ordenadores en primer lugar en el ámbito militar, ocupando entonces gran espacio y consumiendo mucha
energía, a través de las sucesivas generaciones, en base a los adelantos de la ciencia, fueron reduciendo su
tamaño y consumo, haciéndose asequible a cualquier tipo de actividad, habiéndose extendido en la
actualidad al mundo económico, empresarial y personal, siendo imprescindibles en la oficina para tener
una eficaz gestión de la empresa. La fusión de los trabajos de oficina y de la informática dio lugar a la
Ofimática.

Se entiende como Ofimática todo lo relacionado con la organización de flujos de trabajo en oficinas,
despachos, etc. y el respectivo apoyo a estos procesos mediante el ordenador. Dicho de paso, esta vez el
español es más preciso que el inglés, con el nebuloso "System-engineering" y el más limitado "Business
Process Re-engineering" (BOP).

Hablar de la automatización de la oficina -en paralelo a la automatización de fábricas- no es correcto: en


la fábrica el automatismo -el ordenador- sustituye al trabajador como dueño del proceso y lo convierte en
supervisor o reparador, mientras en las oficinas las personas siguen como actores principales, apoyándose
solamente para su trabajo y la coordinación del mismo en la infraestructura informática.

La ofimática no trata del uso del ordenador individual, promueve la reingeniería de los procesos y sus
etapas en su totalidad usando la informática como instrumento de eliminar, reducir y agilizar los mismos.

No es lo mismo como la informática tradicional con su enfoque en información estandarizada, si no que


parte del hecho que cada caso es diferente y requiere un tratamiento distinto, de tal forma que se pueden
estandarizar solamente las formas y el proceder pero no el contenido mismo, por tanto se trasciende el
modelo cliente-servidor tradicional.

2 de 26 18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of... http://www.um.es/docencia/barzana/II/Ii02.html

En el entorno ofimático no son necesarios grandes equipos, sino que es suficiente con ordenadores
personales sencillos conectados entre sí y a internet, formando redes locales entre los que se comparte
información y se abaratan los costos. La ofimática de esta manera se ha convertido en algo que crece y
que se usa cada vez más.

La ofimática, por sus peculiares características, suministra un buen campo para ejemplificar acerca del
impacto de la convergencia e integración de las tecnologías. La oficina, y por lo tanto la ofimática, que no
es más que la tecnología aplicada a la oficina, es un entorno donde no existen tareas muy determinadas,
entran actividades tan diversas como el tratamiento de documentos o la comunicación telefónica. En un
entorno así es lógico pensar que se necesitan tecnologías combinadas, no soluciones aisladas encaminadas
a resolver un problema en concreto. La ofimática ha de proporcionar herramientas que faciliten al usuario
(sea éste un individuo o un grupo) la tarea a realizar.

Definiciones de ofimática:

Bair (1985) La ofimática es la utilización de ordenadores en la oficina como soporte a los


trabajadores de la información que no son especialistas en ordenadores.

Elli y Nutt (1980). Un sistema automatizado de información para la oficina trata de


realizar las tareas de la oficina tradicional por medio de sistemas de ordenadores.

Hammer y Sirbu (1982). La utilización de la tecnología para mejorar la realización de


funciones de oficina.

Olson y Lucas (1982). La automatización de oficinas se refiere a la utilización de


sistemas integrados de ordenadores y comunicaciones, como soporte a los
procedimientos administrativos en un entorno de oficina.

Aplicaciones

El software de ofimática comprende una serie de aplicaciones que se distribuyen de forma conjunta para
ser empleadas simultáneamente en diversos sistemas. Usualmente estas herramientas de ofimática
incluyen:

Aplicaciones de productividad personal


Administradores de bases de datos
Hojas de cálculo
Procesadores de textos
Presentadores de ideas
Gráficos

2.2 OpenOffice (StarOffice)

Es un conjunto completo (suite) para oficina creado por Star Division, una empresa alemana adquirida por
Sun Microsystems. Está compuesta por una serie de aplicaciones de productividad entre las que hay
procesador de textos, hoja de cálculo, gestor de bases de datos, programa para crear presentaciones,
programa para diseño gráfico, navegador y unos cuantos accesorios más.

En sus comienzos fue muy popular en el entorno Linux, quienes podían conseguir versiones gratuitas a
través de Internet, aunque Star también ofrecía versiones comerciales. Sun decidió darle un gran impulso

3 de 26 18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of... http://www.um.es/docencia/barzana/II/Ii02.html

y adoptó la filosofia de distribuirla gratuitamente, de manera que actualmente es posible bajarla desde la
web de Sun y otros muchos lugares de internet.

OpenOffice está disponible en versiones para sistemas operativos: Windows, Linux, Solaris. Mac OS y
OS/2. Sun también lo distribuye en un CD-ROM. La empresa en realidad no cobra por la suite sino por el
costo de producir el CD y de imprimir los manuales.

Esta suite de oficina, resulta muy típica en cuanto a las aplicaciones que incluye. Sin embargo lo
interesante es su origen, pues fue diseñada inicialmente para el sistema operativo Linux, sin embargo tuvo
tal acogida entre el público que Star Division decidió crear una versión aparte de la misma para Windows.
En la actualidad no se emplea de forma intensiva con este sistema, pero según los expertos, ha logrado
salir bien librada de muchas pruebas.

La suite está compuesta por varias aplicaciones básicas, más una serie de accesorios bastante útiles. Los
componentes del paquete son (es indistinto considerar StarOffice u OpenOffice):

StarOffice Desktop: Un escritorio que se superpone al de Windows cuando se ejecuta la suite.


StarOffice Writer: Procesador de textos, muy potentsuitecompatible con MS-Excel.
StarOffice Impress: Herramienta para realizar presentaciones. Es compatible (no totalmente) con
MS-PowerPoint.
StarDraw: Aplicación para diseño gráfico. Compatible con Corel Draw y muy similar a esta
herramienta.
StarImage: Programa para edición de imágenes. Puede abrir archivos JPG, GIF, TIFF, BMP, etc.
StarOffice Discussion: Lector para mensajes provenientes de grupos de discusión, bien desde
Internet o desde la Intranet de una empresa.
StarOffice Base: Sencillo gestor de bases de datos, que permite abrir y editar archivos de
MS-Access y de otras bases de datos como Oracle. La nueva versión es compatibe y parecida a MS
Access.
StarMath: Singular aplicación que permite escribir fórmulas matemáticas
StarOffice Chart: Aplicación que permite generar gráficos estadísticos, que complementa a
StarOffice Calc.
StarOffice Schedule: Agenda y calendario que le permite al usuario llevar control de sus
actividades profesionales y personales.
StarOffice Basic: Herramienta que permite crear macros para las aplicaciones principales de
StarOffice.

A partir del tres de mayo de 2006 el formato Open Document, con el que se almacenan los documentos
escritos bajo Openoffice (o Staroffice), ha sido aprobado como estándar ISO 26300, hecho que no poseen
otros editores de textos, como por ejemplo Microsoft Office. Este formato ocupa mucho menos que los
tan conocidos .DOC y .RTF.

El Proyecto GNU por Richard Stallman publicado originalmente en el libro "Open


Sources"

La primera comunidad que comparte el software

Cuando comencé a trabajar en el Laboratorio de Inteligencia Artificial del MIT en 1971,


me incorporé a una comunidad que compartía el software que ya tenía varios años de
existencia. El acto de compartir software no estaba limitado a nuestra comunidad en
particular; es tan antiguo como las computadoras, de la misma manera que compartir
recetas es tan antiguo como cocinar. Pero nosotros lo hacíamos en mayor grado que la
mayoría de los otros.

4 de 26 18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of... http://www.um.es/docencia/barzana/II/Ii02.html

El Laboratorio de IA usaba un sistema operativo denominado ITS (Incompatible


Timesharing System) [Sistema incompatible de tiempo compartido] que los hackers (1)
del staff habían diseñado y escrito en lenguaje ensamblador para la PDP-10 de Digital,
una de las más grandes computadoras de la época. Mi trabajo como miembro de esta
comunidad, como hacker de sistema en el staff del laboratorio de IA, era mejorar este
sistema.

No denominábamos "software libre" a nuestro software porque dicho término no existía;


pero éso es lo que era. Cuando alguien de otra universidad o compañía deseaba aportar y
usar un programa, lo permitíamos con gusto. Si usted veía a alguien usando un programa
interesante y poco conocido, siempre se podía pedir el código fuente para verlo, de
manera que uno podía leerlo, cambiarlo, o canibalizar ciertas partes del mismo para hacer
un nuevo programa.

(1) El uso de "hacker" para referirse al "quebrantador de la seguridad" es una confusión


proveniente de los medios masivos. Nosotros los hackers nos negamos a reconocer dicho
significado, y continuamos utilizando la palabra para indicar a "alguien apasionado por la
programación y que disfruta al ser hábil e ingenioso".

El colapso de la comunidad La situación cambió drásticamente durante la primera parte


de los 1980s cuando Digital discontinuó la serie PDP-10. Su arquitectura, elegante y
poderosa en los 60s, no se pudo extender naturalmente a los espacios de
direccionamiento más grandes que se hicieron factibles en los 80s. Esto significó que
prácticamente todos los programas que componían a ITS se volvieron obsoletos.

La comunidad de hackers del laboratorio de IA ya se había colapsado, cierto tiempo


antes. En 1981, la compañía derivada Symbolics había contratado a casi todos los
hackers del laboratorio de IA, y la despoblada comunidad ya no era capaz de mantenerse
a sí misma. (El libro Hackers, de Steve Levy, describe estos eventos, y muestra un claro
panorama de esta comunidad en sus comienzos.) Cuando el laboratorio de IA adquiere
una nueva PDP-10 en 1982, sus administradores deciden utilizar el sistema no libre de
tiempo compartido de Digital en lugar de ITS.

Las computadoras modernas de esa época, como la VAX o el 68020, tienen sus propios
sistemas operativos, pero ninguno de ellos es software libre: usted debe firmar un
"acuerdo de no revelar" (nondisclosure agreement) aún para obtener una copia
ejecutable.

Esto quiere decir que el primer paso para poder utilizar una computadora era prometer
que no ayudaría a su vecino. Se prohibía la existencia de una comunidad cooperativa. La
regla hecha por los dueños de software propietario era: "si usted comparte con su vecino,
usted es un pirata. Si desea algún cambio, ruéguenos para que lo hagamos nosotros".

La idea de que el sistema social del software propietario--el sistema que dice que usted
no tiene permitido compartir o cambiar el software-- es antisocial, que no es ético, que
está sencillamente equivocado, puede ser una sorpresa para algunos lectores. ¿Pero qué
otra cosa podríamos decir sobre un sistema que se basa en dividir el público e impide
socorrer a los usuarios? Los lectores que se sorprendan por esta idea es porque han
tomado el sistema social del software propietario tal como se lo han dado, o porque lo
han juzgado en función de los términos sugeridos por las empresas que hacen software
propietario. Los publicadores de software han trabajado duro y parejo para convencer a
las personas de que solamente hay una manera de ver este tema.

5 de 26 18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of... http://www.um.es/docencia/barzana/II/Ii02.html

Cuando los publicadores de software habla de "hacer valer" sus "derechos" o de "detener
la piratería", lo que *dice* es secundario. El mensaje real de estas declaraciones está en
las presunciones no declaradas que ellos dan por sentado; se supone que el público debe
aceptarlas de manera acrítica. Así que examinémoslas.

Una de las presunciones es que las compañías de software tienen un derecho natural
incuestionable que las habilita para ser dueñas de un software, y por lo tanto a disponer
de poder sobre todos los usuarios del mismo. (Si éste fuera un derecho natural, entonces
sin importar cuánto daño le causare al público, no podríamos objetarlo.) De manera muy
interesante, la Constitución de los Estados Unidos de América y la tradición legal
rechazan esta visión; el copyright no es un derecho natural, sino un monopolio artificial
impuesto por el gobierno que limita el natural derecho a copia de los usuarios.

Otra presunción no declarada es que la única cosa importante sobre del software es qué
trabajo le permite realizar a usted--que a nosotros los usuarios de computadoras no nos
debe importar qué clase de sociedad nos permiten tener.

Una tercera presunción es que no tendríamos software utilizable (o, que nunca
tendríamos un programa para hacer tal o cual trabajo en particular) si no le ofrecemos a
una compañía poder sobre los usuarios de dicho programa. Esta presunción puede haber
sonado plausible, antes de que el movimiento por el software libre demostrara que
podemos hacer abundante software útil sin ponerle cadenas.

Si nos resistimos a aceptar dichas presunciones, y juzgamos acerca de estos temas sobre
la base moral que nos da el sentido común ordinario y ponemos al usuario en primer
lugar, arribaremos a conclusiones muy distintas. Los usuarios de computadoras deben
tener libertad para modificar los programas para ajustarlos a sus necesidades, y libertad
para compartir el software, porque la base de la sociedad está en ayudar a las otras
personas.

No se dispone aquí del espacio necesario para explayarnos en el razonamiento que hay
detrás de esta conclusión, y por ese motivo pido al lector que vea la página web
http://www.gnu.org/philosophy/why-free.es.html.

Una elección moral severa. Al desaparecer mi comunidad, se hizo imposible continuar


como antes. En lugar de ello, me enfrenté a una elección moral severa.

La elección fácil era unirme al mundo del software propietario, firmar los acuerdos de no
revelar, y prometer que no iría en ayuda de mi amigo hacker. Es muy probable que
desarrollara software que se entregaría bajo acuerdos de no revelar y de esa manera
incrementara también las presiones sobre otra gente para que traicionen a sus
compañeros.

Podría haber hecho dinero de esta manera, y tal vez me hubiese divertido escribiendo
código. Pero sabía que al final de mi carrera, al mirar atrás a los años construyendo
paredes para dividir a la gente, sentiría que usé mi vida para empeorar el mundo.

Ya había estado del lado en que se reciben los acuerdos de no revelar, por experiencia
propia, cuando alguien se negó a entregarme, a mí y al Laboratorio de IA del MIT, el
código fuente del programa de control de nuestra impresora.(La ausencia de ciertas
características en este programa hacía que el uso de la impresora fuera frustrante en
extremo.) Así que no podía decirme a mí mismo que los acuerdos de no revelar son

6 de 26 18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of... http://www.um.es/docencia/barzana/II/Ii02.html

inocentes. Me enojó mucho cuando él se negó a compartir con nosotros; no podía ahora
cambiarme de lugar y hacerle lo mismo a todos los demás.

Otra elección, fácil pero dolorosa, era abandonar el campo de la computación. De esta
manera no se usarían mis habilidades para mal, pero aún así se desperdiciarían. Yo no
sería culpable por dividir y restringir a los usuarios de computadoras, pero ello sucedería
igual.

Así que busqué la manera en la cual un programador podría hacer algo para bien. Me
pregunté: ¿habrá algún programa o programas que yo pueda escribir, de tal manera de
otra vez hacer posible una comunidad?

La respuesta era clara: lo primero que se necesitaba era un sistema operativo. Este es el
software crucial para empezar a usar una computadora. Con un sistema operativo usted
puede hacer muchas cosas; sin uno, ni siquiera puede funcionar la computadora. Con un
sistema operativo libre, podríamos tener de nuevo una comunidad de hackers
cooperando--e invitar a cualquiera a unírsenos. Y cualquiera sería capaz de utilizar una
computadora sin que de movida conspire a favor de la privación de sus amigas o amigos.

Como desarrollador de sistema operativo, tengo las habilidades apropiadas para esa tarea.
Así que aún cuando no tenía garantías de éxito, me dí cuenta que había sido elegido para
hacer ese trabajo. Decidí hacer que el sistema fuese compatible con Unix pues así sería
portable, y los usuarios de Unix podrían cambiarse a él con facilidad. El nombre GNU se
eligió siguiendo una tradición hacker, como acrónimo recursivo para "GNU's Not Unix".

Un sistema operativo es más que un núcleo, apenas suficiente para hacer funcionar otros
programas. En los 1970s, todo sistema operativo digno de llamarse así incluía
procesadores de órdenes, ensambladores, compiladores, intérpretes, depuradores, editores
de texto, programas de correo, y muchos otros. ITS los tenía, Multics los tenía, VMS los
tenía, Unix los tenía. El sistema operativo GNU también los incluiría.

Más adelante escuché estas palabras, atribuídas a Hillel (1):

"Si yo no me preocupo por mí mismo, ¿quién lo hará por mí?

Si sólo me preocupo por mí mismo, ¿qué es lo que soy?

Si no lo hago ahora, ¿cuándo?"

La decisión de iniciar el proyecto GNU se basó en un espíritu similar.

(1) Como ateo que soy, no soy seguidor de ningún líder religioso, pero algunas veces
encuentro que admiro alguna cosa que dijo uno de ellos.

Libre como en libertad El término "free software" [N. del T.: en inglés free = libre o
gratis] se malinterpreta a veces--no tiene nada que ver con el precio. El tema es la
libertad. Aquí, por lo tanto, está la definición de software libre: un programa es software
libre, para usted, un usuario en particular, si:

- Usted tiene libertad para ejecutar el programa, con cualquier propósito.

- Usted tiene la libertad para modificar el programa para adaptarlo a sus secesidades.
(Para que esta libertad sea efectiva en la práctica, usted debe tener acceso al código

7 de 26 18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of... http://www.um.es/docencia/barzana/II/Ii02.html

fuente, porque modificar un programa sin disponer del código fuente es


extraordinariamente dificultoso.)

- Usted tiene la libertad para redistribuir copias, tanto gratis como por un cánon.

- Usted tiene la libertad para distribuir versiones modificadas del programa, de tal manera
que la comunidad pueda beneficiarse con sus mejoras.

Como "free" [libre] se refiere a libertad y no a precio, no existe contradicción entre la


venta de copias y el software libre. De hecho, la libertad para vender copias es crucial: las
colecciones de software libre que se venden en CD-ROM son importantes para la
comunidad, y la venta de las mismas es una manera importante de obtener fondos para el
desarrollo de software libre. Por lo tanto, si la gente no puede incluir un programa en
dichas colecciones, dicho programa no es software libre.

A causa de la ambigüedad de "free", la gente ha estado buscando alternativas, pero nadie


ha encontrado una alternativa apropiada. El idioma inglés tiene más palabras y matices
que ningún otro, pero carece de una palabra simple, no ambigüa que signifique "libre",
como en libertad-- "unfettered" [sin cadenas] es la palabra que más se acerca en
significado. Otras alternativas como liberated [liberado], freedom [libertad] y open
[abierto] tienen el significado equivocado o alguna otra desventaja.

Software GNU y el sistema GNU El desarrollo de un sistema complejo es un proyecto


de gran envergadura. Para ponerlo dentro de mi alcance, decidí adaptar y usar las piezas
existentes de software libre siempre que fuera posible. Por ejemplo, en los mismos
comienzos decidí que TeX sería el principal compaginador de texto; unos pocos años
más tarde, decidí que usaría el sistema X Window, en lugar de escribir otro sistema de
ventanas para GNU.

A causa de esta decisión, el sistema GNU no coincide con la suma de todo el software
GNU. El sistema GNU incluye programas que no son software GNU, programas que
fueron desarrollados por otras personas y proyectos para sus propios propósitos, pero que
nosotros podemos utilizar porque constituyen software libre.

El inicio del proyecto En enero de 1984 renuncié a mi trabajo en el MIT y comencé a


escribir software GNU. Era necesario abandonar el MIT, para que el MIT no interfiriera
con la distribución de GNU como software libre. Si hubiese continuado como parte del
staff, el MIT podría haber reclamado propiedad sobre el trabajo, y podría haber impuesto
sus propios términos de distribución, o incluso podría haberlo transformado en un
paquete de software propietario. Yo no tenía la intención de hacer un trabajo enorme sólo
para ver que perdía la utilidad para la cual se había realizado: crear una nueva comunidad
para compartir software.

Sin embargo, el Profesor Winston, por entonces a cargo del Laboratorio de IA del MIT,
me invitó amablemente a que continúe utilizando las instalaciones del Laboratorio.

Los primeros pasos Poco después de comenzar en el proyecto GNU, escuché acerca del
Free University Compiler Kit [Kit de Compilador de la Universidad Libre], también
conocido como VUCK. (La palabra alemana para free comienza con una V.) Se trataba
de un compilador diseñado para manejar múltiples lenguajes, C y Pascal entre ellos, y
para admitir múltiples máquinas destino. Le escribí a su autor para consultarle si GNU lo
podría usar.

8 de 26 18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of... http://www.um.es/docencia/barzana/II/Ii02.html

Él me respondió burlonamente, dejando en claro que la universidad era libre, pero el


compilador no. Por lo tanto, decidí que mi primer programa para el proyecto GNU sería
un compilador multilenguaje, multiplataforma.

Con la esperanza de evitar tener que escribir todo el compilador por mí mismo, obtuve el
código fuente del compilador Pastel, que era un compilador multiplataforma desarrollado
en el "Lawrence Livermore Lab". Admitía, y estaba escrito en una versión extendida de
Pascal, diseñada para usarse como lenguaje de programación a nivel de sistema. Le
agregué un front end para C, y comencé a transportarlo a la computadora Motorola
68000. Pero tuve que abandonar la idea al descubrir que el compilador necesitaba varios
megabytes de espacio en la pila, y los sistemas Unix basados en 68000 sólo permitían 64
kbytes.

Fue entonces cuando me dí cuenta que el compilador Pastel funcionaba analizando el


fichero de entrada completo y transformándolo en un árbol sintáctico, luego convertía
todo el árbol sintáctico en una cadena de "instrucciones" y luego generaba el fichero
entero de salida, y en ningún momento liberaba el espacio ocupado. En ese momento
llegué a la conclusión de que debería escribir un nuevo compilador partiendo desde cero.
Ese nuevo compilador se conoce ahora como GCC; no hay nada del compilador Pastel en
él, pero me las arreglé para adaptar y usar el front end que había hecho para C. Pero eso
pasó unos años más tarde; primero, trabajé sobre GNU Emacs.

GNU Emacs Comencé a trabajar sobre GNU Emacs en setiembre de 1984, y al principio
de 1985 ya empezaba a ser usable. Esto me permitió usar sistemas Unix para las tareas de
edición; como no tenía ningún interés en aprender a usar vi o ed, había realizado mis
tareas de edición en otras clases de máquinas hasta ese momento.

A estas alturas, la gente comenzó a querer usar Emacs, con lo que apareció el tema de
cómo distribuirlo. Por supuesto, lo puse en el servidor de FTP anónimo de la
computadora del MIT que usaba. (Esta computadora, prep.ai.mit.edu, se transformó a
causa de ello en la sede principal de distribución a través de FTP de GNU; cuando fue
decomisada unos años después, transferimos el nombre a nuestro nuevo servidor FTP.)
Pero en aquella época, mucha gente interesada no estaba en Internet y no podía obtener
una copia por FTP. Así que la pregunta era: ¿qué tendría que decirles a ellos?

Podría haber dicho, "Busque un amigo que esté en la red y que haga una copia para
usted". O podría haber hecho lo que hice con el Emacs para PDP-10 original, decirles:
"Envíeme por correo una cinta y un sobre con su dirección y los sellos de correo
necesarios, y yo le devolveré la cinta con Emacs dentro". Pero no tenía trabajo, y estaba
buscando de qué manera podía hacer dinero con el software libre. Entonces anuncié que
le enviaría la cinta a quien me la pidiera, mediante el pago de un cánon de $150. De esta
manera, inicié un negocio de distribución de software libre, el precursor de las compañías
que en la actualidad distribuyen completos sistemas GNU basados en Linux.

¿Es libre el programa para cualquier usuario? Si un programa es software libre


cuando abandona las manos de su autor, esto no significa que será software libre para
todos los que tienen una copia de él. Por ejemplo, el software de dominio público
(software que no está sujeto al copyright de nadie) es software libre; pero cualquiera
puede hacer una versión modificada propietaria a partir de él. En ese mismo sentido,
muchos programas libres están sujetos a copyright pero se distribuyen mediante sencillas
licencias permisivas que admiten las versiones modificadas propietarias.

El ejemplo paradigmático de este problema es el X Window System. Desarrollado en el

9 de 26 18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of... http://www.um.es/docencia/barzana/II/Ii02.html

MIT, y entregado como software libre con un licencia permisiva, fue rápidamente
adoptado por varias compañías de computación. éstas agregaron X a sus sistemas Unix
propietarios, sólo en formato binario, y lo cubrieron con el mismo acuerdo de no revelar.
Estas copias de X eran tanto (software) libres en cuanto lo era el Unix.

Los desarrolladores del X Window System no consideraban que esto fuese un


problema--esperaban y buscaban que esto sucediese. Su meta no era la libertad, sólo el
"éxito", definido como "tener muchos usuarios". No les preocupaba si esos usuarios
tenían libertad, sólo que sean numerosos.

Esto nos lleva a una situación paradójica en la cual dos maneras distintas de contabilizar
la cantidad de libertad dan por resultado dos respuestas distintas a la pregunta "¿Es libre
este programa?". Si usted juzga en base a la libertad que se proporcionaba con los
términos de distribución de la entrega del MIT, diría que X es software libre. Pero si
usted mide la libertad del usuario promedio de X, diría que X es software propietario. La
mayoría de los usuarios de X usan las versiones propietarias que vienen con los sistemas
Unix, no la versión libre.

Copyleft y la GNU GPL La meta de GNU era dar libertad a los usuarios, no sólo
popular. Por lo tanto, debíamos usar términos de distribución que impidieran que el
software GNU se transformara en software propietario. El método que utilizamos se
denomina "copyleft".(1)

El copyleft usa la ley de copyright, pero la da vuelta para servir a lo opuesto de su


propósito usual: en lugar de ser un medio de privatizar el software, se transforma en un
medio de mantener libre al software.

La idea central del copyleft es que le damos a cualquiera el permiso para correr el
programa, copiar el programa, modificar el programa y redistribuir versiones
modificadas--pero no le damos permiso para agregar restricciones propias. De esta
manera, las libertades cruciales que definen al "software libre" quedan garantizadas para
cualquiera que tenga una copia; se transforman en derechos inalienables.

Para que el copyleft sea efectivo, las versiones modificadas deben ser también libres.
Esto asegura que todo trabajo basado en el nuestro quedará disponible para nuestra
comunidad si se publica. Cuando los programadores que tienen trabajo como
programadores se ofrecen como voluntarios para mejorar un software GNU, es el
copyleft lo que impide que sus empleadores digan: "no puede compartir esos cambios,
porque los queremos usar para hacer nuestra versión propietaria del programa".

El requerimiento de que los cambios deben ser libres es esencial si queremos asegurar la
libertad para cada usuario del programa. Las compañías que privatizaron el X Window
System en general realizaron algunos cambios para transportarlo a sus sistemas y
hardware. Estos cambios fueron pequeños comparados con el gran tamaño de X, pero no
fueron triviales. Si el hacer cambios fuera una excusa para negar libertad a los usuarios,
sería fácil para cualquiera tomar ventaja de la excusa.

Un tema relacionado trata la combinación de un programa libre con código no libre. Tal
combinación será inevitablemente no-libre; cualesquiera libertades que falten a la parte
no-libre, le faltarán también al todo. Si se permiten tales combinaciones se abriría un
agujero lo suficientemente grande como para hundir el barco. Por ello, un requerimiento
crucial para el copyleft es que se tape este hoyo: cualquier cosa agregada a o combinada
con un programa bajo copyleft debe ser tal que la versión combinada total sea también

10 de 26 18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of... http://www.um.es/docencia/barzana/II/Ii02.html

libre bajo copyleft.

La implementación específica de copyleft que usamos para la mayoría del software GNU
es la Licencia Pública General de GNU (GNU General Public License) o LPG GNU para
abreviar. Tenemos otras clases de copyleft que se usan en circunstancias específicas. Los
manuales GNU también están bajo copyleft, pero utilizamos un copyleft mucho más
simple, porque no es necesaria la complejidad de la LPG GNU para los manuales.

(1) En 1984 o 1985, Don Hopkins (un compañero muy imaginativo) me envío una carta
por correo. En el sobre, escribió varios dichos divertidos, entre ellos éste: "Copyleft--all
rights reversed" [Copyleft--todos los derechos "reversados"]. Utilicé la palabra
"copyleft" para denominar al concepto dedistribución que estaba desarrollando en esa
época.

La Fundación para el Software Libre A medida que el interés en el uso de Emacs


crecía, otras personas se involucraron en el proyecto GNU, y decicimos que era el
momento de buscar fondos nuevamente. Por ello en 1985 creamos la "Free Software
Foundation" [Fundación para el Software Libre--FSL], una organización de caridad libre
de impuestos para el desarrollo del software libre. La FSL también acaparó el negocio de
distribución en cinta de Emacs; más adelante lo extendió al agregar otros productos de
software libre (tanto GNU como no-GNU) a la cinta, y con la venta de manuales libres.

La FSL acepta donaciones, pero la mayoría de sus ingresos han provenido siempre de las
ventas--de copias de software libre, y otros servicios relacionados. En la actualidad vende
CD-ROMs de código fuente, CD-ROMs con binarios, manuales agradablemente
impresos (todos con libertad para redistribuir y modificar), y las Distribuciones De Lujo
(en las cuales incorporamos toda la colección de software lista para usar en la plataforma
de su elección).

Los empleados de la Fundación para el Software Libre han escrito y mantenido una
cantidad de paquetes de software GNU. Dos notables casos son la biblioteca C y el shell.
La biblioteca C de GNU es lo que usa todo programa que corre en un sistema
GNU/Linux para comunicarse con Linux. Fue desarrollada por un miembro del staff de la
Fundación para el Software Libre, Roland McGrath. El shell que se usa en la mayoría de
los sistemas GNU/Linux es BASH, el Bourne Again SHell(1), que fue desarrollado por
Brian Fox, empleado de la FSL.

Hemos provisto los fondos para el desarrollo de esos programas porque el proyecto GNU
no se queda solamente en herramientas o un entorno de desarrollo. Nuestra meta era tener
un sistema operativo completo, y esos programas eran necesarios para esa meta.

(1) "Bourne again shell" es una broma sobre el nombre "Bourne Shell", que era el shell
usual en Unix.

Asistencia para el Software Libre La filosofía del software libre rechaza una práctica
específica de negocio ampliamente difundida, pero no está contra el negocio. Cuando los
negocios respetan la libertad de los usuarios, les deseamos éxito.

La venta de copias de Emacs demostró una clase de negocio con software libre. Cuando
la FSL se apropió de ese negocio, necesité de otro medio de vida. Lo encontré en la venta
de servicios relacionados con el software libre que había desarrollado. Esto incluía la
enseñanza, sobre temas tales como cómo programar GNU Emacs, y cómo personalizar
GCC, y desarrollo de software, en la mayor parte transportar GCC a otras plataformas.

11 de 26 18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of... http://www.um.es/docencia/barzana/II/Ii02.html

En la actualidad cada una de esas clases de negocios con software libre está puesta en
práctica por una cantidad de corporaciones. Algunas distribuyen colecciones de software
libre en CD-ROM; otras venden asistencia en niveles que van desde responder preguntas
de usuarios, reparación de errores, hasta el agregado de nuevas características mayores.
Incluso estamos viendo compañías de software libre basadas en el lanzamiento de nuevos
productos de software libre.

Aunque, tenga cuidado--una cantidad de compañías que se asocian a sí mismas con el


término "open source" en realidad basan su negocio en software no-libre que trabaja con
software libre. Ellas no son compañías de software libre, sino compañías de software
propietario cuyos productos tientan a los usuarios a abandonar su libertad. Ellas usan la
denominación "valor agregado" lo que refleja los valores que desearían que adoptemos:
conveniencia por encima de libertad. Si valoramos más la libertad, deberíamos
denominarlos productos con "libertades usstraídas".

Metas técnicas La meta principal de GNU era el software libre. Aún en el caso que GNU
no tuviese ventajas técnicas sobre Unix, tendría una ventaja social, al permitir cooperar a
los usuarios, y una ventaja ética, al respetar la libertad de los usuarios.

Pero era natural que se apliquen los estándares conocidos de buenas prácticas al
trabajo--por ejemplo, reservar dinámicamente las estructuras de datos para evitar límites
de tamaño fijo arbitrarios, y manejar todos lo posibles códigos de 8 bits cuando tuviese
sentido.

Además, rechazamos el enfoque de Unix para pequeños tamaños de memoria, al decidir


que no trabajaríamos para máquinas de 16 bits (era claro que las máquinas de 32 bits
serían la norma para cuando el sistema GNU estuviese terminado), y al no hacer ningún
esfuerzo para reducir el uso de memoria, a menos que excediera el megabyte. En los
programas para los cuales no era crucial el manejo de ficheros muy grandes,
incentivamos a los programadores a leer el fichero completo en memoria, y luego
explorar su contenido, sin tener que preocuparse por la E/S.

Estas decisiones permitieron que muchos programas GNU sobrepasaran a sus


contrapartidas UNIX en confiabilidad y velocidad.

Computadoras donadas A medida que la reputación del proyecto GNU crecía, la gente
comenzó a ofrecer al proyecto donaciones de máquinas con UNIX corriendo. Fueron
muy útiles porque la manera más fácil de desarrollar componentes de GNU era hacerlo
en un sistema UNIX, y luego ir reemplazando los componentes del sistema uno a uno.
Pero ellas trajeron una cuestión ética: si era correcto para nosotros siquiera tener una
copia de UNIX.

UNIX era (y es) software propietario, y la filosofía del proyecto GNU dice que no
debemos usar software propietario. Pero, aplicando el mismo razonamiento que lleva a la
conclusión que la violencia en defensa propia está justificada, concluí que era legítimo
usar un paquete propietario cuando ello era crucial para desarrollar un reemplazo libre
que ayudaría a otros a dejar de usar el paquete propietario.

Pero, aún cuando esto era un mal justificable, era todavía un mal. En la actualidad ya no
tenemos más copias de Unix, porque las hemos reemplazado por sistemas operativos
libres. En los casos en que no pudimos reemplazar el sistema operativo de una máquina
por uno libre, se procedió al reemplazo de la máquina.

12 de 26 18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of... http://www.um.es/docencia/barzana/II/Ii02.html

La lista de tareas de GNU A medida que proseguía el proyecto GNU, se desarrollaron o


encontraron una cantidad creciente de componentes, y eventualmente se vio la utilidad de
hacer una lista con los huecos faltantes. La usamos para reclutar desarrolladores para
escribir las piezas faltantes. Esta lista comenzó a conocerse como la lista de tareas de
GNU. Además de los componentes Unix faltantes, agregamos a la lista otros útiles
proyectos de software y documentación que, de acuerdo a nuestra visión, debe tener un
sistema verdaderamente completo.

En la actualidad, casi ningún componente Unix queda en la lista de tareas GNU--esos


trabajos ya han sido terminados, fuera de algunos no esenciales. Pero la lista está llena de
proyectos que algunos pueden denominar "aplicaciones". Cualquier programa que sea
atrayente a más de una estrecha franja de usuarios sería una cosa útil para añadir a un
sistema operativo.

Aún los juegos están incluídos en la lista de tareas--y han estado desde el principio. Unix
incluía juegos, así que GNU debía incluirlos también. Pero la compatibilidad no es un
problema para los juegos, así que no seguimos la lista de juegos que Unix tenía. En lugar
de ello, listamos un espectro de diferentes clases de juegos que les podrían gustar a los
usuarios.

La LPG para Bibliotecas de GNU La biblioteca C de GNU usa una clase especial de
copyleft denominada "GNU Library General Public License" [Licencia Pública General
para Bibliotecas de GNU] que da permiso para enlazar software propietario con la
biblioteca. ¿Porqué hacer esta excepción?

No es una cuestión de principios; no hay ningún principio que diga que debemos incluir
código de los productos de software propietario. (¿Porqué contribuir con un proyecto que
se rehusa a compartir con nosotros?) El uso de la LPGB para la biblioteca C, o para
cualquier otra biblioteca, es un tema de estrategia.

La biblioteca C hace un trabajo genérico; todo sistema propietario o compilador viene


con una biblioteca C. Por lo tanto, el hacer que nuestra biblioteca esté sólo disponible
para el software libre, no le daría al software libre ninguna ventaja--sólo hubiera
desalentado el uso de nuestra biblioteca.

HAy un sistema que es una excepción a esto: en un sistema GNU (y esto incluye los
sistemas GNU/Linux), la biblioteca C de GNU es la única biblioteca C. Así que los
términos de distribución de la biblioteca C de GNU determinan si es posible compilar un
programa propietario para un sistema GNU. No hay ninguna razón ética para permitir
aplicaciones propietarias en un sistema GNU, pero estratégicamente parece que si no se
permite, ello hará más para desalentar el uso del sistema GNU que para alentar el
desarrollo de aplicaciones libres.

Por estas razones es que el uso de la LPG para Bibliotecas es una buena estrategia para la
biblioteca C. Para otras bibliotecas, la decisión estratégica necesita considerarse en cada
caso particular. Cuando una biblioteca hace un trabajo especial que puede ayudar a
escribir cierta clase de programas, y luego entregarla bajo la LPG, limitándola sólo a
programas libres, es una manera de ayudar a otros desarrolladores de software libre, al
proporcionarles una ventaja contra el software propietario.

Considere la GNU Readline, una biblioteca desarrollada para proporcionar la edición en


la línea de órdenes para BASH. Readline se entrega bajo la LPG GNU ordinaria, no bajo

13 de 26 18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of... http://www.um.es/docencia/barzana/II/Ii02.html

la LPG para Bibliotecas. De esta manera probablemente se reduce la cantidad de uso de


Readline, pero eso no significa pérdida para nosotros. Mientras tanto, al menos una útil
aplicación se ha transformado en software libre específicamente para poder usar
Readline, y ésa es una ganancia real para nuestra comunidad.

Los desarrolladores de software propietario tienen las ventajas que el dinero proporciona;
los desarrolladores de software libre necesitan crear ventajas entre sí. Tengo la esperanza
de que algún día tendremos una gran colección de bibliotecas cubiertas por LPG que no
tengan parangón entre el software propietario, que proporcionen útiles módulos que
sirvan como bloques constructivos en nuevo software libre, y que sumen una mayor
ventaja para adelantar el desarrollo de software libre.

¿Rascarse una comezón? Eric Raymond dice que "Todo buen trabajo de software
comienza con un desarrollador rascándose una comezón personal". Puede que ocurra
algunas veces, pero muchas de las piezas esenciales de software GNU se desarrollaron a
los fines de tener un sistema operativo libre completo. Vinieron desde una visión y un
plan, no desde el impulso.

Por ejemplo, desarrollamos la biblioteca C de GNU porque un sistema del estilo Unix
necesita una biblioteca C, el shell Bourne-Again (bash) porque un sistema del estilo Unix
necesita un shell, y el tar GNU porque un sistema del estilo Unix necesita un programa
tar. Lo mismo se aplica a mis propios progamas--el compilador GNU C, GNU Emacs,
GDB y GNU Make.

Algunos de los programas GNU se desarrollaron para tratar amenazas específicas a


nuestra libertad. Por ello, desarrollamos gzip para reemplazar al programa Compress,
perdido para nuestra comunidad a causa de las patentes LZW. Proporcionamos fondos
para desarrollar LessTif, y más recientemente iniciamos GNOME y Harmony, para lidiar
con los problemas causados por cierta biblioteca propietaria (vea más abajo). Estamos
desarrollando el GNU Privacy Guard para reemplazar un software popular de cifrado
no-libre, porque los usuarios no deben verse obligados a elegir entre privacidad y
libertad.

Por supuesto, la gente que escribe estos programas se interesa en el trabajo, y varias
personas han agregado muchas características para satisfacer sus propias necesidades e
intereses. Pero ése no es el motivo por el cual existe el programa.

Desarrollos inesperados Al comienzo del proyecto GNU, imaginé que desarrollaríamos


el sistema GNU completo, y luego lo entregaríamos completo. No es así como ha
sucedido.

Como cada componente de un sistema GNU se implementó en un sistema Unix, cada


componente podía correr en sistemas Unix, mucho antes de que existiera un sistema
GNU completo. Algunos de esos programas se hicieron populares, y los usuarios
comenzaron a extenderlos y transportarlos--a las distintas versiones incompatibles de
Unix, y algunas veces a otros sistemas también.

El proceso hizo que dichos programas sean más potentes, y atrayeran tanto fondos como
contribuyentes al proyecto GNU. Pero también demoró el completamiento de un sistema
mínimo en funciones por varios años, a medida que el tiempo de los desarrolladores
GNU se usaba para mantener esos transportes y en agregar características a los
componentes existentes, en lugar de adelantar la escritura de los componentes faltantes.

14 de 26 18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of... http://www.um.es/docencia/barzana/II/Ii02.html

El GNU Hurd En 1990, el sistema GNU estaba casi completo; el único componente
importante faltante era el núcleo. Decidimos implementar nuestro núcleo como una
colección de procesos servidores corriendo sobre Mach. Mach es un micronúcleo
desarrollado en Carnegie Mellon University y luego en la University of Utah; el GNU
HURD es una colección de servidores (o "manada de ñus") que corren sobre Mach, y se
ocupan de las tareas del núcleo Unix. El inicio del desarrollo se demoró mientras
esperábamos que Mach se entregue como software libre, tal como se había prometido.

Una razón para elegir este diseño había sido evitar lo parecía ser la parte más dura del
trabajo: depurar el núcleo sin un depurador a nivel de código fuente para utilizar. Esta
parte del trabajo ya había sido hecha en Mach, y esperábamos depurar los servidores
HURD como programas de usuario, con GDB. Pero llevó un largo tiempo hacer esto
posible, y los servidores multihilo que se envían mensajes unos a otros han sido muy
difíciles de depurar. Hacer que HURD trabaje sólidamente se ha tardado varios años.

Alix El núcleo GNU no se iba a llamar originalmente el HURD. Su nombre original era
Alix--denominado así a partir de una mujer que era mi amor de aquella época. Ella era
administradora de sistema Unix y había hecho notar que su nombre seguía el patrón de
nomenclatura común a las versiones de sistema Unix; a modo de broma, le dijo a sus
amigos, "Alguien debería darle mi nombre a un núcleo". Yo no dije nada, pero decidí
sorprenderla con un núcleo llamado Alix.

No se dió de esa manera. Michael Bushnell (ahora Thomas), el principal desarrollador


del núcleo, prefirió el nombre HURD, y redefinió Alix para referirse a cierta parte del
núcleo--la parte que captura las llamadas del sistema y las gestiona por medio del envío
de mensajes a los servidores HURD.

Más tarde, Alix y yo nos separamos, y ella cambió su nombre; independientemente, el


diseño de HURD se cambió para que la biblioteca C envíe los mensajes directamente a
los servidores, y esto hizo que el componente Alix desapareciera del diseño.

Pero antes que estas cosas sucedieran, un amigo de ella encontró el nombre Alix en el
código fuente de HURD, y se lo mencionó. Así que el nombre cumplió su objetivo.

Linux y GNU/Linux El GNU HURD no está listo para el uso en producción.


Afortunadamente, está disponible otro núcleo. En 1991, Linus Torvalds desarrolló un
núcleo compatible con Unix y lo denominó Linux. Cerca de 1992, al combinar Linux con
el sistema no tan completo de GNU, resultó en un sistema operativo libre completo. (La
combinación en sí misma dió un considerable trabajo.) Es gracias a Linux que podemos
ver funcionar un sistema GNU en la actualidad.

Denominamos a esta versión GNU/Linux, para expresar su composición como


combinación de un sistema GNU con Linux como núcleo.

Desafíos en nuestro futuro Hemos probado nuestra capacidad para desarrollar un


amplio espectro de software libre. Esto no significa que somos invencibles o que nada
nos puede detener. Muchos desafíos hacen que el futuro del software libre sea incierto;
estar a la altura de los mismos requerirá esfuerzos firmes y resistencia, algunas veces
durante años. Requerirá la clase de determinación que la gente muestra cuando valora su
libertad y no deja que nadie se la quite.

Las siguientes cuatro secciones discuten dichos desafíos.

15 de 26 18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of... http://www.um.es/docencia/barzana/II/Ii02.html

Hardware secreto Los fabricantes de hardware tienden cada vez más a mantener las
especificaciones de hardware secretas. Esto hace difícil la escritura de controladores
libres, y de esa manera, que Linux y XFree86 puedan admitir nuevo hardware. Tenemos
sistemas libres completos por hoy, pero no los tendremos mañana si no podemos usar las
computadoras del mañana.

Existen dos maneras de lidiar con este problema. Los programadores pueden hacer
ingeniería reversa para darse cuenta como usar el hardware. El resto de nosotros puede
elegir el hardware que admite software libre; a medida que nuestro número crezca, el
secreto de las especificaciones se transformará en una política contraproducente.

La ingeniería reversa es un trabajo enorme; ¿tendremos los programadores con la


suficiente determinación para realizarla? Sí--si hemos construído un fuerte sentimiento
de que el software libre es un tema de principio, y de que los controladores no libres son
intolerables. ¿Y una gran cantidad de nosotros estará dispuesto a gastar dinero extra, o
incluso tiempo extra, para que podamos usar controladores libres? Sí, si se difunde la
determinación para tener libertad.

Bibliotecas no libres Una biblioteca no libre que corre sobre un sistema operativo actúa
como una trampa para los desarrolladores de software libre. Las características atractivas
de la biblioteca son el cebo; si usted usa la biblioteca, cae en la trampa, porque su
programa no puede ser parte útil de un sistema operativo libre. (Estrictamente hablando,
podemos incluir su programa, pero no funcionará sin la biblioteca faltante.) Peor aún, si
el programa que usa la biblioteca se hace popular, puede hacer caer a otros
programadores incautos dentro de la trampa.

La primer instancia de este problema fue el kit de herramientas Motif, allá en los 80s.
Aunque aún no había sistemas operativos libres, era claro el problema que Motif iba a
causarles más adelante. El proyecto GNU respondió de dos maneras: solicitando a los
proyectos individuales de software libre que admitan tanto los widgets del kit libre de
herramientas de X como el de Motif, y solicitando a alguien que escriba un reemplazo
libre para Motif. El trabajo tomó varios años; LessTif, desarrollado por Hungry
Programmers [Programadores hambrientos] tomó la potencia necesaria como para
admitir la mayoría de las aplicaciones Motif recién en 1997.

Entre 1996 y 1998, otra biblioteca kit de herramientas GUI no libre, denominada Qt, se
usó en una sustancial colección de software libre: el escritorio KDE.

Los sistemas libres GNU/Linux no podían usar KDE, porque no podíamos usar la
biblioteca. Sin embargo, algunos distribuidores comerciales de sistemas GNU/Linux que
no eran tan estrictos al adherirse al software libre, agregaron KDE a sus
sistemas--produciendo un sistema con más capacidades, pero menos libertad. El grupo
KDE instaba activamente a más programadores a usar Qt, y millones de nuevos "usuarios
de Linux" nunca escucharon la idea de que había un problema con esto. La situación se
presentaba lúgubre.

La comunidad del software libre respondió a este problema de dos maneras: GNOME y
Harmony.

GNOME, el GNU Network Object Model Environment [Entorno Modelo de Objetos en


Red de GNU], es el proyecto de escritorio de GNU. En 1997 Miguel de Icaza lo inició, y
se desarrolló con aporte de Red Hat Software, para proporcionar capacidades de
escritorio similares, pero usando sólo software libre. Tiene también ventajas técnicas,

16 de 26 18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of... http://www.um.es/docencia/barzana/II/Ii02.html

tales como admitir una variedad de lenguajes, no sólo C++. Pero su propósito principal
fue la libertad: evitar el uso de cualquier software no libre.

Harmony es una biblioteca de reemplazo compatible, diseñada para poder hacer


funcionar el software KDE sin usar Qt.

En noviembre de 1998, los desarrolladores de Qt anunciaron un cambio de licencia, que


cuando se lleve a cabo, hará que Qt sea software libre. No hay manera de estar seguro,
pero pienso que esto ocurrió en parte debido a la firme respuesta de la comunidad frente
al problema que presentaba Qt cuando no era libre. (La nueva licencia es inconveniente e
injusta, así que aún es deseable evitar su uso.)

¿Cómo responderemos a la siguiente biblioteca no libre que nos tiente? ¿Comprenderá la


totalidad de la comunidad la necesidad de mantenerse fuera de la trampa? ¿Alguno de
nosotros entregará libertad por conveniencia, y generará un importante problema?
Nuestro futuro depende de nuestra filosofía.

Patentes de software La peor amenaza que enfrentamos proviene de las patentes de


software, que pueden colocar a algoritmos y características fuera de los límites del
software libre hasta por veinte años. Las patentes del algoritmo de compresión LZW se
solicitaron en 1983, y hasta ahora no podemos entregar software libre que produzca GIFs
adecuadamente comprimidos. En 1998, se tuvo que quitar de una distribución un
programa libre para producir audio comprimido MP3 a causa de la amenaza de un juicio
por patente.

Existen maneras de tratar con las patentes: podemos buscar evidencia de que la patente
no es válida, y podemos buscar maneras alternativas de realizar el trabajo. Pero cada uno
de estos métodos trabaja sólo ciertas veces; cuando ambos fallan, una patente puede
forzar a que todo software libre carezca de alguna característica que los usuarios desean.
¿Qué haremos cuando esto suceda?

Aquellos de nosotros que valoremos el software libre por la libertad nos apegaremos al
software libre de cualquier manera. Nos las arreglaremos para tener nuestro trabajo
realizado sin las características patentadas. Pero aquellos que valoren el software libre
porque esperan que sea técnicamente superior, cuando las patentes lo obliguen a
mantenerse atrás, es más probable que piensen que se trata de una falla. Por lo tanto, si
bien es útil hablar acerca de la efectividad práctica del modelo "catedral" de desarrollo, y
de la confiabilidad y potencia de cierto software libre, no debemos detenernos allí.
Debemos hablar acerca de libertad y principio.

Documentación libre La mayor deficiencia en nuestro sistema operativo libre no está en


el software-- es la falta de buenos manuales libres que podamos incluir en nuestros
sistemas. La documentación es una parte esencial de cualquier paquete de software;
cuando un paquete importante de software libre no viene con un buen manual libre, ése
es un hueco importante. Tenemos muchos de esos huecos en la actualidad.

La documentación libre, como el software, es un tema de libertad, no de precio. El


criterio para un manual libre es muy parecido al del software libre: es una cuestión de
otorgar a los usuarios ciertas libertades. La redistribución (incluso la venta comercial)
debe estar permitida, en línea y en papel, de tal manera que el manual pueda acompañar a
cada copia del programa.

El permiso para modificarlo es también crucial. Como regla general, no creo que sea

17 de 26 18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of... http://www.um.es/docencia/barzana/II/Ii02.html

esencial que las personas tengan permiso para modificar toda clase de artículos y libros.
Por ejemplo, no creo que usted o yo estemos obligado a dar permiso para modificar
artículos como este, que describe nuestras acciones y nuestra visión.

Pero existe una razón particular debido a la cual la libertad para modificar la
documentación es crucial para el software libre. Cuando la gente ejercita su derecho a
modificar el software, y agrega o cambia características, si son concientes también
cambiarán el manual--así proporcionarán documentación precisa y útil con el programa
modificado. Un manual que no permite a los programadores ser concientes y terminar el
trabajo, no satisface las necesidades de nuestra comunidad.

La existencia de algunas clases de límites acerca de cómo se deben hacer las


modificaciones no implica problemas. Por ejemplo, el requerimiento de preservar el
aviso de copyright del autor original, los términos de distribución, o la lista de autores,
están bien. Tampoco trae problemas requerir que la versión modificada incluya un aviso
de que fue modificada, e incluso que haya secciones completas que no puedan borrarse o
cambiarse siempre y cuando dichas secciones traten temas que no sean de índole técnica.
Estas clases de restricciones no son un problema porque no impiden al programador
conciente que adapte el manual para ajustarlo al programa modificado. En otras palabras,
no impiden a la comunidad del software libre la completa utilización del manual.

Sin embargo, debe ser posible modificar todo el contenido *técnico* del manual, y luego
distribuir el resultado en todos los medios usuales, a través de todos los canales usuales;
si esto no es así, las restricciones obstruyen la comunidad, el manual no es libre, y
necesitaremos otro maual.

¿Será que loa desarrolladores de software libre tendrán la conciencia y determinación


para producir un espectro completo de manuales? Una vez más, nuestro futuro depende
de nuestra filosofía.

Debemos hablar acerca de la libertad En la actualidad se estima que hay unos diez
millones de usuarios de sistemas GNU/Linux, tales como el Debian GNU/Linux y Red
Hat Linux. El software libre ha desarrollado ciertas ventajas prácticas que hacen que los
usuarios estén congregándose hacia allí por razones puramente prácticas.

Las buenas consecuencias de esto son evidentes: mayor interés en el desarrollo de


software libre, más clientes para empresas de software libre, y mayor capacidad para
animar a las compañías a que desarrollen productos de software libre, en lugar de
productos de software propietario.

Pero el interés en el software crece más rápido que la conciencia acerca de la filosofía
sobre la cual está basado, y esto crea problemas. Nuestra capacidad de enfrentar los
desafíos y amenazas que se describieron más arriba depende de la voluntad de
mantenerse firmes del lado de la libertad. Para asegurarnos de que nuestra comunidad
tiene esta voluntad, necesitamos esparcir la idea entre los nuevos usuarios a medida que
ellos llegan a nuestra comunidad.

Pero estamos fracasando en esto: los esfuerzos realizados para atraer nuevos usuarios a
nuestra comunidad sobrepasan por lejos a los esfuerzos dedicados a la enseñanza cívica
acerca de nuestra comunidad. Necesitamos hacer ambas cosas, y es necesario que
mantengamos ambos esfuerzos balanceados.

"Open Source" La enseñanza acerca de la libertad a los nuevos usuarios se hizo más

18 de 26 18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of... http://www.um.es/docencia/barzana/II/Ii02.html

difícil en 1998, cuando una parte de la comunidad decidió dejar de usar el término
"software libre" y usar "open source software" en su lugar.

Algunos de los que favorecieron este término tenían como objetivo evitar la confusión de
"free" con "gratis"--una meta válida. Otros, sin embargo, apuntaban a apartar el espíritu
de principio que ha motivado el movimiento por el software libre y el proyecto GNU, y
resultar así atractivos a los ejecutivos y usuarios comerciales, muchos de los cuales
sostienen una ideología que pone las ganancias por encima de la libertad, de la
comunidad, y de los principios. Por lo tanto, la retórica de "open source" se centra en el
potencial de realización de potente software de alta calidad, pero esquiva las ideas de
libertad, comunidad y principio.

Las revistas sobre "Linux" son un claro ejemplo de esto--están llenas de propagandas
acerca de software propietario que funciona sobre GNU/Linux. Cuando aparezca la
próxima Motif o Qt, ¿incentivarán estas revistas a los programadores a apartarse de ellas,
o pondrán propagandas de las mismas?

El apoyo de las empresas puede contribuir a la comunidad de varias maneras; si todo lo


demás se mantiene igual, esto es útil. Pero si ganamos su apoyo mediante el recurso de
hablar menos de libertad y principio esto puede ser desastroso; hace que empeore el
desbalance previo entre el alcance y la educación cívica.

"Software libre" y "open source" describen la misma categoría de software, más o menos,
pero dicen diferentes cosas acerca del software, y acerca de los valores. El proyecto GNU
continúa utilizando el término "free software" [software libre] para expresar la idea de
que la libertad, no solamente la tecnología, es lo importante.

¡Pruébelo! La filosofía de Yoda ("No hay 'para probar'") suena linda, pero no funciona
conmigo. He realizado la mayor parte de mi trabajo con ansiedad por saber si podría
llevarlo a cabo, y con la inseguridad de que no sería suficiente alcanzar la meta si lo
lograba. Pero lo intenté igual, porque no había otro entre el enemigo y mi ciudad. Para mi
propia sorpresa, algunas veces he tenido éxito.

Algunas veces he fallado; algunas de mis ciudades han caído. Luego he encontrado otra
ciudad amenazada, y me preparé para otra batalla. A lo largo del tiempo, aprendí a buscar
las amenazas y ponerme entre ellas y la ciudad, y llamar a otros hackers para que se unan
a mí.

En la actualidad, con frecuencia no soy el único. Es un consuelo y un placer cuando veo


un regimiento de hackers excavando para mantener la trinchera, y caigo en cuenta que
esta ciudad sobrevivirá--por ahora. Pero los peligros son mayores cada año que pasa, y
ahora Microsoft tiene a nuestra comunidad como un blanco explícito. No podemos dar
por garantizado el futuro en libertad. ¡No lo dé por garantizado! Si usted desea mantener
su libertad, debe estar preparado para defenderla.

Por favor envíe sus preguntas (en inglés) sobre FSF & GNU a gnu@gnu.org. También
hay otras maneras de contactar a la FSF.

Por favor envíe comentarios (en inglés) estas páginas a webmasters@www.gnu.org,


envíe otras preguntas (en inglés) a gnu@gnu.org.

19 de 26 18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of... http://www.um.es/docencia/barzana/II/Ii02.html

Copyright (C) 1998 Richard Stallman

Está permitida la copia textual y distribución de este artículo en su totalidad por cualquier
medio, siempre y cuando esta nota se preserve.

Actualizado: $Date: 2003/02/18 20:33:43 $ $Author: luferbu $

Traducción: César Ballardini (Argentina) <cballard@santafe.com.ar>

Revisión: - Ramsés Morales (Panamá) <ramses@computer.org>


- César Villanueva (Venezuela) <dandel@etheron.net>
- Oscar Mendez Bonilla (México) <omendez@acnet.net>

Coordinación: Hugo Gayosso <hgayosso@gnu.org>

Actualizada: 30 Nov 1999 Cesar Javier Bolaños Vizcarra (México) < cesarbv@netspace.com.mx>
Actualizada: 08 Feb 2003 Luis Bustamante

2.3 Editor de textos

Los editores o procesadores de texto son unos de los programas más importantes y usuales en la
utilización de cualquier ordenador personal. La posibilidad de escribir largos o repetitivos documentos,
corregirlos, modificarlos e imprimirlos es una ventaja sustancial del ordenador sobre la máquina de
escribir.

Los procesadores o tratamientos de textos son programas que permiten realizar todas las operaciones
necesarias para crear, guardar, recuperar, modificar e imprimir un texto. Al escribir con un procesador de
textos, no hay que preocuparse del final de la línea, ni tampoco del fin de página, ya que el programa pasa
automáticamente a la línea siguiente o a la hoja siguiente cuando una esté completa. El propio procesador
delimitará el tamaño de la hoja, líneas por página.

Mediante sencillos procedimientos podemos mover, borrar, subrayar o repetir párrafos, frases y palabras
dentro de un texto. Una vez finalizada la manipulación del documento, podemos guardarlo en un soporte
magnético u óptico, imprimirlo o ambas cosas. (Cuando se edita o crea un texto, éste reside en la memoria
interna, luego solo permanece temporalmente, perdiéndose al desconectar el equipo. Para evitar la
pérdida, antes debe guardarse en un soporte, si deseamos conservarlo).

Los procesadores tienen acceso y comunicación con otros programas: bases de datos, hojas de cálculo,
diccionarios, otros archivos, etc, aunque esto ya no es imprescindible en los entornos Linux o Windows,
dada las facilidades que ofrecen para la interrelación entre programas.

Todos los procesadores de textos permiten establecer cabeceras y piés de página, definir la anchura del
documento, el número de caracteres por línea, definir longitud de páginas, marcar márgenes y tabuladores,
mover, copiar o borrar bloques de textos, definir atributos de texto (negrita, subrayado ...).También
ofrecen la posibilidad de crear de forma sencilla tablas, gráficos, dibujos e insertar incluso imágenes. Es
normal la la posibilidad de visualizar el documento en pantalla en su formato definitivo, es decir tal y
como va a imprimirse. Esta muestra previa es muy interesante para comprobar su aspecto final sin
necesidad de imprimirlo; se conoce como WYSIWYNG (se obtiene lo que se ve). Un programa que no es
WYSIWYNG, aunque es el más potente de todos es Tex, escrito por Donald Knuth de la Universidad de
Stanford (EE.UU.), muy utilizado por los matemáticos y científicos en general, contando con muchos
defensores.

20 de 26 18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of... http://www.um.es/docencia/barzana/II/Ii02.html

Respecto a la seguridad, guardan automáticamente una copia del documento anterior; otros tienen claves
de acceso (PASSWORD) que protegen el texto, permitiendo su manipulación sólamente a los usuarios
que conozcan la contraseña. Sin embargo Microsoft WORD tiene niveles de seguridad muy deficientes.

Los procesadores de texto tienen la posibilidad de disponer de los tipos de letras del respectivo sistema
operativo, aunque es el tipo de impresora la que realmente determina la variedad y calidad que se puede
utilizar.

Los procesadores actuales cuentan con programas auxiliares como los diccionarios ortográficos, de
sinónimos o bilingües. Los ortográficos sirven para revisar el documento completo detectando los errores
de mecanografía y faltas de ortografía. Los de sinónimos (tesauros) permiten consultar posibles
alternativas a una palabra. Los diccionarios bilingües permiten buscar la palabra en otro idioma. Otras
posibilidades hasta hace poco tiempo consideradas como avanzadas son: editores de fórmulas, posibilidad
de definir macros, sombreados de marcos, escritura en columnas.

Es también muy importante la existencia de una ayuda lo más sencilla y completa posible que evite la
consulta constante del manual. Algunos programas incluyen discos tutores y libros de aprendizaje con
ejemplos.

Otros programas interesantes son los comprobadores de estilo que comparan los textos con una serie de
reglas gramaticales. Detectan errores de puntuación, mayúsculas, palabras repetidas, palabras en desuso.
Los procesadores de textos son programas de usurario que permiten realizar todas las operaciones
necesarias para crear, guardar, recuperar, modificar e imprimir un texto.

El procesamiento de textos no es escribir

Aunque se piense que el ser un buen mecanógrafo es importante para escribir en un programa editor de
textos, hay algunas aptidudes de la mecanografía que son contraproducentes. Seguidamente se listan los
nuevos hábitos a tener en cuenta al pasar al uso de un editor de textos:

Utiliza la tecla intro (o retorno de carro) sólo cuando debas. Los ajustes de línea se producen
automáticamente.

Utiliza guías de tabulación y márgenes, no la barra espaciadora para alinear columnas

No subrayes. Utiliza cursivas y negritas para enfatizar el texto.

Utiliza sólo un espacio después de un punto. Se deben evitar los espacios dobles

Benefíciate de los caracteres especiales. Caracteres no comunes de las máquinas de escribir hacen
que los escritos parezcan más profesionales.

Nuevas herramientas para la manipulación de textos

Los procesadores de textos han evolucionado rapidamente, las nuevas tendencias han dado lugar a
grandes cambios:

Procesamiento de textos escritos a mano. Es algo que requiere programas muy complicados, pero
actualmente existen los ordenadores denominados tablet PC, basados en las modernas Otro ejemplo
son los equipos denominados PDA (asistente personal digital) como por ejemplo los Palm, en los
que se introduce el texto con una especie de lápiz.

Procesamiento de texto con el habla. Hablando frente a un micrófono se le dice al ordenador lo que

21 de 26 18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of... http://www.um.es/docencia/barzana/II/Ii02.html

debe escribir e incluso se le pueden dar órdenes de cómo hacerlo. Los programas de reconocimiento
de voz buscan patrones en las ondas de sonido interpretando las palabras. Actualmente hay algunos
disponibles, con resultados buenos, siempre que se les haga un aprendizaje previo para cada
interlocutor. El más conocido es Voice Type de IBM.

Procesadores web en línea (online). El usuario usa un programa residente en un servidor, a través de
internet, no siendo preciso el disponer del editor de textos en el propio ordenador. Los más
conocidos son: Zohowriter, AjaxWrite, Google Docs , proveniente de la adquisición de Writely por
Google y gOFFICE. Algunos incorporan otras aplicaciones ofimáticas.

Un poco de historia sobre Tex


La aparición de las computadoras ha introducido a los autores de artículos, informes o
libros científicos (o a sus secretarios/as) en el mundo de la edición. La edición de trabajos
en la mayor parte de las disciplinas de carácter humanístico-lingüístico no presenta
dificultades importantes. Sin embargo en textos científicos de matemáticas, física, etc. la
situación es diferente debido a la necesidad de usar fórmulas o gráficos complicados.

Hasta hace bien poco tiempo era frecuente encontrar trabajos mecanografiados con las
fórmulas escritas a mano. Con la llegada de los ordenadores personales y el uso de
sistemas que operan en un entorno gráfico (Windows, Mac, X-Windows,...) algunos de
esas dificultades han quedado obsoletas, pero han aparecido otras:

- La gran variedad de editores existentes en el mercado, con las ventajas parciales de


unos y otros o las preferencias de los autores, dificulta el intercambio de originales,
incluso aunque los autores trabajen sobre un mismo sistema operativo. La frenética (e
interesada) carrera de las "versiones" o la existencia (cuando están disponibles) de
"conversores" que nunca acaban de funcionar satisfactoriamente, no contribuye a mejorar
el panorama.

- La posibilidad de intercambio de originales entre autores que utilizan entornos


operativos diferentes (MSDOS, OSDOS, UNIX, VMS, MAC,..) es prácticamente
inexistente. En el mejor de los casos será posible exportar a un formato "solo texto" con
el coste de reducir las prestaciones del editor a las de una vulgar máquina de escribir.

- El hecho de la creciente globalización que en nuestro mundo se da en todos los ámbitos


de la actividad humana, requiere y genera recursos de interconectividad, trabajo en
equipo (a veces desde lugares geográficamente alejados), etc. Pero las enormes
posibilidades que hoy existen para la interconectividad de los ordenadores a través de las
redes locales o internacionales tiene como handicap lo expresado en los dos puntos
anteriores. Incluso en el limitado ámbito del "sólo texto", quienes han tenido alguna
experiencia conocen bien que los caracteres con algún tipo de acento se comportan de
forma impredecible al viajar por las redes.

En los años 1970 la American Mathematical Society encargó a Donald E. Knuth,


profesor de la Universidad de Stanford, la creación de un sistema para escribir textos
científicos (especialmente matemáticos), que fuera cómodo y transportable entre
plataformas. A partir de las ideas de Gutemberg y utilizando las computadoras como
herramientas, Knuth creó el TeX que muchos consideran ahora como la aportación más
importante habida en este campo desde la imprenta de Gutemberg.

Prácticamente el cien por cien de los departamentos de matemáticas en todas las

22 de 26 18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of... http://www.um.es/docencia/barzana/II/Ii02.html

universiades utilizan TeX para escribir en sus publicaciones y trabajos científicos, buena
parte de las revistas mas importantes especializadas en matemáticas utilizan TeX (desde
luego todas las que publica la AMS) y algunas solo publican originales que les sean
remitidos en este formato. Los ficheros con formato TEX viajan constantemente por las
redes informáticas de todo el mundo como mensajeros de investigaciones realizadas y
resultados científicos obtenidos.

Implementado inicialmente en máquinas grandes con sistema propio, el TeX fue


posteriormente compilado en los diferentes plataformas y sistemas. Comercializado
durante el tiempo necesario para amortizar la inversión, Donald E. Knuth y la American
Mathematical Society pusieron de forma gratuita el programa fuente a disposición de la
comunidad científica internacional. Siguiendo su ejemplo, muchas personas han
contribuido (y contribuyen) desinteresadamente a implementar módulos adicionales al
programa original. Hay incluso una asociación de usuarios de TeX la "TeX Users Group"
para intercambiar información sobre problemas comunes y soluciones. En colaboración
con ellos la AMS publica desde 1980 una revista llamada TUGboat sobre estos temas.

Actualmente está en fase de elaboración, entre todos los usuarios que deseen participar,
la versión 3 del dialecto LaTeX , el más extendido de los dialectos del TeX, coordinada
por un equipo "The LaTeX team" que pone libremente a disposición de la comunidad
científica, semestralmente en servidores Internet, los progresos que se van realizando con
las ideas y colaboraciones de todos. La aproximación asintótica a esa versión 3 se llama
LaTeXe.

El TeX es un compilador, no es un editor de textos. De hecho, los autores pueden


emplear para crear los textos TEX su editor preferido y esa facilidad también ha
contribuido a su difusión.

2.4 Hojas de cálculo

Las hojas de cálculo (hojas electrónicas o planillas) nacieron cuando surgió la necesidad de adaptar los
sistemas de planificación utilizados en los grandes ordenadores a los nuevos microordenadores. Son una
combinación de calculadora, lápiz y papel, que unido a la potencia y capacidad de almacenar datos de los
ordenadores, las convierten en una herramienta de primerísima importancia en el mundo empresarial.

En 1961 se desveló el concepto de una hoja de cálculo electrónica en el artículo "Budgeting Models and
System Simulation" de Richard Mattessich. Pardo y Landau merecen parte del crédito de este tipo de
programas, y de hecho intentaron patentar (patente en EE.UU. número 4398249) algunos de los
algoritmos en 1970. La patente no fue concedida por la oficina de patentes por ser una invención
puramente matemática. Pardo y Landau ganaron un caso en la corte estableciendo que "algo no deja de ser
patentable solamente porque el punto de la novedad es un algoritmo". Este caso ayudó al comienzo de las
patentes de software. La primera hoja de cálculo comercializada masivamente (Visicalc, posteriormente
comprada por Lotus) nació en 1977 de una idea de un estudiante, Dan Bricklin, de administración de
empresas de la Universidad de Harvard (EE.UU.).

Los cálculos empresariales manejan unas cantidades de datos que suelen variar dependiendo de los
supuestos, por lo que hasta la invención de la hoja electrónica se había desechado aplicar la informática a
ese entorno de trabajo, donde cada caso originaría un programa distinto.

La hoja de cálculo se presenta como una tabla o matriz de dos dimensiones (actualmente existen de tres)
que consta de un número de filas y columnas variable según el modelo del que se trate. (Ej. en LOTUS
123, una de las primeras, tiene 8192 filas y 256 columnas, en total más de 2000000 de celdas). Con los

23 de 26 18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of... http://www.um.es/docencia/barzana/II/Ii02.html

datos se pueden representar variados tipos de gráficos, de gran utilidad en ambientes empresariales.

Las filas son los datos horizontales y las columnas los verticales. El lugar donde se produce la
intersección de una fila y una columna se denomina celda. Las columnas habitualmente se nombran con
letras (A,B, ... AA, AB, ....) y las filas desde 1 en adelante.

Hojas de cálculo web (online)

Análogamente a como sucede con los editores de textos, el usuario emplea un programa residente en un
servidor, a través de Internet, no siendo preciso el disponer del editor de textos en el propio ordenador.
Los más conocidos son: EditGrid, ThinkFree, IRows, GoogleDocs, Zohowriter, Xcellery.

Prácticas de ofimática de la asignatura Introducción a la Informática:

- Uso de Google Docs


- Prácticas con Openoffice

fresqui del.icio.us meneame

Buscar en la web

Búsqueda escéptica

Búsqueda en mis webs

Imprimir

Aquí puedes cambiar el tamaño y color del texto

Página Rafael Barzanallana


Actualización en Fisica
Biografía de Edward Lorenz

Actualización en Avisos.
II, trabajos capítulos 2 y 3 de la asignatura

Actualización en Software.
Tutorial sobre la nueva versión de Google Docs

Actualización en Software.
Tutorial sobre el programa HTTrackl

Actualización en Avisos.

24 de 26 18/04/2008 20:40
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html

Introducción a la Informática. Estudios GAP,


facultad Derecho
Capítulo 3. La información

Asignaturas
Introducción a la Informática
Introducción
Ofimática
La información
Historia de la Informática
Representación de la información
Periféricos de un ordenador
Lenguajes de programación
Sistemas operativos
Redes y comunicaciones
Informática Aplicada a la Gestión Pública
Introducción a la ingeniería del software
Metodologías de desarrollo
Metodologías habituales
Bases de datos. Introducción
Bases de datos. Organización ficheros
Bases de datos relacionales
Bases de datos comerciales
Introducción a internet
Intercambio electrónico de datos (EDI)
Comercio electrónico
Teletrabajo
Calidad
Informática Aplicada al Trabajo Social
Fundamentos de los ordenadores
Los ordenadores en la actualidad
Introducción al hardware
Fundamentos del software
Aplicaciones software
Diversos usos de los ordenadores
Comercio electrónico
Inteligencia artificial
Prácticas
Visión general de la informática
Internet
Editores de textos
Hojas de cálculo
Bases de datos
Lenguaje Pascal
Avisos
Escepticismo
Divulgación
Informática

1 de 32 18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html

Ciencia en general
Biología
Criminología
Inicio
Contacte

Introducción
Las ondas, portadoras de la información
La información como magnitud fundamental
Información y mensajes

Selecciona un texto y
pulsa aquí para oírlo

Las imágenes en miniatura se pueden ver en tamaño normal pulsando sobre ellas, para salir pulsar
en la esquina inferior derecha

3.1 Introducción

Información es una de las palabras más empleada en los entorrnos tecnológicos actuales tiene unos
orígenes que en nada se parecen al significado actual. En latín in-formare era dar forma (ej.:: informare
effigiem significa hacer el retrato de persona u objeto), y también significaba dar forma mental, es decir
hacerse una representación o concebir una idea a partir de algo.

En el siglo XVII ya aparece el término información en castellano, cuyo sentido era de averiguación legal
(por ejemplo, de delitos), y hasta el siglo XIX no adquiere el significado de educación o instrucción.
Como sucedía habitualmente, mientras tanto el francés llevaba la palabra hasta el inglés, donde se en el
siglo XIV aparece con el significado de "comunicación del conocimiento". En el siglo XX muchas
lenguas compartían ya la palabra en este último sentido.

Bajo el término información consideramos cualquier conocimiento susceptible de ser transmitido. Sin
emabrgo en los entornos tecnológicos información es algo estructurado: "datos ya sea en la forma de
números, gráficos o palabras que han sido organizados, sistematizados y presentados de modo que los
patrones subyacentes queden claros", según Bryan Pfaffenberger, en su obra "Diccionario para usuarios de
computadoras e internet, México, 1998".

R. W. Hamming (1915-1998) ha calculado que, desde los tiempos del físico Isaac Newton (1642-1727), el
acervo de conocimiento se viene duplicando aproximadamente cada 17 años, lo que equivale a decir que
aumenta exponencialmente y se desglosa en miles de ramas especializadas. Aunque por ahora no parezca
ser capaz de dar respuestas convincentes a sus preguntas fundamentales, el saber acumulado por los
humanos alcanza unas cotas asombrosas de complejidad y ha transformado, sobre todo en los últimos 200
años, casi todos sus conceptos y formas de vivir, incluyendo sus relaciones con ellos mismos, con los
demás seres vivos, con la Naturaleza, hasta con el espacio y el tiempo.

Seguidamente se comentan algunos ejemplos de transmisión de la información en la naturaleza, casos de


seres vivos que nos encontramos en la vida diaría.

Las abejas

Si ponemos un recipiente con un jarabe dulce en las proximidades de una colmena, en cuanto una abeja
accede a él y lo prueba, pasa poco tiempo antes de que lleguen gran parte de las restantes de la misma
colmena. De alguna forma, la primera en acudir ha transmitido la información sobre la existencia del

2 de 32 18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html

jarabe a las otras. El científico austríaco C. Frisch (1886-1982) realizó una serie de experimentos sencillos
de los que dedujo la forma en que se trasmitía la información, como se indica seguidamente.

Si el jarabe se ha situado a menos de 100 m de la colmena, la abeja que llega con la noticia transmite la
información mediante un baile circular. Pero si el jarabe se pone a más distancia, el baile cambia por
completo, la abeja corre un poco en línea recta, rápidamente meneando el abdomen por los lados, después
de una vuelta completa a la izquierda, de nuevo corre en línea recta y da una vuelta entera por la línea de
un arco de circunferencia, pero hacia la derecha. Además el ritmo del baile depende de la distancia, a 100
m la abeja en 15 s hace 10 ciclos enteros, a 200 m hace siete ciclos, a 1000 m hace cinco ciclos y a seis
km sólo hace dos. El baile contiene la información que indica en la dirección en la que se debe volar.
Como la información la da dentro de la colmena, efectúa la parte rectilínea de su baile con un ángulo
determinado respecto a la fuerza de la gravedad.

Marcando abejas, se ha comprobado que el 88% de ellas, con la información recibida de la que descubrió
el jarabe, llegan al sitio donde se ncuentra.

Las hormigas y los escarabajos

Observando la vida de las hormigas, se descubrió que a las muertas otras las transportan, fuera del
hormiguero, en cuanto se transmite de alguna forma la información de que está muerta, que no suele ser
de inmediato, es decir que una hormiga puede estar muerta varios días bajo la indiferencia del resto, hasta
que aparece de golpe cierta señal y las hormigas la llevan a un lugar alejado.

La explicación está en unas sustancias conocidas en biología como feromonas (también


responsables de la atracción entre distintos sexos, y que se suelen vender en tiendas de artículos de
magia) en el momento en que se desprende la feromona característica de que una hormiga está
muerta el resto la llevan fuera del hormiguero. Si a una hormiga viva se le impregna de la feromona
correspondiente, el proceso es como si estuviera muerta y aunque vuelva al hormiguero repetidas veces, la
sacan fuera mientras que persista la feromona. Estudios recientes indican el posible uso de estas
feromonas de hormiga para tratar la enfermedad de Alzheimer. Según algunas informaciones
pseudocientíficas en la especie humana se da el caso curioso de que las mujeres rubias y pelirrojas tienen
más cantidad de una feromona determinada, con lo cual suelen ser más atractivas para los hombres y las
que se tiñen el pelo no consiguen este efecto.

Por lo que respecta a los escarabajos descortezadores del pino, es de gran interés el estudio de la
comunicación química de esta especie de gran importancia como plaga forestal, comenzando desde el
aislamiento e identificación de feromonas y atrayentes volátiles del árbol hospedador, estudio de los
mecanismos presentes durante el proceso de colonización, estudio de relaciones interespecíficas a nivel de
semioquímicos hasta el diseño de las técnicas para el uso de feromonas con fines de control.

Las mariposas

El lenguaje de las feromonas y olores está muy difundido en el mundo de los animales. Entre ellos los
más fuertes y de largo alcance son los relacionados con instinto de la reproducción. Por ejemplo la
hembra de la mariposa llamada "los grandes ojos del pavo real" manda sus señales hasta una distancia de
20 km, mediante un transmisor químico de potencia ínfima. La industria de la perfumería no está en
condiciones de competir con la naturaleza, el olor de los perfumes como mucho se aprecia a una decena
de metros.

Los peces

En el año 1942, las falsas alarmas del sistema norteamericano de defensa de costas en el Atlántico, fueron
la causa del descubrimiento de los sonidos que emiten unos peces, conocidos como tamborileros. Se
estableció que "suenan" aproximadamente en el mismo rango que la voz humana, de 5000 a 10000 Hz

3 de 32 18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html

(vibraciones por segundo). Unas especies emiten un chirrido, otras murmullos, otras golpes sueltos y así
se pueden clasificar en muchos tipos.

Se realizó el siguiente experimento: en un acuario se introdujo un hidrófono y grabaron en cinta los


sonidos producidos por los peces al masticar la comida, posteriormente reprodujeron estos sonidos en el
acuario y los peces se acercaron al altavoz pensando que allí había comida.

Los sonidos no son la única forma de transmitir información por parte de los peces. Los que habitan en
grandes profundidades, tienen su fuente de luz. Esta consiste en faroles biológicos con lentes, reflectores y
hasta diafragmas, estos impulsos de luz pueden tener distintas frecuencias y diversas duraciones.

En África los peces de la familia mormínidos, que habitan en ríos turbios y agitados, emplean impulsos
eléctricos para las comunicaciones. Estos peces tienen una especie de radares portátiles. Sus cuerpos son
dipolos eléctricos, la cola tiene carga negativa y la cabeza positiva. Generando un campo eléctrico de una
frecuencia dada, de forma que los objetos que se encuentran a su alrededor deforman el campo del dipolo,
detectándolos de esta forma.

Las serpientes

Los zoólogos desde hace tiempo han comprobado que ciertas serpientes venenosas, como por ejemplo el
ancistrodon (conocida como mocassin), tienen cuatro fosas nasales, las complementarias forman dos
agujeos profundos. En estos hoyos se ha descubierto una membrana que los divide en dos cámaras, y que
está atravesada por un sinfín de terminaciones nerviosas, se ha comprobado que son termolocalizadores.
Perciben la irradiación de calor, por lo que determinan la dirección hacia su origen.

Las serpientes tienen una vista muy débil, un olfato que casi no vale nada y un oído muy malo. Por eso
durante el proceso de la evolución se desarrolló el sistema localizador de calor. Análogo a las cámaras de
fotografíar que captan imágenes en la frecuencia del infrarrojo del espectro electromagnético.

El hombre

Según una hipótesis, nuestro antepasado común con los monos, dryopithecus, vivía en los árboles, se
alimentaba de vegetales y bajaba con poca frecuencia a la tierra, pues era peligrosa para él. Millones de
años vivió en un laberinto de ramas y su organismo se adaptó a esta forma de vida en los árboles. Estos
saltos de rama en rama, exigían no sólo músculos, sino vista aguda, cálculo y orientación rápida. Los ojos
que en la mayoría de los animales miraban en diferentes direcciones, comenzaban a aproximarse y a mirar
hacia delante, se les creó la visión del volumen y del color. Se les complicó el cerebro y el sistema
nervioso.

El intercambio de información en estos colectivos se supone que era elemental, contactos


cariñosos o bruscos, mímica y gestos y cierta cantidad de sonidos inarticulados. Estos sonidos
formaban de 10 a 15 combinaciones a las que condicionalmente llamaremos palabras.

El cambio de clima provocó que los dryopithecus bajaran a la tierra, tomando una posición casi vertical
(así podían observar mejor el terreno) y las extremidades delanteras se quedaron casi sin ocupación. La
lucha por la existencia pronto les encontró empleo, armadas con una piedra o un palo se convirtieron en
un recurso para conseguir alimentos y para defenderse. Lo demás lo hizo el trabajo. Se perfeccionó el
cerebro y en respuesta el cerebro hizo más hábiles a las manos del hombre.

El trabajo era colectivo y por lo tanto exigía comunicación. Las muecas y sonidos inarticulados
eran insuficientes, siendo reemplazados a lo largo de la evolución por la palabra oral y la
escritura. Transición que duró muchos miles de años.

La población del mundo aumentaba rápidamente, formándose tribus y pueblos aislados, apareciendo la

4 de 32 18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html

necesidad de la transmisión de la información a largas distancias. Para este propósito se han empleado
muchos medios, corredores incansables, mensajeros a caballo, combinaciones de hogueras (indios),
tambores gigantes, palomas mensajeras.

Llegó un momento en que esto era insuficiente, la vida exigía una transmisión de la información más
rápida. La electricidad hizo la revolución, apareció el telégrafo por cable. El paso siguiente fue el invento
del teléfono, en la exposición mundial de París miles de personas hacían cola para hablar a través de él
con otros visitantes.

Atribuyen la invención del teléfono a un italiano

La Cámara de Representantes (Diputados) de los Estados Unidos decidió darle el crédito


de la invención del teléfono, hasta ahora atribuida al estadounidense de origen escocés
Alexander Graham Bell, al italiano Antonio Meucci.

"La vida y obra de Antonio Meucci deben obtener el justo reconocimiento, y su trabajo
en la invención del teléfono debe serle atribuido", dice el texto, que fue aprobado por
simple exclamación a partir de la propuesta de un legislador republicano de origen
italiano, Vito Fosella, del estado de Nueva York. De este modo, los legisladores dieron
por terminada una discusión histórica.

La resolución es una revancha póstuma para Meucci, un florentino que emigró primero a
Cuba y luego a Estados Unidos. Meucci tiene en Staten Island, estado de Nueva York, un
museo, el "Garibaldi-Meucci", que es una especie de templo de la italianidad
neoyorquina.

Emily Gear, la directora del museo, dijo: "El teléfono lo inventó él, pero no tuvo suerte".
Su historia, siguió, "refleja el drama de tantos inmigrantes todavía hoy, discriminados
porque no pueden hablar la lengua del país que los hospeda".

Según sostiene la Sociedad Histórica Italiana en América, la fama y la fortuna le fueron


vedadas a este inmigrante florentino porque no contó con los 250 dólares necesarios para
patentar su invento.

Meucci descubrió los principios que guían el funcionamiento del teléfono en 1849 y
desarrolló un aparato que funcionaba en 1859. En 1860 lo presentó en un diario local,
escrito en italiano. Y el 28 de diciembre de 1871 dejó registrado su primer intento de
solicitud provisoria, cinco años antes de que Bell llenara los papeles. Su patente
temporaria N° 3.335 se venció al no poder afrontar los costos del trámite.

El juicio que inició Meucci contra la Compañía Bell fundada por Alexander no llegó a
buen puerto. Los papeles de su patente temporaria se perdieron misteriosamente.

Según la resolución que aprobaron los legisladores la semana pasada, la patente fue
acordada a Bell, quien trabajaba en el laboratorio en el que Meucci había depositado su
material.

Siguiendo el proceso por fraude, en 1887 las autoridades intentaron anular la patente
entregada a Bell, pero en 1889 después de la muerte de Meucci, ocurrida en 1896 el caso
fue cerrado.

Tampoco se conoció jamás quién fue el comprador del primer aparato creado por él, que
vendió por 6 dólares cuando estaba necesitado. "Dejémosle a Meucci el honor de ser

5 de 32 18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html

reconocido como ''el Padre del Teléfono''. Dejemos Bell que tenga el dinero", dijo John
La Corte, presidente de Sociedad Histórica Italiana en América.

El paso siguiente fue la transmisión de señales sin el uso de cables, el siete de mayo de 1895 Popov creó
la radio. Pero surgió un problema, el espectro de ondas que pueden llevar la información a cualquier
punto del planeta, las ondas cortas, sólo pueden transmitir pequeñas cantidades de información y además
no en cualquier hora del día y tiempo del año. Mientras que las ondas ultracortas que transmiten gran
cantidad de información, sólo se propagan dentro de los límites de la visión directa.

La solución al problema fueron los satélites artificiales de la Tierra. Con sólo tres satélites a una distancia
de 36000 km y equidistantes entre sí se puede solucionar el problema de las comunicaciones (excepto las
zonas muy próximas a los polos).

Cada día, cada uno de nosotros se ocupa de transmitir información por el tiempo, pero sólo en un sentido,
del presente al futuro. Por ejemplo, si apuntamos un número de teléfono en una agenda, estamos
transmitiendo esa información al futuro, esta transmisión durará el tiempo que exista la agenda. El
periódico de hoy, que como es normal trae malas noticias, se convierte en un transmisor de datos al
futuro. Si alguien dentro de 30 años, desea enterarse de lo que pasó hoy, podría encontrarlo en una
hemeroteca. Por consiguiente, habiendo registrado la información, la ponemos en poder de un futuro,
lejano o cercano, en dependencia del tipo de dispositivo de memoria que empleemos.

¿Es posible tener información del futuro, por ejemplo como vivirá la humanidad en el año 2040? Es
posible una solución, mediante el estudio de tendencias del desarrollo de la humanidad en el pasado,
suponiendo su validez para el futuro. A veces estas predicciones no son fiables.

Otra solución (no es real, es una paradoja) es tripular una nave a velocidades próximas a la de la luz.
Según la teoría de Albert Einstein (1879-1955), la marcha del tiempo al aumentar la velocidad del
movimiento se retrasa, mientras que en la Tierra todo seguirá a su ritmo habitual. Al regresar la nave
espacial, se tendrá el planeta con cientos o miles de años transcurridos, por lo que no encontrará a sus
familiares, aunque sobreviva el tripulante de la nave, pues todos sus procesos biológicos se habrán
ralentizado. Por ahora sólo es una realidad la transmisión de información del pasado y del presente hacia
el futuro.

El primer dispositivo de memoria fue el cerebro de los animales, que apareció en el proceso de evolución
de muchos millones de años. Sobrevivía aquel que mejor recordaba el lugar donde se encontraban los
peligros, los refugios, los alimentos.

El hombre gracias al trabajo comenzó rápidamente a perfeccionar su cerebro y por lo tanto su memoria.
Existen estimaciones del volumen de la memoria humana, que la consideran superior a la información
contenida en una gran biblioteca (que puede ser de 1013 bit). La velocidad de percepción de la
información por el hombre no sobrepasa los 25 bit por segundo lo que equivale a una palabra por
segundo. Si un individuo capta información durante 70 años, y diez horas diarias, no cogerá más de 3*109
bit.

El mito del diez por ciento

Alguien le robó la mayor parte del cerebro y usted probablemente no lo sabía. Bueno, no
significa exactamente que le hayan quitado el cerebro, pero han decidido que Ud. no lo
usa. Se trata del viejo mito, escuchado una y otra vez, que dice que la gente usa sólo el
diez por ciento del cerebro.

6 de 32 18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html

Mientras que para aquellos que repiten ese mito esto probablemente sea verdad, los
demás felizmente usamos todo el cerebro.

El mito y los medios

Ese remanido supuesto del diez por ciento aparece todo el tiempo. El año pasado, los
avisos publicitarios de la revista nacional para la U.S. Satellite Broadcasting mostraban el
dibujo de un cerebro. Debajo figuraba la leyenda: Ud. sólo usa el 11 por ciento de su
potencial. Bien, estuvieron más cerca que el mito del diez por ciento, pero todavía les
faltó un 89. En julio de 1998, la cadena de televisión ABC emitió unos spots
promocionales del programa The Secret Lives of Men (Las vidas secretas de los
hombres), para la temporada de otoño. El spot consistía en una propaganda en la que se
podía leer, Los hombres sólo usan el diez por ciento del cerebro ocupando toda la
pantalla.

Una de las razones por las cuales este mito ha permanecido, es que ha sido adoptado por
videntes y otros integrantes del mundo paranormal para explicar los poderes
parapsíquicos. En más de una ocasión he escuchado a videntes que le dicen a la audiencia
Solamente usamos el 10 por ciento de la mente. Si los científicos no saben lo que
hacemos con el 90 por ciento restante, ¡entonces debemos estar usándolo para los
poderes parapsíquicos! En Reason To Believe: A Practical Guide to Psychic Phenomena
(Razón para creer: guía práctica para los fenómenos parapsíquicos), el autor Michael
Clark menciona a un hombre llamado Craig Karges. Karges cobra un montón de dinero
por su programa Intuitive Edge (Al filo de la intuición), el cual está diseñado para
desarrollar habilidades parapsíquicas naturales. Clark cita a Karges diciendo:
Normalmente utilizamos sólo del 10 al 20 por ciento de la mente. Piense cuán diferente
sería su vida si Ud. pudiera usar ese otro 80 ó 90 por ciento, que conocemos con el
nombre de mente subconsciente (Clark 1997, 56).

También ésta fue la razón que dio Caroline Myss intentando explicar sus poderes
intuitivos en una sección de Eye to Eye with Bryant Gumbel (Ojo a ojo con Bryant
Gumbel, o Frente a frente con Bryant Gumbel), que se emitió en julio de 1998. Myss, que
ha escrito libros sobre el desarrollo de los poderes intuitivos, dijo que todo el mundo
tiene dones intuitivos, y lamentó que usáramos tan poquito del potencial de la mente.
Para empeorar las cosas, apenas una semana antes, en el mismo programa, se había
presentado información correcta acerca del mito. Entre el programa y la publicidad,
aparecía en pantalla un spot con una breve encuesta: ¿Qué porcentaje del cerebro
usamos? Las respuestas, tipo multiple-choice (de elección múltiple) iban desde el 10
hasta el 100 por ciento. Apareció la respuesta correcta, lo cual me alegró. Pero si los
productores sabían que lo que había dicho una de las entrevistadas era clara y
manifiestamente erróneo, ¿por qué permitieron que saliera al aire? ¿El cerebro derecho
no sabe lo que está haciendo el cerebro izquierdo? Tal vez la entrevista a Myss era una
repetición, en cuyo caso los productores presumiblemente chequearon los hechos después
de que se emitió al aire y sintieron la responsabilidad de corregir el error en la emisión de
la semana siguiente. O posiblemente las emisiones se difundieron en secuencia y los
productores simplemente no se preocuparon y emitieron a Myss y a su desinformación de
todos modos.

Incluso Uri Geller, quien construyó su carrera tratando de convencer a la gente de que
podía doblar metales con la mente, salió al ruedo con esta perlita. Esto aparece en la
introducción de su libro Uri Gellers Mind-Power Book (El libro de los poderes mentales
de Uri Geller): Nuestras mentes son capaces de proezas notables, increíbles, y todavía no

7 de 32 18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html

las utilizamos en su plenitud. De hecho, la mayoría de nosotros usamos sólo cerca del 10
por ciento del cerebro, con suerte. El otro 90 por ciento está lleno de habilidades y
potenciales aún no descubiertas, lo cual significa que nuestras mentes operan en forma
muy limitada en lugar de funcionar a pleno. Creo que alguna vez tuvimos pleno poder
sobre nuestra mente. Lo hacíamos para sobrevivir, pero a medida que el mundo se
sofisticó y se hizo más complejo nos olvidamos de muchas habilidades que alguna vez
tuvimos (énfasis en el original).

Evidencia en contra del mito del diez por ciento

El argumento que dice que los poderes parapsíquicos provienen de la vasta parte del
cerebro no utilizada se basa en la falacia lógica del argumento por ignorancia. En esta
falacia, la falta de pruebas para sostener una posición (o simplemente la falta de
información) se usa para tratar de apoyar una suposición determinada. Aunque fuera
cierto que la mayor parte del cerebro humano no se usa (lo cual no es cierto), eso de
ninguna manera implica que haya alguna capacidad extra que pueda darle a la gente
poderes parapsíquicos. Esta falacia surge constantemente en las afirmaciones
paranormales, y prevalece especialmente entre los partidarios de los OVNI. Por ejemplo:
dos personas ven una extraña luz en el cielo. El primero, un creyente en los OVNI, dice,
¡Mira allí! ¿Puedes ex-pli-carme eso? El escéptico contesta que no, que no puede. El
creyente en los OVNI se regocija. ¡Ja! ¡No sabes lo que es, por lo tanto debe tratarse de
extraterrestres! dice, argumentando desde la ignorancia.

Lo que sigue son dos de las razones por las cuales el mito del diez por ciento resulta
sospechoso. (Para un análisis más extenso y detallado del tema, véase el capítulo de
Barry Beyerstein en el nuevo libro Mind Myths: Exploring Everyday Mysteries of the
Mind, 1999 [Mitos de la mente: explorando los misterios cotidianos de la mente]).

1) Las técnicas de investigación por imágenes tales como los PET (Tomografía por
emisión de positrones) y la FMRI (resonancia magnética funcional por imágenes)
muestran claramente que la mayor parte del cerebro no permanece inactiva. En verdad,
aunque ciertas funciones menores pueden utilizar sólo una pequeña parte del cerebro en
un momento determinado, cualquier conjunto de actividades o patrones de pensamiento
complejos usarán muchas partes del mismo. Así como una persona no utiliza todos los
músculos a la vez, tampoco utilizan todo el cerebro a la vez. Para ciertas actividades,
tales como comer, mirar televisión, o leer The Skeptical Inquirer, usted puede usar unas
pocas partes específicas del cerebro. Sin embargo, en el transcurso del día se utilizarán
casi todas las partes del cerebro.

2) El mito presupone una localización extrema de las funciones cerebrales. Si las partes
usadas o necesarias estuvieran dispersas por todo el órgano, esto implicaría que de hecho
se necesita gran parte del cerebro. Pero el mito implica que la parte utilizada del cerebro
es un área discreta, limitada, y la parte no utilizada es como un apéndice o amígdala, que
ocupa espacio pero es esencialmente innecesaria. Pero si todas esas partes del cerebro no
se usan, el hecho de remover o dañar las partes no usadas no conllevaría grandes efectos
o ni siquiera se notaría. Sin embargo las personas que han sufrido traumas cerebrales, un
infarto, u otro daño cerebral, frecuentemente se encuentran severamente impedidos. ¿Ha
escuchado Ud. a algún médico decir, afortunadamente cuando la bala penetró en el
cráneo, solamente dañó el 90 por ciento del cerebro, que no usaba? Por supuesto que no.

Variantes del mito del diez por ciento

El mito no es simplemente algo estático o un malentendido. Tiene diversas formas, y su

8 de 32 18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html

adaptabilidad le da una vida más prolongada que la que tiene un spam laqueado. En su
versión básica el mito afirma que años atrás un científico descubrió que nosotros
utilizamos verdaderamente sólo el 10 por ciento del cerebro. Otra variante se refiere a
que sólo el 10 por ciento del cerebro ha sido mapeado, y que esto se malinterpretó
mapeado por usado. Antes, Craig Karges había presentado una tercera variante. Ésta dice
que, de alguna manera, el cerebro se encuentra ingeniosamente dividido en dos partes: la
mente consciente que se usa del 10 al 20 por ciento del tiempo (presumiblemente a plena
capacidad); y la mente subconsciente, en donde el restante 80 ó 90 por ciento del cerebro
permanece inutilizado. Esta descripción revela un profundo malentendido de la
investigación de las funciones cerebrales.

La larga vida del mito se debe en parte a que si una variante resulta incorrecta, la persona
que cree en ella puede simplemente cambiar la razón de su creencia y apoyarse en otra
base, mientras la creencia misma permanece intacta. Así, por ejemplo, si a un individuo
se le muestra un examen PET en donde se observa actividad en todo el cerebro, todavía
puede seguir argumentando que lo del 90 por ciento se refiere a la mente subconsciente, y
por lo tanto la figura del mito queda a salvo.

Independientemente de la variante, el mito se repite y se expande, sea por gente bien


intencionada o por aquellos que mienten deliberadamente. La creencia que permanece es,
entonces, lo que Robert J. Samuelson denominó un psico-hecho (psycho-fact), una
creencia que, a pesar de no estar sólidamente basada en los hechos, se toma como real
porque su constante repetición cambia la manera en que experimentamos lo que vivimos.
El lego va a repetirlo una y otra vez hasta que, tal como sucede con la advertencia de no
tirarse al agua después de comer, termine por convertirse en una creencia ampliamente
difundida. (Triumph of the Psycho-Fact, Newsweek, May 9, 1994.)

Los orígenes del mito no son del todo claros. Beyerstein, del Laboratorio de
comportamiento cerebral de la Universidad Simon Fraser en British Columbia, lo ha
rastreado hasta principios del siglo veinte. En una reciente columna de la revista New
Scientist también se sugirieron otras fuentes, incluyendo a Albert Einstein y Dale
Carnegie (Brain Drain 1999). Probablemente tenga un sinnúmero de fuentes,
principalmente la malinterpretación o malentendido de los hallazgos científicos legítimos
así como los gurúes de autoayuda.

El más poderoso atractivo del mito es probablemente la idea de que podemos desarrollar
poderes parapsíquicos o al menos lograr ventajas competitivas tales como mejorar la
memoria y la concentración. Todo esto se encuentra a nuestra disposición, como dicen
los avisos, si aprovechamos el más poderoso de nuestros órganos, el cerebro.

Ya es tiempo de desechar este mito, aunque si ha sobrevivido casi un siglo, seguramente


continuará vivo en el próximo milenio. Quizá la mejor manera de combatirlo sea
contestar a nuestro interlocutor, cuando lo mencione, Ah, ¿y qué parte no usas?

Benjamin Radford

The Skeptical Inquirer, March-April 1999

Traducción de Alejandro Borgo. Benjamin Radford es Jefe deb Edición de la revista The
Skeptical Inquirer y es graduado en psicología.

Agradecimientos

9 de 32 18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html

Estoy en deuda con el Dr. Barry Beyerstein por sus sugerencias y ayuda en la
investigación.

Referencias

Beyerstein, Barry. 1999. Whence cometh the myth that we only use ten percent of our
brains? In Mind-myths: Exploring Everyday Mysteries of the Mind and Brain, edited by
Sergio Della Sala. New York: John Wiley and Sons.

Brain Drain. 1999. The Last Word (column). New Scientist 19/26 December 1998-2
January 1999.

Clark, Michael. 1997. Reason to Believe. New York: Avon Books.

Geller, Uri, and Jane Struthers. 1996. Uri Gellers Mind-power Book. London: Virgin
Books.

Fuente: Sin dioses

El siguiente vídeo trata sobre el asunto del mito del 10% del cerebro, por parte del profesor Carlos J.
Álvarez, psicólogo de la Universidad de La Laguna. (Fuente: Magonia)

A pesar de la perfección de la memoria humana, esta tiene defectos, el principal es que su contenido no se
transmite por vía biológica a los descendientes, sino que se destruye al morir las células del encéfalo. Otro
defecto es que no siempre se consigue en el momento necesario reproducir y emplear la información
previamente memorizada.

Los humanos hablaron durante unos doscientos mil años antes de que plasmaran sus ideas para la
posteridad. Cuando los habitantes de Mesopotamia, conocidos como sumerios, rasparon unos símbolos
sobre unas tablas de arcilla hace 5000 años, sin saberlo iniciaron una nueva era de la humanidad, lo que
conocemos como historia. La presencia de fuentes escritas denota la línea técnica divisoria entre lo que

10 de 32 18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html

los expertos clasifican como prehistoria. La escritura apareció casi al mismo tiempo en diversos lugares, y
por las mismas razonesr, fue creada cuando las civilizaciones comenzaron a crecer lo suficiente como
para querer llevar un control del concepto que comenzó a tomar importancia con la sociedades
sedentarias, agricultoras, el concepto de la propiedad.

Nuestros antepasados lejanos para superar estos defectos emplearon unos dispositivos de memoria muy
simples, cortaban ramas, amontonaban piedras, hacían cortes en los árboles. La lucha por la
existencia les obligó a encontrar métodos más perfectos. Los indios empleaban conchas de
colores, los incas cartas de nudos llamadas quipos. Aparecieron los petroglifos, signos e
imágenes grabados en las piedras.

En el cuarto milenio antes de nuestra era aparecieron las escrituras del antiguo Egipto, los
jeroglíficos. Otros dispositivos de memoria fueron placas de arcilla, pieles, papiro,
pergamino, cortezas de abedul y posteriormente el papel.

Jeroglífico

El paso siguiente fue el invento de la imprenta por el alemán Johannes Gutenberg (1398-1468). A su
ayuda llegó la fotografía y más recientemente el cine. Más tarde se inventaron dispositivos para grabar y
reproducir los sonidos. Al principio era un sencillísimo fonógrafo, siendo desplazado por el magnetófono
y sus posteriores versiones actuales.

La aparición de los ordenadores exigió la creación de dispositivos de memoria de elevadas capacidades,


que han ido evolucionando con el tiempo: tarjetas perforadas, relés electromagnéticos, núcleos de ferrita,
discos magnéticos, memorias de semiconductores, discos ópticos, memorias holográficas y
experimentalmente memorias de bacterias y de nanotubos. Sin embargo actualmente no se han logrado
memorias del tipo de la humana, tanto por su arquitectura como por su capacidad.

3.2 Las ondas, portadoras de la información

La primera posibilidad del hombre de transmitir la información aparece junto con el primer grito que da al
nacer, después empleamos este medio toda la vida.

Hay quien piensa que cualquier información de por sí misma tiene la propiedad de pasar por el espacio sin
ayuda de algún portador que circule. El sonido viaja por el espacio debido a las oscilaciones del aire. El
que habla, con sus cuerdas vocales hace oscilar el aire, que transmite esta información a las siguientes
capas de aire y así sucesivamente, si creamos un vacío alrededor de un orador, por ejemplo de los que leen
monótonamente una conferencia, ya no se le oirá, y el auditorio podrá dedicarse a dormir.

Aproximadamente lo mismo ocurre al difundir cualquier información en el espacio. Un barco que pasa
lejos se detecta en la orilla por las olas que llegan, las han traído las oscilaciones de las partículas de agua.

La información se transmite en el espacio solamente con la ayuda de un proceso que se propague en el


espacio. A este proceso oscilatorio móvil lo llamamos ondulatorio. En función del medio ambiente
oscilante, las ondas pueden ser de mar, de sonido, de radio, etc. Estas ondas son los mensajeros que
difunden la información por el espacio, hay algunas que van a la máxima velocidad posible, la velocidad

11 de 32 18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html

de la luz, mientras que otras transmiten la información muy despacio, como por ejemplo las ondas en los
líquidos viscosos. Este movimiento ondulatorio aparece en casi todas las ramas de la Física.

El movimiento de una onda únicamente depende del tipo de onda y del material a través del cual se
propaga, pero no depende del movimiento del cuerpo que provoca la onda. Cuando una fuente emisora
lleva una velocidad mayor que la velocidad de la onda se produce una onda de choque (utilizadas para
desintegrar cálculos renales con equipos de litotricia), como por ejemplo los estampidos sónicos de los
aviones y la radiación de Vavilov-Cherenkov. Una onda de choque transporta toda la energía ondulatoria
emitida a lo largo de la trayectoria del movimiento de la fuente en un estallido violento.

Supongamos un muelle metálico muy largo (el juguete conocido en EE.UU como "slinky") y lo ponemos
de lado a lado de una habitación. Entonces agrupamos con la mano unas cuantas espiras, cerca de uno de
los extremos del muelle.

Este grupo de espiras comprimidas parece moverse como un rizo hacia el otro lado del muelle. Viaja de
esta forma hasta el extremo más alejado, una vez allí parece rebotar y vuelve al punto en el que se inició
el proceso. Este proceso se repite sucesivas veces, pero la región comprimida se hace más ancha y su
contorno menos definido. Al final es difícil reconocer esta región. El movimiento se ha extendido a todo
el muelle y se observa un temblor y una agitación general, al final el muelle permanece en reposo.
Cualquiera que efectúe el proceso antes descrito con el muelle debe de comprobar que algo se mueve
hacia delante y atrás en el muelle. Sin embargo ni un solo trozo de metal se ha desplazado más de unos
pocos centímetros de su posición inicial. ¿Qué fue lo que se movió a través de la habitación?

Lo que se movió fue la silueta de espiras del muelle, la región en donde estas espiras estaban más juntas
de lo normal. Cualquier silueta o forma que se desplace se puede llamar una onda.

Ondas
Podemos ser más precisos y definir como perturbación cualquier distribución de las partes de un sistema
que sea diferente de su condición de reposo natural. Una onda física es una perturbación que se mueve
debido al efecto que las partes del sistema ejercen entre sí.

Una onda se puede utilizar para enviar información. Supongamos que apagamos las luces, y que en cada
extremo del muelle se pone una persona. Las señales se envían mediante la contracción de espiras en un
extremo, notándose en el otro extremo la región comprimida. Una vez finalizado el movimiento se puede
enviar otra señal. Para enviar mensajes largos se puede utilizar un código semejante al Morse.

La onda que se enviaba a través del muelle, se producía comprimiendo algunas espiras del muelle. Las
ondas en las que la perturbación coincide con la dirección del movimiento se conocen como ondas
longitudinales o de compresión. Sin embargo las conocidas como ondas transversales, la perturbación
forma un ángulo recto con la dirección de propagación de la onda. Las ondas sonoras son longitudinales,
mientras que las que se producen en la superficie del agua son en su mayor parte transversales. Las ondas
luminosas son transversales.

12 de 32 18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html

Hasta el momento se han comentado ondas en las que la perturbación inicial dura muy poco tiempo, y en
las que la perturbación no se volvía a repetir. Se conocen como pulsos. Cuando una perturbación que
produce la onda se repite a intervalos regulares de tiempo, se tiene un tren de ondas. Por ejemplo, al
cantar se produce un tren de ondas sonoras. Los trenes de ondas difieren entre sí en la rapidez con que se
repiten los pulsos. El tiempo transcurrido entre la repetición de los pulsos recibe el nombre de período,
que se representa por T. La frecuencia es el número de repeticiones por segundo y se representa por la
letra f.

La relación entre la frecuencia y el período de un tren de


ondas regular es muy simple. El producto de la frecuencia
por el período es siempre igual a uno. El producto de la
longitud de onda por la frecuencia es igual a la velocidad
de propagación de la onda. La unidad de frecuencia es el
Hercio (Hz), que corresponde a un ciclo por segundo.

Una forma de crear un tren de ondas sonoras es dar


palmadas rítmicamente. Cada palmada envía un pulso sonoro. Al dar palmadas sucesivas se crea un tren
de ondas. Si entre cada una transcurre un segundo, el período será de un segundo y la frecuencia un
Hercio. Al dar la segunda palmada, el pulso sonoro producido por la primera se habrá desplazado una
distancia considerable, si la velocidad del sonido es de 350 m/s, el primer pulso lleva una adelanto de 350
m respecto al siguiente. Si se da una palmada cada segundo, se produce un tren de pulsos sonoros
espaciados 350 m entre sí.

La longitud de onda es la distancia entre dos pulsos consecutivos, por lo que en este caso la longitud de
onda será de 350 m. Si se dan dos palmadas por segundo, la longitud de onda será de 175 m. Entonces se
llega a la conclusión de que el producto de la longitud de onda por la frecuencia de cualquier tren de
ondas es igual a la velocidad de propagación de la onda.

El efecto Doppler

En una autopista, si estamos parados, es habitual oír el sonido de los vehículos que circulan por ella,
procedentes de los ruidos de los motores. Es fácil advertir la variación del sonido cuando nos adelanta
otro vehículo. Es obvio que la mayoría de los vehículos no disminuyen su velocidad al sobrepasarnos. El
tono varía en función de la trayectoria seguida hasta llegar a nuestros oídos. Este desplazamiento de la
frecuencia se llama efecto Doppler, muy utilizado en diversos campos, por ejemplo en los radares de la
Guardia Civil, astronomía y medicina (ecografías abdominales, patologías del sistema circulatorio,
patologías testiculares).

Este efecto se debe al cambio de frecuencia de una onda, debido al movimiento de la fuente que emite las
ondas, o al del observador que recibe la energía de la onda.

Si se considera un coche desplazándose a la velocidad de 35 m/s, y cuyo conductor hace sonar el claxon
cada segundo, al pitar por segunda vez, el pulso primero se ha desplazado 350 m (la velocidad del
sonido), pero durante este tiempo el coche se ha desplazado 35 m desde el lugar de partida. Los dos
pulsos mantendrán una distancia de 315 m entre sí. Un observador alejado recibirá más de un pulso por
segundo. La distancia de cada pulso es 315 m y la velocidad en el aire es 350 m/s. El tiempo transcurrido
desde que el observador escucha un pulso sonoro y el siguiente es 315/350 ó 0.9 s. Si el claxon continúa
pitando se pueden llegar a oír diez pitidos en nueve segundos. En general se puede decir que: un
observador situado frente a una fuente sonora en movimiento recibirá los pulsos sonoros con una
frecuencia mayor que la emitida por la fuente. En caso de alejamiento la frecuencia será más baja.

Si estamos al aire libre y alguien nos llama


desde lejos, normalmente podemos

13 de 32 18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html

distinguir la dirección en que nos llega el


sonido. Esto nos indica que se propaga en
línea recta. Por otra parte, si alguien sale
de la habitación en que nos encontramos y
nos llama desde el pasillo, seguimos
escuchando su voz. Entre ambos puede
haber una pared que nos sirva de pantalla
para las ondas sonoras. El sonido es capaz
de encontrar un camino a través de la
puerta abierta y alcanzar nuestros oídos;
en este caso su trayectoria no es una
línearecta. Esto indica que las ondas
sonoras pueden bordear obstáculos. Se
conoce como difracción el proceso
mediante el cual las ondas vencen
obstáculos. En cualquier caso la magnitud
de la difracción depende de la relación
existenteentre el tamaño de los obstáculos
y la longitud de onda de la onda.

Cuando las ondas encuentran en su


camino obstáculos del mismo tamaño o
más pequeños que su longitud de onda,
tienden a bordear el obstáculo.

Una onda electromagnética es un conjunto


de voltajes en el espacio, que se mueve
con el tiempo. La teoría básica de la
electricidad y el magnetismo,(para quien
no conozca los conceptos básicos de las magnitudes más habituales en electricidad se indican en el
siguiente enlace) debida a James Clerk Maxwell, indica que para crear ondas electromagnéticas se han de
acelerar cargas eléctricas. Una vez formadas, esta teoría también predice su comportamiento. Se propagan
en el espacio libre con la velocidad de 300000 km/s, y en otros materiales a velocidades inferiores.

Las ondas electromagnéticas se pueden detectar debido a la energía que transportan. Estos detectores
pueden ser muy variados, como por ejemplo los electrones que se encuentran en la antena de un coche, o
bien las cargas eléctricas que poseen los átomos de la retina de nuestros ojos.

El espectro de ondas electromagnéticas es muy amplio, varía desde las ondas de radio, de muy baja
frecuencia, hasta rayos gamma, cuya longitud de onda es más pequeña que el núcleo de un átomo.

Una representación esquemática y animada muy buena del espectro electromagnético se encuentra en :
Atlas of Electromagnetic space

14 de 32 18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html

15 de 32 18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html

La longitud de onda es la característica fundamental de estas ondas. Un sistema eficaz para detectar o
producir estas ondas debe ser un dispositivo del mismo tamaño que la longitud de onda delas ondas que se
quieren producir o detectar. Por ejemplo, una antena de radio es demasiado grande para generar ondas de
luz visible, los átomos de nuestros ojos son demasiado pequeños para detectar ondas de radio.

Se ha de cosniderar que las radiaciones más energéticas son ionizantes y por lo tanto susceptibles de
generar cáncer, dentro de este grupo se encuentran los Rayos, Rayos Gamma y parte del espectro de la
radiación ultravioleta (UV). Contrariamente a las afirmaciones alarmistas e injustificadas de grupos
"ecólatras", los teléfonos móviles y sistemas de internet medante Wifi no son perjudiciales para la salud,
pues su rango de frecuencias cae dentro del grupo de las no ionizantes. El informe Moulder es muy
completo y aclaratorio sobre el asunto.

Joseba Zubia, físico de la UPV, habla de Ondas electromagnéticas y salud. (Fuente Magonia)

16 de 32 18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html

Ondas de radio AM y FM. Una señal de radio que transmite siempre la misma onda no transporta
mucha información. Pero al menos informa al receptor de que la estación que envía la señal está en
funcionamiento. Para obtener más información, hay que variar y comprender la señal que se detecta. Es el
proceso de la modulación.

El tipo de modulación más simple consiste en variar la duración de los intervalos de tiempo entre señales.
Puede transmitirse una secuencia de trenes de ondas más largos o más cortos mediante el código morse o
algún otro conocido. A principios del siglo XX la primera utilidad de las señales electromagnéticas fue el
envío de mensajes telegráficos a través del océano para grandes distancias.

Es muy fácil variar gradualmente la intensidad de la señal desde su valor máximo al mínimo, a lo largo de
muchos ciclos de la onda repetitiva elemental, este método se conoce como modulación de la amplitud
(AM).

Un parámetro importante es el porcentaje de modulación, que indica la amplitud mínima o nivel cero de
la onda modulada. Una modulación al 100% indica que la amplitud mínima será cero. Se puede demostrar
matemáticamente que la onda modulada final se puede descomponer en tres señales: una de frecuencia
igual a la portadora y otras resultado de sumar y restar la frecuencia de la moduladora a la de la portadora.
Es decir, si tuviéramos una portadora de 500 KHz y la onda moduladora posee una frecuencia máxima de
20 KHz (como las señales musicales) obtendremos tres ondas: una de 500 KHz y dos bandas laterales de
480 KHz y 520 KHz.

Esto es importante para saber el ancho de banda que ocupa la transmisión (en este caso 20+20=40 KHz).

Con este sistema pueden aparecer algunos problemas, la intensidad de la señal puede variar por razones
distintas a las de la modulación que provoca la emisora, las cargas de la atmósfera pueden crear efectos no
deseados. Esto provoca distorsión y ruido en el receptor.

17 de 32 18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html

Para evitar el problema previo, se utilizan ondas de frecuencia modulada (FM), muy popular en la
actualidad. En este sistema la onda que transporta la información no posee una frecuencia única. Su
frecuencia varía en función de la intensidad de la señal de modulación. Para descifrar estas señales hace
falta un circuito más complicado que las de AM, pero la distorsión atmosférica afecta poco en la
transmisión, por lo que la calidad de recepción es mucho mejor.

Supongamos que tenemos una señal moduladora cuya máxima amplitud es de 1V (valor de pico) y una
onda portadora de 1000 KHz. Si suponemos que para este valor de amplitud la frecuencia de la portadora
se desvia 15 KHz (simétricamente, es decir +15 KHz y -15 KHz), conforme oscile la señal moduladora la
frecuencia de la portadora oscilará entre 985 KHz y 1015 KHz, ocupando un ancho de banda de 30 KHz.

En este sistema de modulación también tenemos un problema práctico, y es que rara vez el ancho de
banda de la transmisión es inferior a diez veces el de la señal moduladora.

Internacionalmente se han dividido todo el espectro de frecuencia en las denominadas bandas de


frecuencia. Esto se hace así para poder delimitar el acceso de los usuarios a estas bandas. Hay que
mencionar que este clasificación no es global y que algunos paises difieren en su delimitación, pero en
general podemos aceptarlas como generales.

Denominación Siglas Margen de frecuencias


Frecuencias muy bajas VLF 3 - 30 KHz
Frecuencias bajas LF 30 - 300 KHz
Frecuencias medias MF 300 - 3000 KHz
Frecuencias altas HF 3 - 30 MHz
Frecuencias muy altas VHF 30 - 300 MHz
Frecuencias ultra altas UHF 300 - 3000 MHz
Frecuencias super altas SHF 3 - 30 GHz
Frecuencias extra altas EHF 30 - 300 GHz

Las bandas de frecuencia más baja se reservan para las emisoras que transmiten en AM, mientras que las
de FM transmiten sobre los 100 MHz. La única banda que está libre para cualquier uso (como
radiocontrol) y para cualquier persona es la banda de los 27 MHz, pero debido a esto está bastante
saturada y sólo es conveniente utilizarla para practicar con montajes caseros y sistemas de poco alcance
(no más de 100m).

3.3 La información como magnitud fundamental

La información nos sale al paso en cualquier momento, ya sea en sistemas técnicos como en los naturales:
en la elaboración de datos, en la tecnología de las comunicaciones y en la de regulación, en las lenguas
naturales, en los sistemas de comunicación biológicos, incluso en la transmisión de informaciones en la
célula viva. La información se ha convertido, pues, en la tercera magnitud básica universal. Debido al
enorme desarrollo realizado por la tecnología de ordenadores, el sector de la informática ha alcanzado una

18 de 32 18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html

importancia que era escasamente predecible. Además la palabra información se ha convertido en una
expresión aplicable a las más diversas disciplinas. Alcanzando al mismo tiempo una importancia esencial
en los sectores más dispersos como por ejemplo, la técnica, la biología y la lingüística. Por lo tanto el
concepto de información requiere un tratamiento profundo, especialmente en el sentido de precisar su
significado, definir sus características más primordiales y formular teoremas.

Algunos ejemplos de la vida real:

Un organismo vivo recibe toda la información hereditaria de sus


progenitores. El catálogo entero de detalles de una futura persona está
"embalado" en un volumen increíblemente pequeño, en un óvulo, cuyo
diámetro es tan sólo de una décima parte de milímetro.

Todo lo vivo está compuesto de células, cuyo elemento básico es el núcleo,


donde se encuentra la información hereditaria. Cualquier ser vivo nace como
resultado de la reproducción de muchísimas copias de una célula inicial
fecundada, proceso que se desarrolla a gran velocidad, se puede tener una
idea considerando que a partir de la célula inicial se llegan a 26 1012 células
en un recién nacido.

Los núcleos de todas las células contienen los denominados cromosomas, en número constante para cada
especie, el hombre 46, el mosquito zumbador 6, la carpa 104 y el chimpancé 48. En los cromosomas están
las moléculas de ácido desoxirribonucleico (DNA o ADN), descubierto 1869 por un médico alemán
llamado Friedrich Miescher (1844-1895), al que la evolución ha confiado la misión de ser el portador de
la información genética puesto que tiene gran capacidad para duplicarse.

El ADN está formado por los nucleótidos, y cada uno de ellos consta de moléculas de azúcar
desoxirribosa (D), de un grupo fosfato (F) y de una de las cuatro bases nitrosas: adenina (A),
timina (T), citosina(C) o guanina (G). Dos cadenas de ADN se unen en una espiral doble como si se
enrollasen la una en la otra, las bases nitrosas se encuentran en el espacio interior entre las espiras y están
unidas entre sí con enlaces de hidrógeno. La Adenina siempre hace pareja con la timina y la guanina con
la citosina. El número de nucleótidos en la molécula de ADN es de muchos miles.

El mecanismo de duplicación del ADN, se puede describir de la siguiente


forma. Los enlaces de hidrógeno que unen las dos espirales de ADN se
desgarran al dividirse las células. La espiral doble se desenrolla, y en cada
espiral separada, inmediatamente se construye otra nueva,
complementaria. En lugar de una se han formado dos nuevas espirales
dobles de moléculas de ADN absolutamente idénticas a la inicial, y así
sucesivamente. De esta forma se transmite la información.

Las moléculas de ADN constituyen la mayor densidad de información


conocida, El tamaño es de 2 nm de diámetro y 3.4 nm de altura por cada
espira de la hélice. Lo cual implica un volumen de 10.68 10-21 cm3 por
espira. En cada espira se encuentran 10 letras del alfabeto químico
(nucleótidos) resultando una densidad de información de 0.94 1021 letras
por cm3. No obstante en el alfabeto genético existen sólo cuatro bases
nucleótidos: adenina, timina, guanidina y citosina. El contenido de
información de una de estas letras es de 2 bit por nucleótido. La densidad de información es por lo tanto
1.88 1021 bit/cm3.

Si se supone que el hombre tiene menos de cienmil genes (actualmente se estima en 30000) y se quisiera

19 de 32 18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html

codificar la información hereditaria en el sistema binario, se tendrían del orden de 2 107 bit. Si se grabala
información en cinta magnética, la longitud sería de dos kilómetros, mientras que si se desenrolla la
espiral hereditaria del ADN y se estira en línea recta, la longitud sería solamente de unos dos metros. Lo
cual da idea de lo compacto que es el embalaje de la información hecho por la naturaleza.

Aovillando, que es ADN

Preguntaba Rigel, hace algunas entradas, ¿Cómo se almacenan los kilómetros de escalera
adenosa en sitio tan chiquitito como es una célula?

Me gusta la pregunta. Me gusta porque me da pie a desvariar un poco sobre un par de


cosas, y a asustaros con numeritos, que es algo que siempre alegra mi malvado y negro
corazón.

Procedamos al susto:

La "escalera adenosa" de una célula no alcanza el kilometraje ni de lejos. Haciendo unos


pocos cálculos, que os ahorro, se ve que si estiramos todo el genoma humano, contenido
en el núcleo de una célula, tenemos un filamento de poco menos de unos dos metros de
largo.

-- Oiga, ¿y de gordo, cuánto?


-- Dos nanómetros. O sea, dos milmillonésimas de metro.
-- ¿Mande?
-- Digámoslo así: ¿ve la división en milímetros de una regla?
-- Bueno, con las gafas y tal...
-- Pues imagine ese milímetro, dividido un millón de veces. ¿Puede?
-- No.
-- Ni yo. Así de chiquitito es un nanómetro.
-- Caray.
-- Y que lo diga.
Sea como sea, dos metros de hilito no son cosa nimia que empaquetar. Si se limitaran a
estar enrollados sobre sí mismos, sería un desastre. Hay que tener en cuenta una cosa
importante: el genoma no es una cosa que simplemente "está ahí". Es una parte muy
dinámica de la célula, que tiene que acceder continuamente a la información contenida en
ella; ahora este gen, ahora el otro, ahora este trozo de aquí, ahora el de allá. La visión de
los cromosomas como esas X gorditas que se ve en los libros sólo ocurre cuando la célula
está ocupada en dividirse. El resto del tiempo, el ADN es un ovillo medio suelto de ADN
y proteínas que se conoce como "cromatina" y cuya estructura es muy complicada y tiene
varios niveles de empaquetamiento.

Matemáticos, a mí: leí hace tiempo que el tipo de empaquetamiento que usa el ADN es el
más eficiente que existe. No lo sé. Pero sé que a la célula le va muy bien. Paso a
describirlo, poco a poco.

La hebra de ADN desnudita se enrolla en torno a una especie de "carrete" proteico


formado por cuatro proteínas llamadas histonas, cuya importancia es imposible exagerar.
Esto es lo que se llama "estructura en collar de perlas", por razones obvias. Hay una
quinta histona por ahí, enzarzada con el trozo de ADN que enlaza cada una de las
"perlas", pero esto es hilar finito. El collar, como véis ahí en el dibujito, es de unos 11
nanómetros de grosor: ni siquiera el doble que el ADN desnudo.

20 de 32 18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html

Sigo: el "collar de perlas" se enrosca sobre sí mismo en lo que se llama un "solenoide",


de nuevo por razones obvias. La estructura tiene ahora 30 nanómetros de grosor, ¡la
repera!

El solenoide, a su vez, conserva


la flexibilidad y características
de un hilo (una fibra de
cromatina), que a su vez se
enrosca más sobre sí mismo, en
plan cable de teléfono, hasta
formar la hebra del cromosoma.
En este punto la hebra tiene 700
nanómetros de grosor. El
cromosoma completo, con sus
dos cromátidas y tal, es de unos
1400 nanómetros de grosor.
Tres órdenes de magnitud más
que la hebra desnuda. ¿Esto es
mucho, o poco? Extrapolemos:
si partimos de un hilito de un
milímetro de grosor
(proporcionalmente tan largo
como el ADN de un
cromosoma), y lo
empaquetamos como un
cromosoma, el paquete
resultante tendrá un metro y
pico de grosor. No está mal.

¿Y qué tal en cuanto a la


longitud? ¿Cuánto hemos
conseguido acortar la hebra
para que quepa en el núcleo?
Vamos a verlo: este sistema de
empaquetamiento consigue que
la longitud de la hebra de ADN
se reduzca cincuenta mil veces. Que se dice pronto. Si queréis os asusto con más
numeritos: el cromosoma más largo del genoma humano mide 263 millones de pares de
bases (todo el genoma son unos tres mil millones). Estiradito, eso son, a grosso modo,
nueve centímetros. Tras el empaquetamiento, no llega a las veinte diezmilésimas de
milímetro de largo.

Así que, ¿cómo se almacena el ADN en la célula? Pues, la verdad... la mar de bien.

Y como fin de fiesta, para aquellos a los que les dé pereza lo negro, todo lo anterior está
perfectamente explicado en este bello dibujo, que además (astucia supina) es un enlace a
una página anglosajona donde se explican más cosas aún. El que no sepa más de
cromatina después de esto, es ya porque no quiere. De nada.

La Biblioteca de Babel Toda la materia viva, desde el virus más primitivo hasta el
hombre son cadenas transportadoras para transmitir la información hereditaria, son
sistemas de comunicaciones perfectamente construidos, que tienen una asombrosa
exactitud para transmisión de sus datos, con una gran defensa contra la acción de

21 de 32 18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html

diferentes interferencias, y realizados en unas dimensiones increíblemente pequeñas.

El ADN "cumple" 50 años

La determinación de que el ADN transmite información genética de un individuo a su


descendencia se concretó hace ahora 50 años. Durante este tiempo, el interés por esta
sustancia química de la que están hechos nuestros genes y, p or tanto, el libro de
instrucciones para fabricar a un ser vivo, no ha hecho más que aumentar, hasta el punto
de que la estructura del ADN (de doble hélice) se ha convertido en un icono en el mundo
científico.

Redacción Ondasalud.com

La determinación de la estructura en doble hélice del ADN se considera uno de los hitos
científicos del siglo XX. James Watson y Francis Crick la publicaron por vez primera
vez en la revista Nature y ahora, cincuenta años más tarde, este medio festeja el hallazgo
que culminó con la concesión del Premio Nobel de 1962 en Medicina y Fisiología a la
célebre pareja.

¿Por qué se celebra el quincuagésimo aniversario del descubrimiento de la estructura de


doble hélice del ADN y no otros hallazgos científicos?

Para Robert Olby, del Departamento de Historia y Filosofía de las Ciencias de la


Universidad de Pittsburgh, en Estados Unidos, para entender la magnitud de este
acontecimiento científicos "primero tenemos que situarnos en 1953, otro mundo, en el
que la revista científica aún no utilizaba la abreviatura de ADN para el ácido
desoxirribonucleico".

Antecedentes

A principios de la década de 1950 existía un programa científico de investigación del


ADN. "Estos estudios incluían el análisis de las propiedades físicas del ADN y se
analizaba si su composición era igual para todas las células del organismo. Y también se
discutía sobre el daño de los rayos ultravioleta, entre otros factores, sobre este material
génetica.

La mayoría de los investigadores eran bioquímicos y químicos y estaban especialmente


interesados en dos aspectos: las mutaciones genéticas y cómo las proteínas realizaban el
proceso de la síntesis, un tema especialmente importante para el crecimiento, la nutrición
y la investigación en cáncer. "La progresiva investigación condujo a que ya en 1952 se
viera al ADN como material hereditario".

Pero hacía falta mucha más información para convencer a toda la comunidad científica.
¿Cómo justificar desde un punto de vista químico el papel del ADN en la herencia?, se
preguntaban. La respuesta la aportó el trabajo de James Watson y Francis Crick.
Describieron los pares de bases, donde la adenina fabrica uniones de hidrógeno con
timina, y la guanina con citosina (las famosas cuatro letras A, T, C y G que forman el
gran libro del genoma). "Este emparejamiento sugería un posible mecanismo de copiado
para el material genético", escribieron en su artículo y, dos meses después añadieron:
"Hasta ahora no se había presentado ninguna evidencia que mostrara de qué forma puede
consumarse el proceso esencial para el material genético, la duplicación exacta".

22 de 32 18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html

La constatación de que el descubrimiento de Watson y Crick era sumamente importante


la suministraron Matthew Meselson y Franklin Stahl en 1958 al probar la naturaleza de la
replicación del ADN.

La investigación siguió su curso hasta llegar al punto y seguido de esta bonita historia
que fue la concesión del Premio Nobel de Medicina en 1962 a Watson, Crick y Wilkins.

Un retrato idealizado

La estructura de doble hélice que se ha popularizado hasta superar el entorno científico es


una representación muy estética del ADN. En realidad, el aspecto del ADN es bastante
diferente. Sin destruir la visión idealizada del modelo icónico propuesto por Watson y
Crick, un científico relata en Nature que "en honor a la verdad, debemos explicar que la
mayoría del ADN celular está comprimido en paquetes enmarañados y apelmazados que
de alguna manera lo exponen de forma meticulosa al control regulador genético".

Según refleja este artículo, la doble hélice es una de las razones del éxito de los trabajos
realizados sobre el ADN. "Ahora bien, no nos tenemos que dejar engañar por este retrato
idealizado y debemos ser conscientes de la complejidad que posee la estructura de ADN
y, por ello, reconocer el trabajo tan importante de sus descubridores".

Ejemplos de la vida real

Supongamos un ejemplo de la vida real, se va por una carretera y se llega a una bifurcación. Si se desea
saber por ejemplo cual de las dos conduce a Murcia, lo lógico ería ver los rótulos indicativos que suelen
existir en las carreteras, pero en este caso sólo hay grandes carteleras publicitarias (aunque están
prohibidas, pero como el alcalde se preocupa de pocas cosas), por lo tanto la información recibida es nula,
igual a cero. Si vemos a otro coche que se acerca, se puede preguntar al conductor sobre cual de las dos
vías conduce a Murcia, respondiendo por ejemplo, la de la derecha. Esta información recibida permite
hacer una elección entre dos posibilidades, es decir entre las dos posibles salidas. Se ha recibido un bit de
información.

Otros ejemplos habituales pueden ser:

¿Cuánta información obtenemos cuandonos dicen que cierta persona tiene el pelo oscuro, o que es
una mujer? Parece de locos intentar cuantificar de forma precisa este concepto, pero lo vamos a
hacer partiendo precisamente de su idea intuitiva.

Lo primero que debe quedarnos claro es que el hecho de obtener información es equivalente al de
disminuir la indeterminación con respecto a algo, de tal forma que se obtiene tanta más información
cuanto más disminuya el grado de incertidumbre que tenemos de cierto fenómeno.

Veamos esto con un ejemplo, si nos dicen las siguientes frases:

- La persona que describo tiene el pelo oscuro.

- La persona que describo es mujer.

En la primera frase se nos da un dato de todos los posibles (claro, castaño, pelirrojo, rubio, canoso), al
igual que en la segunda, (hombre, mujer, lesbiana, "gay", bisexual), por tanto la primera y la segunda nos
dan igual información, sin embargo si en el segundo caso simplificamos y sólo consideramos dos
posibilidades (hombre, mujer), obtenemos más información al disminuir mucho más la incertidumbre que
teníamos con respecto a la persona.

23 de 32 18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html

Otro ejemplo: El alfabeto español se compone de 27 letras. Si un ordenador genera letras al azar, la
información que nos suministra el conocer que letra ha salido será mayor que en cualquiera de los casos
anteriores porque el número de estados posibles es mayor (27).

Conclusión: La cantidad de información que obtenemos con un mensaje es directamente proporcional al


número de estados posibles de la cuestión planteada.

Los matemáticos y los físicos se han puesto de acuerdo que es lógico y cómodo tomar por unidad de
información una dosis de información tal que disminuye nuestra ignorancia en dos veces y permite hacer
una elección entre dos posibilidades equitativas. Claro está que se ignora la importancia de esta elección.

Un caso más complicado es la elección entre cuatro salidas posibles. Por ejemplo, si hace falta prever en
qué trimestre se desean las vacaciones, se seguiría el proceso siguiente:

- ¿En qué mitad del año? En la primera


- ¿En que trimestre de la primera mitad del año? En el segundo

Otro ejemplo es el esconder una moneda debajo de una de entre cuatro tazas. ¿Cómo encontrar la moneda
con sólo dos preguntas a las que se contesta si o no?

- ¿Se encuentra la moneda debajo de la primera o de la segunda taza? No


- ¿Se encuentra la moneda debajo de la cuarta taza? No

La moneda, necesariamente ha de estar debajo de la tercera taza.

De los dos ejemplos previos, se deduce que al hacer una elección entre cuatro opciones posibles, hacen
falta dos unidades de información y no una.

Si se escondiera la moneda debajo de una de entre ocho tazas, para encontrarla harían falta tres unidades
de información. Así de forma sucesiva, aunque al aumentar el número de tazas es más probable que
rompamos alguna buscando la moneda. Se puede observar una dependencia entre la cantidad de variantes
N, u orígenes, y la cantidad de unidades de información J, necesarias para tomar una decisión,
N=2J
y tomando logaritmos, se tiene

J=log N

Esta fórmula fue propuesta en 1928 por Hartley, y dice, la información necesaria para la elección entre N
variantes equitativas es igual al logaritmo del número de variantes.

La función logarítmica crece muy despacio al aumentar el número, esto implica que la cantidad necesaria
de información crece muy despacio al aumentar el número de variantes. Por ejemplo, para tomar una
decisión entre 512 variantes, sólo hacen falta 9 unidades de información, y si N es 4096, hacen falta 12.
Un ejemplo real de esta dependencia logarítmica es cuando un juez de instrucción, recibiendo del acusado
ávidas contestaciones sólo en forma de las unidades de información "si" o "no", rápidamente aclara un
asunto. Sin duda, a él ayuda la dependencia logarítmica previamente deducida.

Si en la fórmula ponemos N = 2 (log 2 = 1), se obtiene la dosis que tiene la unidad de información que ha
recibido el nombre de bit.

Claude E. Shannon fue el primero que formuló una definición matemática del concepto de información en
su trabajo " A mathematical theory of communication" (1948). La medida que él utilizó, el
bit (binary digit), brindó la ventaja de permitir la definición cuantitativa de causalidades

24 de 32 18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html

que hasta ahora no había sido posible expresar de una forma matemática exacta. La
desventaja, no obstante, es evidente: la información según el concepto de Shannon, no
implica su contenido intrínseco, sino que se limita a un aspecto especial, que es
significativo sobre todo para su transmisión y registro desde el punto de vista técnico. En
este caso, no se tiene en cuenta que un texto sea razonable, comprensible, correcto o incorrecto o
simplemente no tenga significado alguno. Se desatienden aquí también cuestiones importantes como el
saber de dónde procede la información (emisor) y a quien va destinada (receptor).

Para la definición "información" de Shannon no tiene transcendencia alguna si una serie de letras
representa un texto de alto contenido temático o si, por el contrario, constituye el resultado de un juego de
dados. Efectivamente, y aun bajo el riesgo de parecer paradójico, puede afirmarse que una serie de letras
generadas al azar ofrece, desde el punto de vista teórico informático, un contenido máximo de
información, mientras que un texto cuyo lenguaje sea congruente, el valor correspondiente es menor.

La definición informática de Shannon se limita a un aspecto de la información, esto es, el hecho de que a
través de ella se exprese algo nuevo. Nuevo implica el mayor efecto de sorpresa que se obtiene al aparecer
un signo menos usual. Información es, por lo tanto en este caso, la medida de improbabilidad de un
acontecimiento. Por esta razón, a un signo con alto grado de improbabilidad se le concede un mayor
contenido informativo.

Antes de que un emisor de signos origine un signo, existe la duda de que signo especial va a emitirse de
entre los signos disponibles. Esta inseguridad desaparece tras haber recibido la señal. Según la forma de
discernir de Shannon se define lo siguiente: Información es la inseguridad que desaparece al recibirse la
señal correspondiente. Teniendo en cuenta que Shannon sólo está interesado en determinar la
probabilidad de aparición de los signos, automáticamente sólo registra el carácter estadístico de la
información. Con ello, el concepto de la palabra información queda reducido a su aspecto carente de
significado. Según Shannon el contenido de la información queda definido de forma que reúna las
siguientes propiedades:

Condición de adición: El contenido de información de unos signos o series de signos


independientes el uno del otro, debe sumarse. Esta condición concibe la información como algo
cuantitativo.

Condición de probabilidad: El contenido de información atribuido a un signo, o serie de


signos debe aumentar con el aumento progresivo de la sorpresa. El efecto de la sorpresa para la letra
w, con menor probabilidad de aparición, es mayor que el de la letra e, con mayor probabilidad de
aparición. De ello se deduce, cuanto menos probable sea un signo, tanto mayor será su contenido de
información.

3.4 Información y mensajes

El interés más evidente de la medida de la cantidad de información aportada por el resultado de una
experiencia, aparece cuando se trata de transmitir este resultado a distancia. A continuación se describe un
ejemplo muy ilustrativo, supongamos que tu trabajas en una oficina en un pequeño grupo formado por
cuatro empleados y el jefe. Este último por comodidad empleó para llamar a sus empleados un sistema de
comunicación muy sencillo: un timbre suena y en un panel se enciende una de las cuatro lámparas en las
que están escritas las primeras letras de los nombres de los empleados. Estas son A(Antonio), M(María),
P(Procopio) y U(úrsula). Supón que tu código sea A. Los primeros meses se desarrollaba un proyecto
conjunto con la participación por igual de los cuatro y por lo tanto las llamadas del jefe implicaban que las
cuatro luces se encendieran con la misma frecuencia. (La información era el log 4, es decir 2 bit). La
probabilidad de que aparezca la luz en tu lámpara o en cualquier otra, es .25

25 de 32 18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html

En un momento tu hiciste una proposición muy original al jefe, y desde entonces casi se encendía
solamente la lámpara A. Esto hizo que en cuanto sonaba el timbre acudías a la llamada del jefe, sin ni
siquiera mirar la lámpara que se encendía. Haciendo cálculos se llegó a que la probabilidad de que
apareciera la A era .97, mientras que para cada uno de los otros tres empleados era .01, evidentemente la
suma de las tres probabilidades es la unidad.

Se aprecia fácilmente que cuantas más señales o códigos de igual probabilidad se emplean, tanto menor es
la probabilidad de cada uno de ellos. Según Shannon, para las señales de igual y diferente probabilidad la
cantidad de información en su envío o código se determina por la probabilidad de su aparición. Esta
dependencia es también inversa: cuanto más frecuentemente aparece el código, tanto menos información
lleva. Por eso tu no mirabas la lámpara al sonar el timbre, a pesar de que de cada 100 llamadas había tres
que no eran tuyas. La aparición de la luz en la lámpara A era segura y la cantidad de información que
llevaba esa luz disminuyó mucho, hasta log(1/.97), igual a 0.04 bit. Mientras que la información de las
señales poco frecuentes aumentó considerablemente a log(1/0.01)=3.32 bit.

La lotería puede ilustrar esto, supongamos un sorteo, el individuo mira la lista de los número premiados,
después de estar un rato buscando ya ha perdido la esperanza y cada nueva búsqueda no le aporta ninguna
información, de repente se pone radiante, ganó un millón de euros , si sólo hay un premio como este por
cada millón, recibió de golpe una información de log(1/.000001) lo que equivale a 20 bit.

Volvamos a la oficina, pasado cierto tiempo la situación cambió por completo, poco a poco la lámpara A
dejó de encenderse. Entonces al comprobar que al sonar el timbre ya no aparecía la luz de la letra A, te
tapaste los oídos con algodón. En esta situación el encenderse la luz de la A, supone una gran cantidad de
información, lo que pasa es que no las notas al tener tapados los oídos, y son los compañeros quienes te lo
indican.

Fórmula de Shannon

Shannon dio una receta generalizada: hay que calcular la información comunicada por cada código (en
este caso cada lámpara) y mediarla por todos los códigos (por todas las lámparas). Pero no hay que
mediarla del modo corriente, sino por las reglas de las magnitudes causales: la información comunicada
por cada código se multiplica por la probabilidad de su aparición y se suman todos los productos
recibidos.

De esta forma se llega a la siguiente fórmula,

H = p1*log(1/p1)+p2*log(1/p2)+ .. pm*log(1/pm)

donde H es la entropía, las p son las probabilidades de que aparezcan los códigos y m el número total de
códigos.

En el caso de las luces, para la situación en la que el jefe llamaba continuamente, se tendría,

H = .01*log(1/.01)+ .01*log(1/.01)+ .01*log(1/.01)+.97*log(1/.97) = 1.38 bit

es evidente que para el período en que las cuatro luces se encendían con igual probabilidad, con esta
expresión se llega a 2 bit, como se dedujo de la fórmula de R. Hartley.

Así la diferente probabilidad de la aparición de luz en las lámparas llevó a la disminución de la


información que comunica el tablero de señales, es decir a la disminución de la entropía.

Información y significado

26 de 32 18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html

Existe una clase muy amplia de fenómenos observables que se pueden asociar a cantidades numéricas, o a
una sucesión de cantidades numéricas, distribuidas en el tiempo. Su estudio pertenece a la estadística.
estas cantidades, o sus medidas estadísticas, dan información sobre los fenómenos observados.

En una línea telefónica, o en un circuito de televisión, o en un radar, tenemos unas cantidades, las
medidas de los voltajes de la corriente eléctrica que en un cierto momento fluyen por el lugar donde
hacemos la medida, que varían muy rápidamente en el tiempo y que son susceptibles de ser estudiadas
desde un punto de vista estadístico. Los receptores telefónicos, los filtros de onda, las redes de
modulación de frecuencias, etc., han de poder procesar la información inherente a los cambios de voltaje a
un ritmo tan rápido como la variación de éste.

La información se ha de poder registrar, conservar, trasmitir y usar. Las ideas fundamentales sobre la
cuestión de medir la información, pueden ser atribuidas a Claude E. Shannon, aunque hay otras personas
que ayudaron a aclarar algunos conceptos fundamentales, como por ejemplo Norbert Wiener.

Una teoría de la información es, de hecho, una teoría de la medida de la información como consecuencia
de la idea de que ésta es medible. En 1922, R.A. Fisher proponía una definición cuantitativa de la
cantidad de información contenida en datos experimentales susceptibles de tratamiento estadístico. Más
tarde, el desarrollo de las telecomunicaciones impuso la necesidad de medir la información transmitida a
través de un canal, en este caso el hilo metálico.

La cronología del desarrollo del estudio de la teoría de la información podría resumirse del siguiente
modo:

1928, R. Y. Hartley, en el congreso internacional de telefonía y telegrafía, propuso un


método de comparación de los distintos sistemas transmisores de información.

1948, C.E. Shannon, partiendo del problema concreto de la transmisión por hilo, halla la
medida de la cantidad de incertidumbre asociada a un campo de probabilidades finito,
inspirada en el modelo de entropía termodinámica de Boltzmann (1894). Fue él mismo
quien dio las nociones de fuente, canal, perturbación, etc., así como algunos de los
teoremas fundamentales de la codificación que son la base de esta teoría de la
información que nos disponemos a estudiar.

1953, B. McMillan reemprendió los trabajos de Shannon e introduce las definiciones


matemáticas de fuente de información y canal de transmisión. Pasa de las fuentes de
Markov a las fuentes ergodinámicas (existencia del vector de probabilidades de estado
estacionarias).

1954, A. Feinstein dio la primera demostración completa del teorema de codificación,


enunciado por Shannon para los canales sin memoria.

1956, A.L Khintchine elaboró el primer tratamiento matemático riguroso y completo de


la teoría de la información para los canales estacionarios ergódicos y para los canales con
memoria finita y sin anticipación.

1962, M.L. Minsky desarrolló las ideas de R.J.Solomonoff sobre la teoría algoítmico de
la información basada en la complejidad asociada a la realización de un cierto algoritmo,
por medio de una cierta máquina de Miring. Posterior-, mente, esta teoría se ha ido
desarrollando por otros autores como A.N.KoImogorov, P.Martin-L5f y G.J.Chaitin.

1963, S. Winograd y J.D. Cowan publicaron un buen trabajo sobre la teoría de autómatas
fiables, construidos a partir de partes no fiables, estableciendo una conexión entre la

27 de 32 18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html

teoría de la comunicación de Shannon y la de autómatas, desarrollada anteriormente por


Von Neumann.
Durante los años sesenta del siglo pasado se lleva a cabo una revisión de la teoría de la
información de Shannon para contemplar aspectos semánticos de la información. Tales
revisiones son los trabajos de Rényi, Forte, Kampé de Fériet, Aczel, etc..

Un equipo de científicos japoneses "escribió" y recuperó una fórmula física en el


genoma de un tipo de bacteria. La técnica podría abrir el camino para usar el ADN
de animales o plantas para almacenar mucha información en poco espacio. Según
los investigadores, el ADN sería un material más resistente que los CD, DVD y los
discos duros que suelen romperse fácilmente.

(Agencia CyTA-Instituto Leloir. Por Bruno Geller) - Los CD, DVD y los discos duros
son soportes físicos que pueden almacenar una gran cantidad de información, sin
embargo, tienen la desventaja de que pueden romperse fácilmente. Por ese motivo,
científicos de diversos países pretenden crear a partir de materia biológica dispositivos de
almacenamiento de memoria más resistentes, que podrían durar miles de años. Esto
quizás no sea importante para la finita vida de un individuo, pero tal vez sí podría serlo
para la humanidad.

Investigadores del Instituto para las Biociencias Avanzadas de la Universidad Keio,


Japón, crearon un método para guardar información en el ADN de un organismo viviente
que podría ser transmitida a la descendencia, según revela la revista científica The
Journal of the American Chemical Society.

Los creadores de la técnica, encabezados por el doctor Yoshiaki Ohashi, insertaron en el


ADN de la bacteria Bacillus subtilis el mensaje "E=mc², 1905" que corresponde a la
ecuación de la Teoría de la relatividad formulada por el físico Albert Einstein en el año
1905.

El mensaje fue traducido al sistema binario que en matemática es un sistema de


numeración en el que los números se representan utilizando las cifras cero y uno (0 y 1)
de acuerdo con determinado orden y que es utilizado por las computadoras para realizar
sus operaciones. Mediante la combinación de esos números, que también pueden
representar letras, es posible crear el mensaje "E=mc², 1905", así como cualquier otro.

El experimento

Ohashi y sus colegas utilizaron la adenina (A), la guanina (G), la citosina (C) y la timina
(T) -cuatro unidades básicas que conforman junto a otros elementos el ADN- para crear
el mensaje. La unión de las bases representaban los números del sistema binario que a su
vez representaban las letras y números del mensaje.

Una vez creado el mensaje mediante la unión de las bases del ADN, fue insertado en el
genoma de la bacteria Bacillus subtilis. Días después, los investigadores recuperaron el
mensaje tras descifrar la región del genoma donde fue inscripta la información.

Según Ohashi, la secuencia de nucleótidos ?compuestos por las bases de ADN- que
puede ser artificialmente insertada en el ADN de organismos vivientes puede ser una
alternativa viable para almacenar información por dos razones: el ADN es un material
resistente y por otro lado la información podría ser transmitida por herencia a las
sucesivas bacterias durante miles de años.

28 de 32 18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200... http://www.um.es/docencia/barzana/II/Ii03.html

Sin embargo, quedan varias cuestiones por resolver. Si bien las bacterias heredan copias
idénticas de genes de sus precursoras, como si fueran clones, el ADN de las bacterias
puede experimentar mutaciones que podrían modificar la información guardada. En ese
sentido, los autores del trabajo consideran necesario desarrollar técnicas que de forma
simultánea descifren el mensaje e interpreten la lógica de las mutaciones.

Si esa mutación no se produjera, una persona que no conoce la información "E=mc²,


1905" inscrita en el genoma de la bacteria, sería capaz de descifrarlo simplemente
comparando el genoma normal con el genoma de la bacteria genéticamente modificada:
las diferencias revelarían el mensaje encriptado.

Bibliotecas y computadoras del futuro

Cabe preguntarse si en el futuro la humanidad dispondrá de bibliotecas vivientes


compuestas de bacterias, insectos o plantas cuyos genomas modificados albergarán
novelas, diccionarios o enciclopedias, entre otros datos. Con esas técnicas, más de una
persona podría poner su biografía a salvo de la curiosidad ajena o bien enviar un mensaje
de amor inscrito en el genoma de una rosa.

¿Cuándo llegara la era de las computadoras compuestas por millones de moléculas de


ADN capaces de almacenar más información que un chip convencional, dotadas de
neuronas artificiales que imiten o superen el funcionamiento del cerebro humano?
¿Habrá sistemas informáticos basados en una combinación de material biológico con
circuitos electrónicos y silicio? Expertos en informática y de otras disciplinas están
trabajando en esa dirección

Enlaces recomendados:
Límites en la compresión de la información
¡Más barata! ¡Más barata! (1ª parte)
Información a precio ~0: revolución social, peligros y soluciones

fresqui del.icio.us meneame

Buscar en la web

Búsqueda escéptica

Búsqueda en mis webs

29 de 32 18/04/2008 20:35
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html

Introducción a la Informática. Estudios GAP,


facultad Derecho

Capítulo 4. Historia de la Informática

Asignaturas
Introducción a la Informática
Introducción
Ofimática
La información
Historia de la Informática
Representación de la información
Periféricos de un ordenador
Lenguajes de programación
Sistemas operativos
Redes y comunicaciones
Informática Aplicada a la Gestión Pública
Introducción a la ingeniería del software
Metodologías de desarrollo
Metodologías habituales
Bases de datos. Introducción
Bases de datos. Organización ficheros
Bases de datos relacionales
Bases de datos comerciales
Introducción a internet
Intercambio electrónico de datos (EDI)
Comercio electrónico
Teletrabajo
Calidad
Informática Aplicada al Trabajo Social
Fundamentos de los ordenadores
Los ordenadores en la actualidad
Introducción al hardware
Fundamentos del software
Aplicaciones software
Diversos usos de los ordenadores
Comercio electrónico
Inteligencia artificial
Prácticas
Visión general de la informática
Internet
Editores de textos
Hojas de cálculo
Bases de datos
Lenguaje Pascal
Avisos
Escepticismo

1 de 31 18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html

Divulgación
Informática
Ciencia en general
Biología
Criminología
Inicio
Contacte

Antecedentes
Cálculo matemático
Las generaciones de ordenadores
Historia de los ordenadores personales
Historia de internet

Selecciona un texto y
pulsa aquí para oírlo

Las imágenes en miniatura se pueden ver en tamaño normal pulsando sobre ellas, para salir pulsar
en la esquina inferior derecha

4.1 Antecedentes

El ser humano siempre ha necesitado medios para hacer cálculos y procesar la información. La
complejidad de estos se ha ido acrecentando con el tiempo, conforme surgían nuevas necesidades, y ha
estado subordinada a los progresos de la tecnología. En cuanto al cálculo, primero surgieron los
instrumentos aritméticos, como el ábaco, a partir de los que se ha llegado a las calculadoras y ordenadores
actuales.

El origen del procesamiento automático de la información, se remonta al año 1896 cuando Herman
Hollerith (1860-1929) fundó una empresa que daría lugar a IBM. Actualmente casi todas las necesidades
de cálculo, se han visto satisfechas con los ordenadores.

Es difícil determinar el punto de inicio para una síntesis histórica de la informática, por cuanto
son muchos los trabajos y descubrimientos que trajeron como consecuencia la construcción del
primer ordenador. Desde tiempo inmemorial los hombres se han valido de instrumentos para
realizar cálculos y para almacenar y procesar información. La primer herramienta que servía para contar y
al mismo tiempo para representar las cantidades contadas fueron los dedos, dando origen al sistema
decimal de numeración.

El hombre primitivo usó piedrecillas para representar números y hacer sumas sencillas. 500 años a.n.e.,
surgió el ábaco inventado y reinventado por culturas distintas en el espacio y en el tiempo, como los
aztecas y los sumerios. El ábaco ruso es decimal, dispone de diez anillos de madera en cada columna. En
el chino el tablero está dividido en dos zonas, "cielo" y "tierra", con dos y
cinco bolas respectivamente. El japonés consta de cuatro y una bola
respectivamente. En Japón existe un Instituto de Investigación del ábaco y
un Comité Central de Operadores de ábacos. El 12 de noviembre de 1946
compitieron, el soldado Wood del ejército de EE.UU., que era el operador
de máquinas de calcular más experto, con una calculadora eléctrica de las
de su época y Kiyoshi Matsuzaki del Departamento de Ahorros del
Ministerio de Administración Postal, dotado de un ábaco. Se trataba de resolver cinco cálculos
comprendiendo las cuatro operaciones elementales, la victoria fue para el japonés, por cuatro frente a uno.

2 de 31 18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html

En la página Molecular Expressions se muestra un ábaco en el que es posible simular operaciones reales.

EL ÁBACO
Considerado como el instrumento más antiguo de cálculo, adaptado y apreciado en
diversas culturas. El origen del ábaco esta literalmente perdido en el tiempo. En épocas
muy tempranas el hombre primitivo encontró materiales para idear instrumentos de conteo.
Es probable que su inicio f uera una superficie plana y piedras que se movían sobre líneas
dibujadas con polvo. Hoy en día se tiende a pensar que el origen del ábaco se encuentra en
China, donde el uso de este instrumento aun es notable al igual que en Japón.

La palabra ábaco es latina y tiene sus orígenes del griego "abax" o "abakon", que significa
"superficie plana" o "tabla", es posible que se ha originado de la palabra Semítica Abaq
que significa "polvo". Otros nombres son: del ábaco Chino es "Suan Pan", el Japonés es
"Soroban", en Corea "Tschu Pan", en Vietnam "Ban Tuan" o "Ban Tien", en Rusia
"Schoty", Turquía "Coulba" y Armenia "Choreb".

Debido a que gran parte de la aritmética se realizaba en el ábaco, el término ábaco ha


pasado a ser sinónimo de aritmética, y encontramos tal denominación en Leonardo de Pisa
Fibbonacci (1170-1250) en su libro "Liber Abaci" publicado en 1202, que trata del uso de
los números indo-arábigos.

Muchas culturas han usado el ábaco o el tablero de conteo, aunque en las culturas europeas
desapareció al disponerse de otros métodos para hacer cálculos, hasta tal punto que fue
imposible encontrar rastro de su técnica de uso. Las evidencias del uso del ábaco son
comentarios de los antiguos escritores griegos. Por ejemplo, Demóstenes (384-322)
escribió la necesidad del uso de piedras para realizar cálculos difíciles de realizar en la
cabeza. Y los métodos de calculo encontrados en los comentarios de Herodoto (484-425),
hablando de los egipcios decía: “Los Egipcios mueven su mano de derecha a izquierda en
los cálculos, mientras los Griegos lo hacen de izquierda a derecha".

Algunas de la evidencias físicas de la existencia del ábaco se encontraron en épocas


antiguas de los Griegos por las excavaciones arqueológicas. En 1851, se encontró una gran
ánfora de 120 cm. de alto, se la denominó como "Vaso de Darío" y entre los dibujos tiene
una figura que representa un contador que realiza los cálculos. La segunda muestra
arqueológica es un auténtico tablero de conteo encontrado en 1846 en la isla de Salamis, el
tablero de Salamis probablemente usado en Babilonia 300 a.n.e., es una gran pieza de
mármol de 149 cm. de largo por 75 cm. de ancho, con inscripciones que se refieren a
ciertos tipos de monedas de la época, este tablero esta dividido en dos partes.

Se sabe que los Romanos empleaban su ábaco con piedra caliza o mármol, para las cuentas
a las que denominaron "calculi" esta palabra es la raíz de la palabra cálculo".

En el siglo XIII se estandarizó una mesa de ábaco en Europa, consistiendo en una mesa
cubierta de paño en la que se dibujaban unas líneas con tiza o tinta. Existieron dos intentos
por reemplazar la mesa de ábaco por otros más modernos. El primero fue ideado por el
filósofo romano Boethuis, quien escribió un libro sobre geometría dedicando un capítulo al
uso del ábaco, describió como en lugar de emplear cuentas se podía representar el numero
con sólo una cuenta que tuviese los dígitos del 1 al 9 marcados. El segundo intento fue
realizado por el monje Gerbert de Avrillac (945-1003), quien fue papa con el nombre de
Silvestre II. Tomó ideas del libro de Boethius, y describió el uso de una nueva forma de
ábaco en el año 1000. Ninguno de estos dos ábacos fueron populares.

La mesa de ábaco fue usada extensamente en Bretaña, al igual esta fue abandonada por la

3 de 31 18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html

mayoría de la gente. El libro "The Grounf of Artes" escrito por Robert Recorde
(1510-1558) en 1542, claramente muestra el método de aritmética con la mesa de ábaco.

Conforme los numerales indo-arábigos aparecieron en Europa el uso de la mesa de ábaco


desapareció por completo, cuando los soldados de Napoleón invadieron Rusia en 1812,
trajeron ábacos como trofeos o recuerdos del país.

En otras partes del mundo, se encuentra en China la primera evidencia del inicio del ábaco
chino que se descubrió, fueron cuentas de cerámica hechas en el occidente de la Dinastía
Zhou1 con más de 3000 años. Respecto a los materiales históricos a mano, el libro que
registra el comienzo del cálculo con un ábaco se llama Crónica Aritmética escrito por Xu
Yue en el oriente de la Dinastía Han (206-220), hace 2000 años. Esto indica que el ábaco
tenia una cuenta en la parte superior y cuatro en la inferior.

Los ábacos modernos existieron en la Dinastía Song (960-1279) lo que puede ser
verificado por alguna evidencia, por ejemplo, en una pintura de Wang Xhenpeng's,
muestra el uso extenso entre la gente del sur de la Dinastía Song.

Durante la Dinastía (mongol) Yuan (1279-1368)los ábacos tuvieron una etapa donde se
fueron popularizando paulatinamente en todo el país, posteriormente entró en la etapa en la
que su uso ya era algo común a mediados de la Dinastía Ming (1368-1644) y la técnica de
uso paso a ser un sistema algorítmico completo. Un libro escrito por Wu Ching-Hsin-Min
en 1450, tiene descripciones acerca de el ábaco, así como una gran numero de libros
publicados a finales de la Dinastía Ming, que aseguran el hecho que el ábaco entró en el
uso popular. Existen dos trabajos representativos en el cálculo del ábaco en la Dinastia
Ming. Uno fue Wang Wensu's Principios matemáticos 1524, y el otro es Cheng Dawei's
reglas generales del método de conteo 1592, los cuales plantearon un mayor papel en
extender el uso del ábaco. Durante el período de la Dinastía Ming, el ábaco chino se
propagó hacia Corea en el 1400 y en Japón en el 1600, así como al sureste de Asia.

Durante la Dinastia Ming había un solo tipo de ábaco en China, con una cuenta en la parte
superior y cinco en la parte inferior, fue encontrado en la tumba de Lu Weizhen
(1543-1610). Después de la Dinastía Qing (1644-1912), el ábaco contó con dos cuentas en
la parte superior y cinco en la parte inferior, fue extensamente usado como actualmente ha
sido, mientras que el ábaco japonés se diseñó empleando una cuenta en la parte superior
(cielo) y cuatro en la inferior (tierra).

A finales de la edad media los mongoles propagaron el uso del ábaco en Rusia, que
provenía de los chinos y los tártaros.

Un hecho muy importante del uso y la potencia del ábaco fue que el 12 de Noviembre de
1946, una competencia, entre el japonés Kiyoshi Matsuzaki del Ministerio Japonés de
comunicaciones utilizando un ábaco japonés y el americano Thomas Nathan Wood de la
armada de ocupación de los EE.UU. con una calculadora electromecánica, fue llevada a
cabo en Tokyo, bajo patrocinio del periódico del ejército americano (U.S. Army), Stars and
Stripes. Matsuzaki utilizando el ábaco japonés resultó vencedor en cuatro de las cinco
pruebas, perdiendo en la prueba con operaciones de multiplicación.

El 13 de Noviembre de 1996, los científicos Maria Teresa Cuberes, James K. Gimzewski,


y Reto R. Schlittler del laboratorio de IBM de Suiza de la división de investigación,
construyeron un ábaco que utiliza como cuentas moléculas cuyo tamaño es inferior a la
millonésima parte del milímetro. El "dedo" que mueve las cuentas moleculares es similar a
una aguja cónica que en su extremo más puntiagudo alberga un átomo.

4 de 31 18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html

1) Las fechas de inicio de la dinastía Zhou son dudosas, y varían entre los años 1122, 1050
y 1027 a.n.e., cuando al parecer expulsaron a la débil dinastía Shang. En cuanto a la fecha
de su fin, casi todo el mundo coincide en señalar el año 221 a.n.e.

Artículo escrito por Manuel Bernal

Antes de aparecer las calculadoras surgieron otros dispositivos de entre los que cabe comentar dos, en los
que el matemático escocés John Neper (1550-1617) tuvo un papel destacado. Es conocido por la
invención de los logaritmos en 1614, que dieron origen a la regla de cálculo, cuya paternidad es tema de
controversia, no obstante el primero en usarla, en 1621, fue el sacerdote inglés William Oughtred
(1575-1660). En 1617 Neper dio a conocer un instrumento sencillo para realizar multiplicaciones
basándose en sumas, llamado rodillos de Neper, idea que aparecía varios siglos antes en libros árabes.

La necesidad de calcular sin errores dio lugar a la calculadora, la mecánica es una especie de ábaco, pero
con ruedas dentadas en lugar de varillas y bolas, dotada de un mecanismo para el transporte de las
unidades que se lleven, de una posición digital a la siguiente más significativa.

Hasta hace pocas décadas se creía que el filósofo francés Blas Pascal
(1623-1662) había sido el creador de la calculadora. Pascal diseñó su "machina
arithmetica", posteriormente denominada Pascalina, a la edad de 19 años, para
que su padre que era recaudador de impuestos tuviera tiempo libre para jugar
con él a la paume.

Leonardo Da Vinci (1452-1519) diseñó una sumadora que fue reconstruida en 1967 a partir de uno de sus
códices. En 1935 el historiador Franz Hammer, revisando la correspondencia del astrónomo Johannes
Kepler descubrió que el alemán Whilem Schickard (1592-1635) había inventado una calculadora que era
una combinación de los rodillos de Neper con una sumadora-restadora similar a la de Pascal, obviamente
no sólo era superior a la pascalina, sino que se construyó el año en que nació Pascal.

El primero en construir una calculadora, en 1671, fue el filósofo y matemático alemán Gottfried Leibniz
(1646-1716),inventor junto con Isaac Newton del cálculo infinitesimal, aunque de forma independiente.
Fue denominada calculadora universal, su elemento característico era un tambor
cilíndrico con nueve dientes de longitud variable, llamado rueda escalonada, que
se encuentra en prácticamente todas las calculadoras mecánicas posteriores,
incluso las del siglo XX. Las técnicas de producción tan poco eficientes de
aquella época, impidieron que el invento de Leibniz se fabricara masivamente. Se
llegaron a construir 1500 unidades, pero hubo que esperar hasta 1820 para que
Carlos Thomas, director de una aseguradora diseñara un modelo capaz de ser
producido a bajo coste y a escala industrial.

En 1872 el estadounidense Frank Baldwin construyó una calculadora a la que años más tarde le añadió la
denominada rueda Odhner. Esta fue la antecesora de la clásica calculadora de sobremesa, con manecilla
lateral, difundida universalmente desde 1910 y que todavía se encuentra en rastros. De ella deriva la
popular caja registradora inventada en 1879 por James Ritty, comercializada bajo la marca National y una
sumadora provista de impresora inventada por William Borroughs (1855-1898) en 1884, fundador de la
empresa que llevó su apellido.

En 1878 el periodista y escritor gallego, afincado en EE.UU., Ramón Verea García (1833-1899) patentó
en Nueva York una calculadora por la que se le otorgó la medalla de oro de la exposición de Matanzas
(Cuba). Aseguraba que no había fabricado la máquina para patentarla y venderla, sino para demostrar que
era posible que un español pudiera inventar tan bien como un norteamericano. A partir de entonces sólo

5 de 31 18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html

se dedicó al periodismo, combatiendo la política de colonialismo de EE.UU., por lo que tuvo que exiliarse
en Guatemala y posteriormente en Argentina.

4.2 Cálculo matemático

Una calculadora no es un dispositivo automático, lo cual implica que requiere la acción constante de un
operador, que es un obstáculo para la velocidad y fiabilidad de los resultados.

En 1812 el matemático inglés Charles Babbage (1792-1871), habiendo constatado que las tablas
trigonométricas estaban plagadas de errores al haber sido calculadas a mano,
concibió la denominada máquina de diferencias, un instrumento mecánico para
calcular e imprimir tablas de funciones. En realidad se trataba de una máquina
que calculaba el valor numérico de una función polinómica sobre una progresión
aritmética, pues las funciones se pueden aproximar por polinomios.

Tras una serie de fracasos, en 1832 Babbage desarrolló el proyecto de la máquina


analítica. Se trataba de un ordenador mecánico de propósito general, preparado
para realizar cualquier tipo de cálculo mediante un programa adecuado. Sus
elementos fundamentales serían: una memoria para 1000 números de 50 cifras,
una unidad aritmético lógica para los cálculos, una unidad de control para que las operaciones se
realizasen en el orden correcto, lectoras de fichas perforadas (que ya se usaban desde hace un siglo en los
telares) para la entrada de datos y una impresora para la salida de resultados.

Una amiga y colaboradora, la señorita Ada Augusta Byron (1815-1852), condesa de Lovelace, publicó
una serie de programas para resolver ecuaciones trascendentes e integrales
definidas, con la máquina analítica. En dichos programas se hacía uso de
bifurcaciones, hacia delante y atrás y de bucles. Fue la primera programadora de la
historia, por eso el departamento de Defensa de EE.UU. denominó ADA al lenguaje
de programación oficial en sus dependencias.

Es sorprendente que a alguien se le ocurriera diseñar un ordenador hace más de un


siglo y medio. Aunque nunca se llegó a construir esta máquina por falta de precisión
en algunas piezas. Babbage tenía manía a los organilleros, y al morir los periódicos
londinenses destacaron ese detalle.

Entre sus sucesores destaca el ingeniero santanderino Leonardo Torres Quevedo (1852-1936). Logró
renombre universal gracias a sus inventos. Construyó transbordadores (uno en las cataratas del Niágara),
un aparato teledirigido por ondas de radio, un globo dirigido y semirrígido, usado por franceses e ingleses
durante la Primera Guerra Mundial y un sinfín de máquinas para cálculo científico. De estos destacan los
aritmómetros en los que introdujo la aritmética de punto flotante, eran máquinas de cálculo matemático
sobre la base de relés, y dotadas de memoria, que se gobernaban a distancia mediante una máquina de
escribir, la cual servía para entrar operandos, operaciones y para obtener los resultados. Asimismo realizó
estudios sobre los hoy denominados robots, y sus aplicaciones en la industria, por lo cual no sólo es
considerado un precursor de la informática sino también de la cibernética; como ejemplo práctico
construyó una máquina de jugar al ajedrez, un autómata capaz de dar mate de rey y torre contra rey y que
reaccionaba ante las jugadas irreglamentarias del contrario.

En los años 1920 tuvo en sus manos de dar a España la primacía en la informática, si no sucedió fue
porque en aquella época no hacía falta. La necesidad de un ordenador surgió con la Segunda Guerra
Mundial, por lo que se construyeron los primeros ordenadores basándose en los trabajos de Babbage y de
Torres Quevedo.

4.3 Las generaciones de ordenadores

6 de 31 18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html

Informática se puede considerar como "Tratamiento automático de la información" la primera persona


que construyó una máquina (que todavía no era un ordenador) fue el americano Herman Hollerit
(1860-1929). En 1886, cuando trabajaba para la oficina del censo en EE.UU. se percató de que el
procesamiento de los datos del censo del año 1880, no se había terminado en el momento de hacer el de
1890. Para resolver el problema diseñó una tarjeta que se debía perforar con los datos de cada uno de los
encuestados. Estas fichas se introducían en una lectora que detectaba las perforaciones mediante un baño
de mercurio (Hg), que al introducirse por los agujeros provocaba contactos eléctricos. Finalmente los
datos se registraban en una tabuladora. Con ello se multiplicó por 100 la velocidad de proceso, 200 fichas
por minuto.

Hollerit fundó su propia empresa, la Tabuling Machine Co. (1896),posteriormente convertida en la


Computing Tabulating Recording (1911), tras pasar a manos de Thomas Watson se denominó en 1924
International Bussiness Machines (IBM).

Otra gran empresa, Unisys, tiene su remoto origen en esta época. Al dejar Hollerit la
Oficina del Censo, lo sustituyó James Powers, quien fundó en 1911 la Powers
Accounting Machine Co., que pasó a formar parte en 1927 de la Remington-Rand
Corporation. Esta empresa años más tarde construyó los primeros ordenadores
Univac.

Hasta 1950 las empresas fundadas por Hollerit y Powers se dedicaron a la


fabricación de tabuladoras para la gestión de grandes empresas y organismos
oficiales. La primera tabuladora llegó a España en 1925 y se instaló en la entonces
denominada Compañía Telefónica Nacional de España (actualmente Telefónica de
España S.A.). En 1926 se instaló otra en el ayuntamiento de Barcelona. A finales de
los años 1950 había unas 70 en toda España.

Ordenadores de Primera Generación

Los primeros ordenadores fueron electromecánicos (en base a relés). Aunque Jorge Stibz
construyó en 1949 en los laboratorios Bell una máquina programable que trabajaba con
números complejos, el Complex Calculator, se considera que el primer ordenador fue
desarrollado en 1941, el Z3 del alemán Konrad Zuse (1910-1995), cuya empresa fue
adquirida por Siemens. Le siguió en 1944 el Mark I de Howard Aiken (1900-1973) y
Grace Hopper (1906-1992), construido en la Universidad de Hardward con la
colaboración de IBM. Pesaba cinco toneladas y tenía más de 750000 piezas y 800 km de
cable.

Durante la década de 1950 Aiken trabajó activamente con investigadores españoles del Instituto de
Electricidad y Automática del CSIC, fundado por Torres Quevedo.

La sustitución de los relés por tubos de vacío dio lugar a la Primera Generación de ordenadores
electrónicos. El primero fue fabricado en 1945,el ENIAC (Electronic Numerical Integrator and
Calculator) de los estadounidenses John Eckert (1919-1995) y John Mauchly
(1907-1980) que se usó en el cálculo de trayectorias de proyectiles. Acabada la
guerra se utilizó para calcular el número pi con unos 2000 decimales, y para
hacer los primeros diseños de la bomba de hidrógeno. Tenía 18000 tubos y
pesaba 30000 kg. Era 300 veces más rápido que el Mark I y costaba 400000
dólares frente a los cinco millones del Mark I. Sin embargo sólo tenía 20
registros de memoria, de 10 dígitos; estaba pues muy lejos de cualquier ordenador personal. En un test de
prueba en febrero de 1946 el Eniac resolvió en dos horas un problema de física nuclear que previamente
habría requerido 100 años de trabajo humano. Lo que lo caracterizaba como a los ordenadores modernos
no era simplemente su velocidad de cálculo sino el hecho de que combinando operaciones permitía
realizar tareas que previamente eran imposibles.

7 de 31 18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html

Antes del ENIAC, en 1940 se crearon otras máquinas electrónicas, un pequeño calculador del
físico John Atanasoff (1903-1995) que no era automático ni
programable y varias máquinas británicas para descifrar los
mensajes del ejército alemán, por ejemplo, en 1943 el Colossus. La batalla
legal por la palabra "Computer" la ganó en el año 1973 póstumamente
Atanasoff.

Echerk y Mauchly crearon la Electronic Control Co, que en 1950 fue


adquirida por la Remington-Rand, allí diseñaron el primer ordenador
electrónico de gestión, el UNIVAC (UNIversal Automatic Computer). El
aparato tuvo gran éxito y copó el mercado, que hasta entonces había sido feudo de IBM. En respuesta
IBM creó una serie de ordenadores excelentes, como el IBM 705, en 1952, desbancando a Univac,
mediante una publicidad agresiva. El UNIVAC II no salió hasta 1958, cuando IBM ya había recobrado el
liderato. De poco les había servido una fusión con Sperry Giroscope Co (1955) para crear la Sperry Rand
Corporation.

En 1945 mientras se construía el ENIAC, se incorporó al


equipo el prestigioso matemático húngaro Johannes Von
Neumann (1903-1957), quien propuso que los programas
se almacenasen en la memoria como si
fuesen datos, y no en una memoria
especial, como se hacía desde el diseño
de Babbage, equipo que se iba a llamar
EDVAC. Los informes fueron tan
precisos que otros se adelantaron y así el
primer ordenador tipo Von Neumann fue
el EDSAC (Electronic Delay Storage
Automatic Calculator) construido el año 1949 por Maurice Wilkes (1913-) en la Universidad de
Cambridge. De esta generación sólo llegó uno a España, un IBM 650, contratado por RENFE en 1958.

Ordenadores de segunda generación

Se considera el inicio en 1958 con la sustitución de los tubos de vacío por los transistores. Los primeros
ordenadores transistorizados fueron dos pequeños modelos de NCR y RCA. Los primeros de IBM y
Sperry Rand fueron el IBM 7070 (1960) y el UNIVAC 1107 (1962),
respectivamente. Bull comercializó los Gamma 30 y 60. Durante esta
época se introdujeron las unidades de cinta y discos magnéticos, y las
lectoras de tarjetas perforadas e impresoras de alta velocidad. Así mismo
aparecieron algunos lenguajes de programación, COBOL (1959), Algol
(1960), el LISP(1962) y FORTRAN que fue creado en 1954 para IBM,
por John Backus (1924-2007).

El segundo ordenador instalado en España, y primero de la segunda generación llegó en 1959, era un
UNIVAC UCT, contratado por la antigua Junta de Energía Nuclear, actualmente CIEMAT. La era de la
informática llegó realmente a nuestro país en 1961, en la Feria de Muestras de Barcelona, se presentó un
IBM 1401.

Los primeros se instalaron en 1962, Sevillana de Electricidad (empresa del grupo ENDESA), Galerías
Preciados (Actualmente propiedad de El Corte Inglés S.A.) y Ministerio de Hacienda. En 1967 IBM donó
a la Universidad Complutense de Madrid un ordenador científico, modelo 7094.

Ordenadores de tercera generación

8 de 31 18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html

La principal característica de esta generación fue el uso del circuito integrado, que se incorporó a
mediados de los años 1960. Destaca la familia IBM 360 en cuyo desarrollo invirtió 5000
millones de dólares de aquella época (1964) y sobre todo la IBM 370 (1970), el producto más
famoso de esta generación. Sperry Rand, en 1965 introdujo la famosa serie 1100.

Durante esta época surgieron la multiprogramación y el tiempo compartido. También tuvo lugar la
denominada "crisis del software" Se intentó la creación de lenguajes universales, el PL/1 (1964) y se
estandarizaron los lenguajes más utilizados: Fortran (1966), Algol (1968) y el COBOL (1970). También
datan de esta generación el BASIC (1964) y el Pascal (1971).

En España durante el trienio 1964-67 las tabuladoras fueron sustituidas masivamente por ordenadores, y
prácticamente desaparecieron al entrar en la década de los 70. En 1970 el parque de ordenadores e
distribuía así: Madrid 50%, Barcelona 34% y el resto lo tenían los grandes bancos del norte y algunas
cajas de ahorros.

Los miniordenadores surgieron a finales de los 60, como elemento de transición entre las generaciones
tercera y cuarta, con los circuitos integrados de media escala (MSI). Sus destinatarios fueron grandes y
medianas empresas. Disponían de varias terminales y se organizaban en redes. Destaca la familia PDP 11
de la desparecida Digital Equipment Corporation.

Ordenadores de cuarta generación

El elemento que provocó el nacimiento de esta generación se considera habitualmente, aunque con cierta
controversia, el microprocesador Intel 4004, desarrollado por Intel en 1971. El
primer ordenador personal en EE.UU. fue el Altair 8800 (1974) de la desaparecida
empresa MITS. Microsoft tuvo el acierto de construir un intérprete BASIC para él,
MITS sobrevivió un par de años, pero Microsoft inició un despegue imparable,
dando un gran salto al facilitar a IBM el sistema operativo MS-DOS para el PC, que
a su vez lo adquirió a otra empresa. Las imágenes siguientes muestran
microprocesadores bajo distintas escalas de ampliación.

9 de 31 18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html

En 1971 apareció el PET 2001 de Commodore, empresa absorbida por la holandesa Tulip, el TRS 80 de
Radio Shack y el Apple II, fabricado en un garaje por dos jóvenes norteamericanos: Steven Jobs (1955-)
y Stephen Wozniak (1950-). A partir de 1980 se produce una eclosión de marcas. Destaca el Sinclair
ZX80, precedente del ZX81 y del Spectrum, fabricante absorbido por Amstrad, que consiguió gran éxito
vendiendo productos de muy baja calidad fabricados en Corea. Amstrad, como es lógico, abandonó la
informática, aunque sigue con equipos musicales y antenas de televisión, de
muy baja calidad. En Agosto de 1981 se presentó el IBM PC, que dio lugar a la
difusión masiva de la informática personal.

Sin embargo la microinformática, contrariamente a lo que se cree, no comenzó


en EE.UU, pues en el año 1973 se creó en España, con la invención del primer
ordenador personal, el Kentelek 8, a cargo de la empresa Distesa (de la
editorial Anaya), el creador fue Manuel Puigbó Rocafort. Jordi Ustrell diseño
posteriormente otro ordenador personal par la empresa catalana EINA. Por esta
época también surgieron en Francia los microordenadores Micral

Como se ha visto, desde el ábaco hasta las primeras calculadoras mecánicas pasaron 12 siglos, desde estas
últimas al primer ordenador transcurrieron dos siglos y desde el Mark I al primer microordenador pasaron
28 años. Desde entonces la velocidad de desarrollo es difícil de imaginar.

Ordenadores de quinta generación

En octubre de 1981 el mundo de los ordenadores se vio sacudido por el anuncio hecho en Japón, de una
iniciativa de investigación y desarrollo orientada a producir una nueva generación de ordenadores en la
primera década de los años de los 90, a los que se les dio el nombre de ordenadores de quinta generación.

Los ordenadores de esta generación deberían de ser capaces de resolver problemas muy complicados,
algunos de los cuales requieren toda la experiencia, capacidad de razonamiento e inteligencia de las
personas para ser resueltos. Deberían de ser capaces de trabajar con grandes subconjuntos de los lenguajes
naturales y estar asentados en grandes bases de conocimientos. A pesar de su complejidad los ordenadores
de esta generación se están diseñando para ser manejados por personas no expertas en informática.

Para conseguir estos fines tan ambiciosos estos equipos no tendrán un único procesador, sino un gran
número agrupado en tres subsistemas fundamentales: un sistema inteligente, un mecanismo de inferencia
y una interfaz de usuario inteligente.

Los avances se sitúan en materia de teleinformática, y una progresiva disminución de tamaño y coste del
equipo, así como de técnicas de programación y desarrollo de inteligencia artificial, y de control de
procesos (robotización).

A los 10 años, se vio el fracaso del proyecto, actualmente no están desarrollados estos ordenadores,
aunque se trabajó en distintos países, cuyos programas de investigación más importantes fueron:

EE.UU.: Proyectos DARPA y MCC


Unión Europea: Proyecto Sprit
Reino Unido: Proyecto Alvey
Japón: Proyecto ICOT

4.4 Historia de los ordenadores personales

Diseño del primer PC de IBM

El IBM PC, presentado en agosto de 1981, fue un equipo cuyo objetivo era el mercado doméstico, con lo
cual se comprenderán fácilmente las limitaciones existentes en la primera generación.

10 de 31 18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html

Externamente estaba integrado por tres piezas, la unidad central, de sobremesa y de gran tamaño, la
pantalla, monocroma y de modo texto y un teclado. A esto se podía añadir una impresora de nueve agujas,
con la marca IBM pero fabricada por la japonesa Epson.

Por lo que respecta al microprocesador se trataba del


Intel 8088, una versión, con el bus recortado a la mitad
de ancho, del 8086. Esta CPU suponía un avance
respecto a los microordenadores comercializados en esa
época, pues todos eran de 8 bit, a excepción del Olivetti
M20, que incluía una CPU Zilog 8000 de 16 bit, aunque
el 8088 no era un auténtico 16 bit.

El usar la CPU Intel 8088, con bus externo de 8 bit, tenía


una explicación, poder emplear todos los "chips" de
acompañamiento (que en aquella época eran bastantes)
existentes en el mercado, a precio barato, de 8 bit. Si se
hubiera empleado la CPU Intel 8086, como hicieron de
inmediato otras empresas como Olivetti en su M24 y la
desaparecida Victor, todos estos chips habrían de ser de
16 bit, con un precio muy elevado en aquella época.

Así se concluye que IBM, buscó el fabricar un equipo novedoso en su CPU, aunque limitando al máximo
el precio de sus componentes, para mantener un producto de calidad alta, prestaciones superiores frente a
los productos domésticos de la competencia, y a un precio que le permitiera mantener los grandes
márgenes comerciales.

El siguiente vídeo muestra uno de los primeros PCs de IBM, el 5150 mostrando la ejecución de un
programa escrito en ensambaldor para el Intel 8088.

La configuración básica estaba integrada por:

CPU Intel 8088 a 4.77 MHz


64 kO RAM

11 de 31 18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html

Controladora de vídeo modo texto


Controladora de impresora (Centronics)
Monitor exclusivamente de modo texto
Cinta de casette para almacenar datos y programas
Lenguaje BASIC en ROM
Teclado, de 84 teclas

Sin embargo esta versión no se llegó a comercializar pues se sustituyó la unidad de casette por una de
disco flexible de 160 kOctetos de capacidad, y como es lógico con su controladora. A su vez se introdujo
el sistema operativo PC-DOS 1.0, proporcionado, aunque no creado, por Microsoft (en aquella época sólo
era conocida por su lenguaje BASIC) a IBM.

La gran ventaja de este equipo era su facilidad de ampliación debido a los "slots" o zócalos de que
disponía, lo cual dio origen a que un gran número de empresas independientes crearan tarjetas
electrónicas adaptables, que realizaban funciones no disponibles en el PC o que mejoraban las existentes.
Estos zócalos constituyen el tan conocido BUS de expansión del PC, que dio lugar al BUS AT, un
estándar a nivel microinformático, conocido como Bus ISA. Se define como ancho de banda del bus, la
cantidad de bits que puede transportar por unidad de tiempo, siendo inferior a 4 MO/s.

El éxito de este equipo fue superior al previsto por IBM, prueba de ello es que no estuvo disponible en
Europa hasta casi dos años después de su lanzamiento en EE.UU., momento en que se empezó a fabricar
en Escocia (R.U.). Este éxito se debió a la gran fama de IBM, pués en esa época había equipos muy
superiores, como los antes citado de Olivetti y Victor, y a precios más asequibles.

Dado que las especificaciones técnicas fueron hechas públicas por IBM, esto dio origen, como
se ha comentado previamente, al nacimiento de gran cantidad de empresas que crearon tarjetas adaptables
al bus. Entre ellas se pueden citar, por ejemplo, tarjetas con un reloj con batería, pues el PC perdía la hora
al apagarlo, tajetas de vídeo con posibilidades gráficas y que por lo tanto soportaban un monitor gráfico y
a veces en colores, tarjetas de comunicaciones como por ejemplo tipo modem o telex, y otras muchas
posibilidades.

IBM reaccionó con alguna lentitud, presentando algunas mejoras en su PC, conocido como IBM PC XT,
en el que incorporó un disco duro de 20 MO con interface MFM (actualmente desaparecida), con su
controladora, y una tarjeta de vídeo que soportaba monitores en color y gráficos, pero con una resolución
baja (640*200 puntos), que para lo único que servían era para destrozar la vista de los usuarios. A su vez
incluyó disqueteras para soportes con capacidad de 360 kO.

Simultáneamente aparecieron los primeros microordenadores clónicos y compatibles. Por ejemplo, en


EE.UU. Olivetti Docutel presentó el Olivetti PC, una copia casi idéntica del IBM PC XT, aunque con
mejores prestaciones y precio más bajo; en Europa apareció el Olivetti M24, con CPU Intel 8086, y buses
de 16 bit, lo cual lo hizo muy superior al XT de IBM, siendo un gran éxito a nivel mundial (se
comercializó con otras marcas: AT&T, Toshiba, Logabax, Xerox, Hermes ...). A su vez la francesa Bull
presentó un clónico del IBM PC XT, copia exacta, aunque lo raro es que tenía prestaciones inferiores al
de IBM; cosa incomprensible. De esta forma fueron apareciendo equipos que intentaban superar a los de
IBM, pero aun no había dado comienzo la época de los clónicos a bajo precio y montados en base a piezas
fabricadas en Formosa y otros países asiáticos.

La gran difusión de estos equipos, hizo que aparecieran gran cantidad de programas, lo cual reforzó el
liderazgo de los PC's de IBM.

También surgió un equipo de IBM conocido como portable (no portátil), que además de ser bastante
voluminoso, no tenía autonomía eléctrica, es decir había que enchufarlo a la red. Otro inconveniente fue
que la pantalla era de tubo de rayos catódicos, como los ordenadores de sobremesa, aunque de pequeñas
dimensiones, pero con toda la problemática que conllevan para su transporte. Este equipo no era muy

12 de 31 18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html

asequible ni en precio ni en portabilidad, por lo que otras empresas intentaron mejorarlo, así surgió, con
este propósito, Compaq, empresa comprada por Hewlett Packard.

El PC AT de IBM

Al descubrir IBM, que su equipo se estaba usando a nivel profesional, y poco a nivel doméstico, y que por
otra parte la competencia ofrecía equipos con más prestaciones más baratos y totalmente compatibles,
decidió sacar una versión mejorada de sus PC's, que denominó AT (Tecnología Avanzada). Este incluía
una CPU de 16 bit, superior a la 8086, era la 80286 de Intel, cuya principal diferencia repecto a la 8086
era el bus de direcciones de 20 bit, en vez de 16, por lo que podía direccionar mucha más memoria,
aunque en aquella época no era una gran necesidad.

Otra diferencia fundamental, era que los "slots" de expansión constituían un bus de 16 bit, lo cual permitía
utilizar las tarjetas de los XT, a 8 bit, y las nuevas que se crearan para él. Este bus AT se ha convertido en
un estándar (Bus ISA) ampliamente usado hasta hace poco tiempo. A su vez la frecuencia de reloj pasó a
ser de 6 u 8 MHz, frente a los 4.77 del PC original.

Dado que Intel dió licencias para que sus CPU's fueran fabricadas por otras empresas (Fujitsu, Siemens,
AMD, Harris, ...), se abarataron los costes de tal forma, que apareció el fenómeno de los clónicos tal
como lo conocemos actualmente, lo cual perjudicó mucho a IBM, pués el mercado no sólo se distribuía
entre IBM y las marcas de prestigio que comercializaban compatibles (Olivetti, Bull, Compaq, Xerox,
AT&T, Philips, NCR y algunas otras), sino que empresas con pocos medios y con gastos nulos de
investigación, pues gran parte del producto lo copiaban ilegalmente, podían ofrecer equipos clónicos a
precios imbatibles, aunque la mayoría de las veces con una calidad y seguridad para el usuario ínfimas.

La arquitectura de un AT estaba compuesta por:

Fuente de alimentación conmutada


Placa base o placa madre, que incorpora:
CPU Intel 80286 con frecuencia de reloj desde 6 hasta 20 MHz
Memoria RAM de 1 MO. ampliable
Conjunto de chips (ChipSet), que gestionan el sistema
Tarjeta controladora de vídeo, gráfico y color (640*200)
Tarjeta comunicaciones RS 232C
Tarjeta controladora impresora (Centronics)
Tarjeta controladora de dos discos duros MFM y dos disqueteras
Tarjeta para ampliación de memoria
Bus con los "slots" de expansión
Bus Local PC Reloj en tiempo real, con batería
Teclado mejorado de 104 teclas

Parte o en algunos casos todas, las tarjetas indicadas hubo fabricantes que las incluyeron el la placa base,
dejando así más zócals libres en le BUS AT, para posteriores ampliaciones.

Los IBM PS/2

Ante la situación de competencia en la que se vió inmersa IBM, actuó de dos formas, la primera fue exigir
a todos los fabricantes que le habían copiado sus productos el pago de los "royalties" corrspondientes, a lo
cual, dado el inmenso poder de IBM, no se negaron, y por otra parte diseñar una nueva línea de equipos,
legalmente muy difíciles de copiar por su gran detalle de patentes. De esta forma nacieron los IBM PS/2.

Una de las innovaciones de estos equipos era el bus a 32 bit, podían incluir CPU Intel 386, muy mejorado,
en el que se introducian las tarjetas de expansión, pues IBM lo cambió por completo, llamándole
"Microchannel", lo cual dió lugar a los equipos con arquitectura MCA (Arquitectura Microcanal). Otra

13 de 31 18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html

innovación fue el cambio de tipo de monitores, y por lo tanto de controladora, se introdujeron los
monitores analógicos, con una resolución superior a los previamente empleados (digitales) y con una
variedad de colores muy superior. Estas dos innovaciones supusieron que no valía nada de lo anterior y
que además los clónicos, en principio se verían desplazados del mercado.

A su vez se introdujeron nuevas CPU´s de Intel, las 386 y 386SX, con mejoras significativas frente a sus
predecesoras.

La arquitectura MCA fue comercializada por algunos fabricantes aparte de IBM, como por ejemplo
Olivetti, pero con muy poco éxito. Además dado que estos equipos, incluso los de IBM se difundieron
poco todas las tarjetas de ampliación diseñadas para ellos eran caras, lo cual hacía de esta arquitectura un
producto poco atractivo.

Simultáneamente a la aparición de estos equipos se comercializó un nuevo sistema operativo denominado


OS/2, desarrollado entre IBM y Microsoft, aunque las versiones posteriores fueron creadas por IBM;
actualmente ya no se comercializa.

A su vez Compaq creó un bus específico para sus equipos de gama alta, el denominado Triflex, que
comprende tres buses interconectados, uno de 128 bit para la memoria, otro de 64 bit para uno o dos
microprocesadores 486 (a 267 MO/s) y un bus EISA (que se describirá en el apartado siguiente).

El reconocimiento del fracaso de la arquitectura MCA, por parte de IBM, está claro, pués una nueva
generación de equipos que comercializó posteriormente, para uso doméstico, los PS/1, no utilizaban
arquitectura MCA. A su vez como no logró frenar el avance de los clónicos, IBM decidió comercializar
clónicos de países asiáticos, con la marca Ambra, lo cual acabó en fracaso al poco tiempo.

Actualmente IBM ha vendido la división de PC's a la empresa china Lenovo, debido a los bajos márgenes
de beneficios.

EL BUS EISA

Dado que la arquitectura MCA era muy cerrada, un grupo de fabricantes de microordenadores, AST
Research, Compaq Computer, Epson, Hewlett-Packard, NEC, Olivetti, Tandy, WYSE y Zenith Data
Systems, decidieron crear un bus con prestaciones superiores al ISA, pero que a su vez fuera compatible
con él, esto dio origen al bus EISA (Extendido ISA). Sus características eran: 32 bit, ancho de banda de
33 MO/s y frecuencia de reloj 8 MHz.

EISA sólo se ha usado en los microordenadores de gama alta y ha tenido poca difusión, a pesar de sus
ventajas sobre ISA y a valer las tarjetas de expansión existentes, lo cual repercutió en que no se abarataran
los precios.

De forma que en el año 1992 la situación era la siguiente:

Bus ISA, un auténtico cuello de botella


Bus MCA, muy restringido y sin difusión al gran público
Bus EISA, sólo usado en equipos de gama alta

Bus Local PC existiendo demanda para un ancho de banda aún mayor, lo cual daría origen a otros buses.

Bus Local VESA

Es una extensión de la arquitectura tradicional del PC, dado que el bus ISA era cuello de botella, la
solución es conectar algunos dispositivos directamente a la CPU, mediante un bus conocido como bus
local. Este ha de tener el mismo ancho que el microprocesador (16 bit en un 286 o 386SX y 32 bit en un

14 de 31 18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html

386DX o 486), por lo que eran realidad las velocidades elevadas. Lo ideal es conectar a este bus las
controladoras de vídeo y de disco duro, mientras que otras tarjetas que no requieren grandes velocidades
se mantienen en el bus ISA.

Surgieron algunos problemas, pues la CPU no puede soportar la conexión directa de más de dos o tres
tarjetas, además el diseño de la placa base ha de hecerse de forma que las distancias sean mínimas para
evitar retrasos. También es conveniente usar memorias caché.

Su principal ventaja es que cuadruplican el ancho de banda, llegando a 133 MO/s.

VESA es el acrónimo de la Asociación de Fabricantes de Controladoras de Vídeo (Video Electronics


Standars Association), que agrupa a más de 120 fabricantes, y fueron los que lo propusieron, disponible
desde finales de 1992 y desde 1996 fuera de uso.

Este bus va a la misma velocidad que el procesador, siendo una solución sencilla, que no incluye soporte
de DMA ni de interrupciones, lo que obliga a la mayoría de las tarjetas a estar conectadas a los dos buses,
el ISA y el VESA, para aprovechar del primero las caracteristicas de E/S y del segundo el ancho de banda.

Al salir al mercado las placas madre con bus VESA, su precio era algo superior al de las con bus ISA,
hubo una época en que dominaron el mercado, pero han desaparecido del mercado, frente al bus PCI. Para
equipos Pentium sólo se llegaron a fabricar algunas placas VESA.

Bus Local PCI

Introducción

PCI es abreviatura de "Peripheral Component Interface", diseñado por Intel. En 1992 Intel y otras
compañías formaron el PCI Special Interest Group para promocionar, supervisar y mejorar el desarrollo
de PCI como estándar de bus local abierto y no propietario. Este grupo cuenta con más de 160 fabricantes.
Es una solución completa, dado que a diferencia del VESA incluye ventajas como el soporte de
interrupciones y DMA. Lo cual implicaba que necesita tres chips específicos, y por lo tanto un coste
superior.

Las especificaciones del bus local PCI ofrecen un número de beneficios clave:

Altas prestaciones
Compatibilidad
Independencia del procesador.
Flexibilidad de plataforma
Bus Local PC rentabilidad
Soporte futuro

Altas prestaciones
Al contrario del bus local VESA que sólo está pensado para acelerar las
aplicaciones gráficas, PCI es una solución de sistema global. Proporciona
mayores prestaciones para los adaptadores de redes, unidades de disco duro, vídeo animado, gráficos y
otros periféricos que requieren gran velocidad.

Funcionando a una velocidad de reloj de 33 MHz, PCI emplea un bus de datos de 32 bit y ancho de banda
de 132 MO/s, frente a 5 MO/s del bus ISA.

Otras características para permitir operaciones simultáneas, mantener el bus lleno de datos y minimizar
los estados de espera de la CPU, son:

15 de 31 18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html

Ráfagas Lineales.

Es un método de transferencia de datos que asegura que el bus siempre tenga datos. Estas
ráfagas permiten utilizar más ancho de banda para enviar datos en vez de direcciones.

Además PCI es único, pues soporta tanto lecturas como escrituras en ráfaga, muy importante
con aceleradores gráficos, cuando más del 90% de los accesos de datos de la CPU, son
escrituras a la memoria de vídeo desde la memoria principal. Aunque en los nuevos diseños
se está dando otro tratamiento más eficaz a los sistemas gráficos.

Baja latencia de acceso

Los dispositivos diseñados para soportar PCI tienen una baja latencia de acceso, lo que
reduce en más de un orden de magnitud el tiempo requerido para que un periférico obtenga el
control del bus después de requerir el acceso. Por ejemplo una tarjeta de red Ethernet, puede
tener grandes ficheros de datos llegando a su tampón. Esperando acceder al bus, la tarjeta no
puede transferir los datos de los ficheros a la CPU lo bastante rápido para evitar una
sobrecarga del tampón, lo que obliga a almacenar en una RAM adicional los contenidos de
los ficheros. Como los dispositivos PCI soportan tiempos de acceso, la tarjeta de red puede
envBus Local PCiar datos más rapidamente a la CPU, redundando en un precio inferior al no
necesitarse RAM adicional.

Concurrencia y Maestros de Bus

Las mejoras de prestaciones también se logran mediante la posibilidad de PCI de ser maestro
de bus y permitir la concurrencia. En la mayoría de los buses existe el dominio de bus, que
permite a cualquiera de un número de periféricos inteligentes tomar l control del bus para
acelerar las tareas de proceso intensivo de alta prioridad. La posibilidad de concurrencia,
única de PCI, asegura que el microprocesador opera simultáneamente con estos maestros, en
vez de esperarlos.

Compatibilidad
Es compatible, en la arquitectura de placas base, con ISA, EISA y MCA, y a veces también se encuentran
placas que incluyen el VESA. A su vez cualquier tarjeta PCI funcionará con cualquier sistema compatible
PCI, sin que importe el tipo de bus de expansión o Bus Local PCde CPU en uso.

Independencia del procesador


La arquitectura independiente del procesador de PCI dispone de un diseño único de tampón intermediario
entre el subsistema de la CPU y los periféricos. Lo normal es que si se añaden a la CPU más dispositivos,
se degradan las prestaciones y baja la fiabilidad. El uso del tampón permite a los usuarios ampliar su
sistema al añadir múltiples dispositivos periféricos e introducir variaciones de prestaciones a diferentes
velocidades de reloj. El diseño independiente del microprocesador aseguran que los diseños de las placas
no se quedarán obsoletos.

Soporte de plataforma flexible


PCI proporciona una solución de bus local económica para cualquier tipo de equipo, no sólo los normales,
sino para los servidores y los portátiles

Rentabilidad
PCI se diseñó con un objetivo de bajar los costes globales de los desarrollos. Utiliza "chips", ya sean
fabricados por Intel o por otras empresas como VIA y Opti, altamente integrados, para incorporar
funciones de sistema como controladores de DRAM y caché, eliminando costes y espacio asociados con
la circuitería de soporte, Frente a los chips VESA con 80 patillas, los PCI son más pequeños, pues
multiplexan los buses de datos y direcciones.

16 de 31 18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html

Desarrollos posteriores del bus PCI


Dado que la arquitectura de este bus es muy flexible, se efectuó un desarrollo específico para equipos de
aplicaciones industriales. Empresas de dicho entorno crearon unas especificaciones dando lugar al
denominado Compact PCI, que ofrece la posibilidad de diseñar ordenadores con dimensiones reducidas,
(placas de 160 * 100 mm) soportando ambientes agresivos. Otra de las ventajas es que se pueden crear
puentes con otros buses estándares en la industria, como VME y STD.

La versión 2.2 de las especificaciones, ofrece como novedad más importante, que los nuevos equipos de
acuerdo con esta versióm, permiten el intercambio de placas en el bus, sin necesidad de apagar el
ordenador. La última versión está operativa desde junio de 2004 y se denomina PCI Express, siendo muy
superior en prestaciones respecto al bus AGP, que se creó para mejorar la velocidad de acceso de los
controladores gráficos al micrprocesador del ordenador.

Comparación entre buses

Bus 1394 FireWire Nº V. Ancho


Nombre
bit MHz MO/s
En 1995 el "Institute of Electrical and Electronics Engineers (IEEE)"
ISA 16 8 <4
estableció las bases de un nuevo estándar, el bus serie de elevadas
pretaciones IEEE1394. Desde 1986 se ha tendido a unificar los MCA 32 10 33
diferentes buses en serie, la aparición de nuevos dispositivos grandes
consumidores de un gran ancho de banda, como los DVD, ha dado VESA 64 =CPU 133
lugar al nacimiento de las especificaciones del bus Firewire. Esta
norma se puede resumir en los siguientes puntos: PCI 32 33 133

Transferencia de datos en tiempo real para aplicaciones PCI-E 8


32 >33
multimedia. GO/s
Flujos de transferencia de hasta 200 MO/s, ampliable en el
futuro hasta 800 MO/s.
Conexión en caliente (sin desconectar la alimentación eléctrica), sin pérdida de datos.
Topología de red flexible, incluyendo al de bus y en grafo.
Sin necesidad de terminadores en los extremos.
Conectores comunes para todos los componentes
Posibilidad de conectar entre sí hasta 63 dispositivos

Presenta ventajas frente al resto de buses, incluso frente al USB, aunque no puede competir en precio.
Frente al bus PCI, de momento es más lento. Los productos más usuales con este bus son, cámaras
digitales, cámaras de vídeo, discos, sistemas de captura, cintas DAT (Digital Audio Tape), CD's, ZIP's,
sistemas de almacenamiento magnetoópticos e impresoras.

Tutoriales y recursos sobre IEEE1394

Fundamentos de Firewire. Proporcionados por Embedded Systems Programming. Ofrece una visión
de esta tecnología.
IEEE 1394-1995 Sumario del estándar. Autor Michael D. Johas Teener of Zayante (formato PDF).
P1394a & P1394b Sumario.
IEEE 1394 visión técnica. Proporcionada por Texas Instruments.
1394 Open Host Controller Interface.
Visión de FireWire/1394 . Proporcionada porAdaptec.

USB - Universal Serial Bus

17 de 31 18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html

Este bus serie, creado por un amplio consorcio de empresas, permite conectar más que ordenadores y
periféricos. Puede conectarse con hasta 127 dispositivos como fotografía digital, monitores, teclados,
ratones impresoras y escáneres. Está reemplazando rapidamente a otras interfaces como la centronics y la
serie RS 32C.

El estándar más reciente es el 2.0, que permite una velocidad de transmisión desde 12 Mb/s hasta 480
MB/s y es compatible con la versión previa. La conexión se transmite mediante un par de cables, de hasta
cinco metros de longitud, mientras que por otro par circula la información de retorno.

4.5 Historia de Internet

La agencia ARPA y su misión

En 1958 se organizó en los EE.UU. la agencia gubernamental de investigación, ARPA (Advanced


Research Projects Agency) creada en respuesta a los desafíos tecnológicos y militares de la U.R.S.S. de la
cual surgirán una década mas tarde los fundamentos de la futura red Internet. La agencia, bajo control del
Departamento de Defensa se organizó en forma independiente de la comunidad de investigación y
desarrollo militar.

Su misión durante las próximas décadas la llevará a desarrollar y proveer aplicaciones tecnológicas no
convencionales para la defensa de EE.UU. ampliando la frontera tecnológica a favor de una organización
reducida en número, pero flexible, libre de condicionamientos y dotada de científicos de elite. ARPA será
la responsable de una gran parte de la investigación en ordenadores y comunicaciones de carácter
innovador en EE.UU. durante los próximos años.

Inicio. Los grandes ordenadores

Como se ha visto, hacia la década de 1960, los ordenadores eran máquinas grandes e inmóbiles, no podían
comunicarse entre ellas y la transmisión entre usuarios tampoco era posible. Para usar un ordenador
diferente del propio, el usuario debía trasladarse físicamente al otro o usar soportes de almacenamiento
con los programas y datos a usar. Científicos de diferentes universidades estaban frustrados, compartir
información con sus colegas era una labor muy ardua y compleja. Los investigadores más afortunados
eran capaces de comunicarse mediante terminales que usaban modems. Pero el uso de teléfono era
costoso, y los científicos trataron de encontrar mecanismos más eficientes de usar las líneas telefónicas
para transmitir datos. Un sistema, llamado multiplexor permitía a cada uno tener una fracción de tiempo
en la línea telefónica.

1962 Se pueden enviar mensajes.

Hacia finales de la década de 1960, durante la Guerra Fría, Paul Baran y sus colaboradores en Rand
Corporation mantenían sus mentes fijas en un problema: Si las redes de ordenadores fueran dañados por
una guerra nuclear, ¿cómo podría el ejército estadounidense continuar comunicándose?

Una de las respuestas fue mediante una nueva forma de multiplexor que debería descomponer cada
comunicación en pequeños segmentos llamados "mensajes". Una red - consistente en ordenadores
conectados por líneas telefónicas - debería enviar esos mensaje rápidamente. Cada mensaje debería
contener información de la ruta a seguir, de modo que cada máquina del sistema debería saber a donde
enviar cada mensaje. Esta combinación de mensajes titulados más componentes de red pequeños
permitiría que la información siempre estaría disponible y que la red siempre se mantendría funcionando.

El Sistema de Baran no fue del todo intuitivo, ingeniosamente descartó la noción de que el camino más
corto entre dos puntos es la línea recta, en cambio, estuvo diseñado para el mejor servicio posible, lo más

18 de 31 18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html

duradero posible, para el mayor número de usuarios posible y bajo las peores condiciones imaginables.

Esta técnica se denominó "conmutación de paquetes". Los primeros nodos de conmutación fueron
creados bajo la dirección de Donald Davies en el Laboratorio Nacional de Física, Inglaterra.

Los laboratorios de red en 1960 eran locales, operaban solamente en un edificio. Grandes aplicaciones
empezaron a aparecer con el nuevo invento.

1963 La Red Intergaláctica de ordenadores.

JCR Licklider, pionero de la computación, tuvo por primera vez una visión de algo parecido a un sistema
Internet. El líder de la Oficina de tecnología de procesamiento de Información de la Agencia Americana
de Proyectos de Investigación Avanzados (ARPA) envió un memorando premonitorio a los "Miembros y
afiliados de la Red Intergaláctica de Computadoras"

En esta comunicación Licklider sostenía que los ordenadores podrían ayudar a los investigadores a
compartir información. También predijo un día en el que comunidades de personas con intereses comunes
podrían comunicarse con otros - Presentaba una visión nueva.

En el laboratorio de Lincoln en Massachussets el experto en ordenadores Larry Roberts tuvo una visión
similar. Roberts vislumbró los beneficios potenciales de las redes de ordenadores trabajando juntos; como
Licklider, él creía que el trabajo de red debería constituir una comunidad de uso de sistemas informáticos.

Trabajando con Thomas Marill, Roberts usó una línea telefónica dedicada para conectar su computador
TX-2 al ordenador de Systems Development Corporation en Santa Mónica.

Mientras este enlace rudimentario permitió a su ordenador ingresar en el otro y ejecutar programas en
este, se hizo, pero con costos prohibitivos y no prácticos. Pero era sólo el inicio.

1969 Cuestiones clave

En 1966 la oficina de Tecnología de procesamiento de Información de ARPA proporcionó facilidades a


17 centros en todo EEUU. Para una afortunada minoría ARPA cubría los costos de líneas telefónicas a
larga distancia para que los investigadores clave puedan usar recursos de ordenadores directamente desde
sus oficinas. Bob Taylor uno de aquellos pocos afortunados.

Un Psicólogo que trabajaba con J.C.R. Licklider en IPTO, Taylor, tenía tres terminales en su oficina.
Cada con una línea telefónica separada que conectaba a un ordenador distante. Las tres terminales de
Taylor lo conectaban con: MIT, Berkeley y la Corporación de Desarrollo de Sistemas en Santa Mónica,
respectivamente.

Pero Taylor no estaba conforme. Un día, sentado frente a sus tres ordenadores, se preguntó ¿Por qué
necesitaba él todo aquello? Por qué no se hacía que un terminal pudiera conversar a todos los ordenadores
a través del país o una red que conecte a ellos. ¿Porqué un terminal no podría hacer todo esto?

Las bases de Internet fueron planteadas.

1969 - Nacimiento de ARPANET

ARPA dio la respuesta a las preguntas clave de Bob Taylor, encargó la construcción de una red de
ordenadores experimental. Basados en la tecnología de intercambio de paquetes de Paul Baran, esta Red
de la Agencia de Projectos de Investigación Avanzada (Advanced Research Projects Agency Network) o
ARPANET, ayudaría a los investigadores a trabajar más eficazmente y explorar rumbos para las redes de
computadoras.

19 de 31 18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html

Una compañía de Cambridge, Mass., llamada Bolt, Beranek and Newman ganó el contrato para construir
los conmutadores de paquetes, o Interface Message Processors (IMPs), que serían usados como nodos de
ordenadores para esta nueva RED.

En Setiembre de 1969, el primer IMP llegó a la UCLA, un centro de investigación fundado por ARPA.
Los científicos de Computadoras Len Kleinrock y los estudiantes graduados Vinton Cerf llamaron a la
matriz de UCLA; su curiosidad sobre la arquitectura de la red los llevó a la creación del Centro de
Medición de Red de ARPA. EL equipo haría el seguimiento de todo lo que podría hacer la comunidad
ARPA

Pocas semanas después los IMPs fueron cambiados al Instituto de Investigación Stanford en Menlo Park,
California. El cual proveía el nuevo Centro de Información de Red; la Universidad de California en Santa
Bárbara la cual alojó el sistema Interactivo en l ínea UCSB; y la Universidad de Utah en Salt Lake City,
donde ordenadores para gráficos estaban en su inicio. Una vez que ellas hubieron conectado por medio de
líneas telefónicas, los IMPs en estos cuatro sitio empezaron a intercambiar paquetes a larga distancia y
nació ARPANET

Las cosas ya no volverían a ser las mismas

1972 Comienza la fiesta de Arpanet

La Red ARPANET inicialmente brindó tres servicios: Acceso a ordenadoras remotos y otros dispositivos
como un terminal de usuario remoto (actualmente denominado Telnet), compartir información a través de
la transferencia de archivos, e impresión remota o salida a impresoras en otras ubicaciones.

Sorprendentemente, el e-mail entre ordenadores conectados no estuvo entre la oferta inicial. "No
sabíamos que e-mail era importante" confesó después Vint Cerf de UCLA "No estábamos seguros de qué
es lo que ocurriría con el tiempo", no fue sino hasta años después que primer mensaje de e-mail de
ARPANET fue enviado.

A medida que ARPANET crecía, hacia 1971, fue expandida hasta 15 nodos y en 1972 incluía 37, los
miembros no estaban satisfechos.

ARPANET tuvo su presentación en octubre del año siguiente, cuando ARPANET IMP y un terminal
multiplexor fueron configurados en la Conferencia Internacional en Comunicaciones de Computadora. En
Washington DC. "Esta fue la primera demostración en público de los que podía hacer la conmutación de
paquetes, y esto haría que la gente tome esta tecnología seriamente", dijo Bolt, Beranek and Newman's
Alex McKenzie.

El evento fue un éxito, los expertos dijeron que el potencial de la Red estaba en crecimiento. En la década
siguiente en un ordenador se conectaba a la red cada 20 días con la posibilidad de que cientos o miles de
personas compartieran una de cualquiera de esos equipos.

La comunidad informática se empezó a hablar abiertamente de una red global.

1981 El clan del ARPANET

Las dos redes más importantes formadas para centros de educación y enseñanza fueron CSNET
(Computer Science NETwork; posteriormente the Computer+ Science Network), and BITNET ("Because
It's Time" or "Because It's There" NETwork). Muchas otras redes para propósitos especiales se
desarrollaron en todo el mundo como la red de paquetes por satélite, paquetes para la comunicación de la
voz y las paquetes de radio.

20 de 31 18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html

Por enlazar usuarios con intereses comunes, ARPANET y sus redes compañeras tuvieron un importante
impacto técnico y social. Quienes compartían entusiasmos extracurriculares formaron la "comunidad
virtual de interés", usuarios con una curiosidad común dentro de Internet misma que formaron los "net
communities" para explorar todo desde algoritmos de rutas hasta la demografia de la red.

Los científicos empezaron a comunicarse colectivamente por medio de las listas de correo electrónico
rápidamente desarrolladas. Miles de discusiones florecieron sobre todos los tópicos inimaginables. A
nadie sorprendió que uno de los primeros y mejor enterados grupos de discusión fue los "sf-lovers"
conformado por los admiradores de la red de ciencia ficción.

1983 TCP/IP: el Esperanto de la computación.

El desarrollo de redes fuera de ARPANET creó nuevos competidores. Tenían dificultades en


interconectarse, debido no precisamente al hardware (diferentes ordenadores podían utilizar ARPANET)
sino más bien a la incompatibilidad en los protocolos de comunicación. Aun el satélite del propio ARPA
y las redes de paquetes de radio no podían conectarse a ARPANET

Ante esto ARPA auspició el desarrollo de un nuevo estándar de comunicación llamado Transmission
Control Protocol/ Protocol Internetwork (TCP/IP), que fue un conjunto de protocolos que permitían la
conexión de las redes, ordenadores de diferentes redes podrían ahora comunicarse una con otra. Cada red
utilizó IP para comunicarse con las otras. Debido a que los científicos se referían a la "red de redes" como
"Internet" este nuevo grupo de redes que utilizaban TCP/IP empezó a ser conocido como Internet.

El Nacimiento de "Internet

A finales de la década de 1970 muchas redes de investigación, del gobierno y educativas utilizaban
TCP/IP. Pero el ARPANET y la red de información de defensa no realizaron el cambio oficialmente sino
hasta el uno de enero de 1983. Fecha del nacimiento oficial de Internet

Tanto ARPANET como Internet continuaron su desarrollo en tamaño e importancia. Proporcionaron


medios para la comunicación y cierta forma de convivencia entre los científicos de todo el mundo,
permitiéndoles trabajar juntos, compartir información y la utilización de fuentes distantes.

1988 Intrusos en Internet.

A pesar de su gran crecimiento, Internet permaneció siendo desconocida para el publico hasta Octubre de
1988 cuando un programa intruso o "worm" origino algo devastador.

Internet worm empezó su vida como un simple programa lanzado por el estudiente Robert Morris Jr. Más
destructivo que un virus de computadora el "worm" activaba el envío de copias de si mismo por Internet a
otros ordenadores donde a su vez cada copia se multiplicaba. Antes que el "worm" fuera exterminado
miles de ordenadores habían sido sobrecargadas o fueron deliberadamente desactivadas por cuestiones de
seguridad.

Por primera vez, pero difícilmente la ultima, Internet apareció en las noticias.

Desde ese entonces programadores y expertos en seguridad crean nuevas herramientas para combatir
cualquier escalada de guerra tecnológica y en búsqueda de informes y problemas de abuso de la red.

1990 Archie aparece en escena

Como es de suponer el crecimiento del número de usuarios y el volumen de información disponible había
originado una especie de jungla de información, en la que no existía mapa o referencia alguna. A finales
de los 80 y principios de los 90 desconcertados usuarios idearon herramientas para localizar y ordenar la

21 de 31 18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html

información.

Estos lineamientos ayudaron a su vez a otros usuarios a encontrar el camino y transformaron a Internet en
un mundo amigable para el usuario.

"Archie fue el primero de estos programas que permitía a los usuarios obtener una lista de direcciones de
Internet "FPT holdings" con una simple consulta.

1990 FIN DE ARPANET

El uno de junio de 1990 ARPANET fue desinstalado. Los lugares donde ARPANET había sido
originalmente conectado fueron reemplazados por otras redes nuevas en Internet.

1991 El más popular "Gopher" "Archie" fue seguido por Gopher quien se convirtió en el "Navegador en
Internet" más popular. Les permitía a los propietarios de la información organizar sus datos en menús.

Los usuarios podían entonces ver, desplazarse y hacer selecciones desde ese menú

El éxito de Gopher fue tremendo, en dos años miles de servidores Gopher se unieron a la red en todo el
mundo, cada uno con su colección de directorios, archivos y punteros a información en otros Gophers.

Pero su éxito creaba un problema obvio: ¿Cómo encontrar algo en el "gopherespacio" ya que el plan
original no contemplaba un índice?

La solución fue una solución similar al Archie, llamado Verónica (Very Easy Rodent Oriented Net-wide
Index to Computarized Archieves) desarrollado por dos estudiantes, la base de datos Verónica tenía hacia
1993 más de un millón de entradas desde el menú Gopher.

1992 Tejiendo la Red

Mientras tanto, en Suiza, Tim Berners-lee ideó una manera de organizar la información basada en Internet
y los recursos que él necesitaba para sus investigaciones . Llamó a su sistema el World Wide Web,
conocida también como WWW o W3.

Para conectar piezas individuales de información, Berners-Lee usó hipertextos, que contienen punteros y
direcciones a otros temas.

Señalando un hipertexto el usuario le dice a su ordenador "toma la dirección asociada y vamos para allá")
Las direcciones en un documento Web, llamados URL (Universal Resource Locator) apuntan a enlaces en
cualquier lugar de Internet.

Berners-Lee diseñó la Web para investigadores en alta energía. El WWW también empezó a ser usado
para navegar y ver su propia información en Línea.

1993 Mosaic

Marc Andersen, del National Center for Supercomputing Applications (NCSA) diseñó MOSAIC, un
navegador por el Web que hizo más accesible y amigable.

MOSAIC permite a los usuarios recuperar elementos multimedia con una simple pulsación de ratón y no
necesitan elaborar documentos complicados para publicar gráficos, imágenes, etc.

La combinación de Web y Mosaic y programas similares como Netscape Internet Navigator y Opera han
transformado la apariencia de la red, formando una red mundial de texto y recursos, la red empezó a

22 de 31 18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html

incorporar multimedia e información a color.

Desde 1997. La red hoy

A lo largo de su historia, Internet se ha transformado a sí mismo no sólo para las necesidades y deseos de
sus usuarios, sino la visión de sus pioneros como Paul baran, J.C.R. Licklider y (más recientemente) Tim
Berners-Lee y Marc Andersen. Su trabajo ha permitido a la gente a través del mundo formar parte de esta
comunidad Global.

Durante los últimos años, Internet se ha ido haciendo virtualmente accesible para cualquier persona. Más
del 80% de los estadounidenses puede tener acceso a internet por 20 US$ mensuales, este uso está
incrementándose exponencialmente. Se han creado abundantes empresas proveedoras de acceso a
Internet, quienes ofrecen el acceso con tarifa plana.

En España ha disminuido de forma considerable el precio de las conexiones teléfonicas a Internet y se ha


mejorado la calidad con la implantación de operadoras de cable por televisión.

Internet se ha convertido en una oportunidad de negocio. Las empresas están tratando de determinar cuál
será el modo en que este mundo virtual recibirá los productos y usuarios mañana. A su vez se ha
convertido en un intercambio anárquico de información, es un fenómeno cultural vertiginoso del cambio
del mismo mundo.

Unos 446 millones de personas usaban internet a fines de 2001 a nivel mundial y cerca de la cuarta parte
estaba en Estados Unidos mientras que sólo el 4% en América Latina. Existen 133.4 millones de
internautas en América del Norte (30% del total), 139.3 millones en Europa (31%), 145.9 millones en
Asia Pacífico (32%), 22 millones en América Latina (4%) y 5.3 millones en Africa (1.2%), según el
estudio de la empresa eMarketer. Cerca de 119 millones de ellos (26%) están en EE.UU. Las estadísticas
actualizadas de toda América se encuentran en el enlace: Éxito exportador.

En España, la Asociación de Usuarios de Internet , mantiene datos actualizados sobre uso en España.

Lo más reciente

En enero de 2003, la empresa aérea Lufthansa probó el acceso a internet en el trayecto a Washington,
gracias a la incorporación de servicios inalámbricos de banda ancha en los aviones. No pasó de ser algo
experimental. En abril de 2008 la aerolínea francesa Air France ha incorporado en algunas rutas estas
prestaciones para los usuarios en general.

Actualmente se empieza a difundir un nuevo concepto de internet, la web 2.0, se refiere a la transición
desde las webs tradicionales a aplicaciones web residentes en sevidores y destinadas a usuarios. Los
propulsores de este pensamiento esperan que los servicios de la Web 2.0 sustituyan a las aplicaciones de
escritorio en muchos usos. Actualmente ya se están dando los primeros pasos para la implantación de la
web semántica, que se concoe como Web 3.0

Enlaces recomendados:
- Web 2.0 Enlaces de interés
- Las 20 herramientas Web imprescindibles

Primer apretón de manos a través de

23 de 31 18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html

Internet
Por Glenys Álvarez
El mundo virtual se anota un rotundo éxito con el primer experimento sobre tecnología
háptica. Esta nueva ciencia se encarga del estudio del tacto y su manipulación a través de
aparatos electromecánicos. Uno de los primeros laboratorios hcpticos se originó en el
Instituto de Tecnología de Massachussets (MIT) y fue fundado por Mandayam
Srinivansan, quien lo bautizó como el Laboratorio del Tacto. Srinivansan ha estado
trabajando con unos nuevos aparatos llamados "fantasmas", creados por la compañía
Sensable Technologies. Los fantasmas tienen como misión transmitir seccales táctiles
entre personas que comparten el mismo espacio virtual. Estos robots logran semejante
hazaña transmitiendo impulsos pequeños en frecuencias sumamente altas a través de la
red. En mayo pasado, el doctor Srinivansan, junto a un equipo de la Universidad de
Londres dirigido por el profesor Mel Slater, consiguió darse el primer apretón de manos en
el mundo virtual. Un evento bastante precoz dado el corto tiempo que tenemos utilizando
el Internet.

Sin embargo, a veces parece que los científicos trabajan con resultados que se parecen más
al mundo del futuro que a la realidad actual. Este novedoso ensayo es el comienzo
triunfante de una nueva era en Internet que aún nos parece rústica, como las pantallas
verdes de los primeros ordenadores. A pesar de que este nuevo avance tecnológico fue un
éxito contundente, los investigadores aseguran que aún es muy temprano para
comercializarlo ya que se necesitan elementos que aún no están disponibles para el público
en general. Entre estos obstáculos se encuentran las limitaciones en la velocidad, en la
anchura de la banda y en el tipo de fibra óptica que se utilizó para este peculiar ensayo. No
obstante, una vez se sobrepasen todos estos obstáculos, las personas del futuro serán
capaces de sentir y tocar a través del Internet.

Mientras tanto, la nueva tecnología aún está en pañales, pero en paños que han funcionado
muy bien hasta el momento. Lo primero que necesitaron los equipos para funcionar fue
una fibra óptica diferente con banda extremadamente ancha. Pero lo más importante era la
velocidad, la rapidez con que pudiesen ser enviados los datos a través de estas fibras. Los
científicos necesitaban un retraso de nO más de 130 milisegundos para que ambos
participantes pudiesen sentir los impulsos enviados por el otro. Los equipos utilizaron una
computadora y un aparato que se asemeja a un brazo robótico y que sustituyó al ratón
clásico de ordenador. Este brazo tiene al final una pieza que se asemeja a un lapicero o
lápiz que el usuario tiene que agarrar para sentir lo que está pasando en el mundo virtual.
El robot lo que hace es enviar impulsos de tacto que recoge la fuerza precisa de los dedos
de la persona que lo sostiene. Estos impulsos son enviados lo más rápido posible hasta el
otro lado, en datos que el fantasma del usuario receptor puede leer e interpretar.

"La persona no sólo es capaz de sentir el toque del otro sino que además podrá destacar
ciertas cualidades del objeto que está tocando. Sabrá si su textura es suave o dura, si usted
está en pañales, pero en paños que han funcionado muy bien hasta el momento. Lo primero
que necesitaron los equipos para funcionar fue una fibra óptica diferente con banda
extremadamente de madera el objeto o si es carnoso", explicó para la BBC el profesor
británico, Mel Slater. Durante el experimento, el objetivo no sólo fue un apretón de manos
virtual sino que también se llevó a cabo una actividad cibernética a través del tacto. Los
investigadores crearon una habitación virtual que iban a compartir los científicos en
Londres y en Boston. Dentro de esta "ciberhabitación" se encontraba un cubo negro
enorme que los investigadores tencan que levantar y mover utilizando el brazo robótico.

24 de 31 18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html

"La persona del otro lado siente si estoy halando o empujando el cubo y el secreto
principal de todo esto es la velocidad. Si los datos no son enviados de forma continua, el
robot no entenderá los impulsos como son lute;n está en pañales, pero en paños que han
funcionado muy bien hasta el momento. Lo primero que necesitaron los equipos para
funcionar fue una fibra óptica diferente con banda extremadamente eídos por el fantasma
que los envía. Es interesante lo que hemos logrado ya que el sentido del tacto ha sido el
más difícil de reproducir en el Internet. Se ha conseguido utilizando una velocidad de más
de 1000 Hertz. Así, de la misma forma en que el cerebro interpreta imágenes fijas como si
estuvieran en una película en movimiento, similarmente los fantasmas integran los
impulsos recibidos para producir una sensación continua de tacto", explicó Slater.

A pesar de que el experimento se llevó a cabo por primera vez el pasado mayo, fue sólo en
esta semana que los científicos lo hicieron úblico durante una conferencia. La reunión se
lleva a cabo en Estados Unidos, específicamente en la Universidad del Sur de California y
está dirigida por el proyecto Internet2. Internet2 es un esfuerzo tecnológico de 200
universidades para mejorar la tecnología, está en pañales, pero en paños que han
funcionado muy bien hasta el momento. Lo primero que necesitaron los equipos para
funcionar fue una fibra óptica diferente con banda extremadamente gía virtual, el mundo
tridimensional cibernético y la interacción entre hombre y máquina a través de la red.
Actualmente, el proyecto está poniendo mucho énfasis en el desarrollo de técnicas para la
manipulación háptica a través de sistemas computacionales.

El cubo negro y la habitación cibernética


Para probar sus brazos robóticos, los equipos crearon un cuarto virtual donde ambos
usuarios realizarían el experimento. Dentro del cuarto, los investigadores crearon un cubo
negro y grande que los sujetos tenían que levantar y mover. El truco estaba en que los
movimientos iban a ser originados por lo que la otra persona sentía que el compañero
estaba haciendo. Los usuarios entraron al cuarto virtual y, cada uno desde su escritorio,
agarró el brazo robótico o fantasma, por la parte posterior donde tiene el pequeño lapicero,
y comenzón está en pañales, pero en paños que han funcionado muy bien hasta el
momento. Lo primero que necesitaron los equipos para funcionar fue una fibra óptica
diferente con banda extremadamente te; a trabajar. En seguida, la otra persona sentía si su
compañero de juego estaba empujando el cubo o si lo jalaba, de esta forma, éste está en
pañales, pero en paños que han funcionado muy bien hasta el momento. Lo primero que
necesitaron los equipos para funcionar fue una fibra óptica diferente con banda
extremadamente l podría coordinar sus movimientos de acuerdo con lo que el otro hacía.
Así, ambos equipos consiguieron manipular el enorme cubo a través de sensaciones
táctiles que llegaban desde casi cinco mil kilómetros de distancia. Los investigadores
también se saludaron utilizando el tacto que leían sus fantasmas. Mel Slater, director del
equipo londinense aseguró que no sólo es posible sentir el toque de la persona desde el
otro ordenador, sino que también es posible diferenciar cualidades de los objetos. "Puedes
sentir si la cosa es de madera o si es de carne, si es suave o dura, si empuja o no. Ha sido
una experiencia extraordinaria", concluyó Slater.

Sindioses.org

Se permite la reproducción de este ensayo para fines educacionales y/o científicos siempre y cuando
se mencione claramente nuestro sitio web, así como el nombre del(a) autor(a) del mismo. Se prohibe
su reproducción con fines comerciales. /font>

25 de 31 18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html

Internet multiplica por 3500 veces la velocidad de transmisión de datos

Por primera vez en la historia se ha conseguido enviar mediante fibra óptica 6.7 gigas de
información, que es el equivalente a dos películas de DVD, un total de cuatro horas de visionado, a
través de 11000 kilómetros en menos de un minuto.

Según relata la revista Wired, la información fue enviada sin comprimir a 923 megabits por segundo
durante 58 segundos desde California hasta Holanda, lo que supone una velocidad 3500 veces
superior a la conexión doméstica de banda ancha.

Aunque desde 1984 se duplica cada año la velocidad de transmisión de datos a través de Internet, en
esta ocasión se ha producido un salto sin precedentes que centuplica las posibilidades operacionales
de la red de redes.

Para los científicos del Centro de Acelerador Lineal de Stanford, artífices de la proeza, en el futuro
las aplicaciones de este sustancial aumento de la velocidad de transmisión tendrá múltiples
aplicaciones prácticas.

Colectivos beneficiados

Entre ellas destacan la posibilidad de que un equipo de médicos pueda discutir en tiempo real, a
través de Internet, el diagnóstico de un paciente en situación de riesgo e incluso analizar sus
radiografías.

También tendrá aplicaciones en el campo de la física de partículas, toda vez que diferentes grupos de
investigación podrán colaborar entre ellos sin necesidad de realizar viaje alguno, utilizando esta
velocidad de transmisión para la transferencia de datos.

Otros campos que se beneficiarán directamente de esta tecnología son las investigaciones que se
desarrollan en el marco del Genoma Humano, así como en astronomía.

El Proyecto Genoma Humano podría transferir sus enormes bases de datos más rápidamente sobre
Internet. De la misma forma, los astrónomos podrán compartir datos de telescopios localizados en
diferentes partes del mundo y los físicos de partículas intercambiar en tiempo real datos de
laboratorios muy distantes entre sí.

Impacto generalizado

El impacto también puede ser generalizado, ya que la demanda de banda ancha en Internet tiene
grandes expectativas a las que el experimento de Stanford podría dar satisfacción.

Un estudio de IDC revela al respecto que el crecimiento de las conexiones de banda ancha podría
duplicarse en los próximos cinco años, lo que supondría pasar de los 180 petabits actuales a los 5200
petabits en 2007.

Para hacernos una idea de lo que esto significa, IDC desvela que en la actualidad la Biblioteca del
Congreso de Estados Unidos, accesible desde Internet, representa una capacidad de memoria de 10
Terabytes y que, si sus previsiones se cumplen, en 2007 el tráfico diario de Internet será 64000 veces
mayor que el peso que representa hoy la Biblioteca del Congreso.

Dado que la carga necesaria para soportar este tráfico será colosal, han surgido dudas sobre la
capacidad de Internet para aceptarla, por lo que el experimento de Stanford puede venir en ayuda de
esta hipótesis de desarrollo de la red de redes.

26 de 31 18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html

Premiados los creadores de internet

Internet ha revolucionado completamente los procesos de transmisión de la información, permitiendo


que ésta fluya sin restricción por todo el mundo. Este trascendental proceso de investigación y
desarrollo ha sido liderado por diferentes personas y equipos que, con una gran visión de futuro, han
diseñado y establecido los protocolos, la tecnología de interconexión y los servicios de accesibilidad
que han hecho posible lo que hace sólo unos años era una utopía. Los trabajos de Lawrence Roberts,
Robert Kahn, Vinton Cerf y Tim Berners-Lee constituyen, en este sentido, un definitivo avance al
servicio de la humanidad.

El jurado del Premio Príncipe de Asturias de Investigación Científica y Técnica 2002, reunido en
Oviedo, concedió dicho premio a los creadores de internet.

Vinton Cerf (1943-)

Fue el creador, junto con Robert Khan, del protocolo TCP/IP, usado actualmente para la conexión de
ordenadores en internet, sin el cual no habrían alcanzado el desarrollo actual las redes de
ordenadores. Vinton diseñó entre 1982 y 1986 el primer servicio de correo electrónico de internet,
denominado MCI MAIL, precursor de los sistemas actuales.

Actualmente colabora con la NASA (EE.UU.) en el diseño de una ampliación de internet a nivel
interplanetario.

Lawrence Roberts (1937-)

Fue el responsable de la sistematización de las fórmulas que permiten el enrutamiento y localización


de los servidores en las redes. Trabajó en una de las primeras empresas que usaron la conmutación de
paquetes, desarrollando el protocolo X25.

Actualmente dirige la empresa Caspian Networks, dedicada a la investigación sobre redes. Sus
proyectos están dirigidos a la optimización y mejora de internet.

Robert Khan (1938-)

Fue coinventor de los protocolos TCP/IP que simplificaron la conexión de ordenadores de muy
distintas características. Fue el responsable de la puesta en marcha de la Agencia de Proyectos
Avanzados para la Defensa de EE.UU: (DARPA). Organizó la primera demostración pública de
Arpanet, en Octubre de 1972, en Washington D.C, Este mismo año pasó a ser director del IPTO,
dependiente de DARPA; desde este lugar inició el programa multimillonario del gobierno
norteamericano: Strategic Computing Program, lo que supondrá el mayor paso dado hasta aquel
entonces en la investigación informática.

Actualmente trabaja en la tecnología IP, en su nuevo formato IPv6, que permite un rango muy
superior, frente a la actual, de direcciones.

Tim Berners-Lee (1955-)

Físico del Reino Unido, cuando trabajaba en el CERN en Ginebra (Suiza), en un laboratorio de
partículas elementales, se le ocurrió en 1990 aplicar las ideas del hipertexto a las redes de
ordenadores, dando lugar a "World Wide Web", dando lugar a la gran difusión que ha logrado

27 de 31 18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html

internet.

Desde 1994 trabaja en la organización W3C (World Wide Web Consortium) que dicta estándares
sobre la red.

Enlaces de interés dentro de esta web:

Historia de los primeros lenguajes de programación

La prehistoria de la informática

Los primeros ordenadores

Historia de la Informática. La era electrónica

Historia de los miniordenadores

Historia de la microinformática

La informática en un garage

Historia de la microinformática 1981-1983

El nacimiento de la informática en Gran Bretaña

Lenguaje FORTRAN

Enlaces de interés:

Asociación Técnicos de Informática. Una breve historia de internet

Arroyo Galán, Luis. Hitos, museos y referencias.

AúnMás.com. Enciclopedia Latinoamericana.

Bernal, Manuel. Encicloperdia personal de computación

Brian RANDELL. Le projet COLOSSUS et la Seconde Guerre mondiale

Ciberhábitat. Ciudad de la informática. México

Creadores de los lenguajes de programación

Lurueña Jiménez, Sonia. Historia de la informática

28 de 31 18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la... http://www.um.es/docencia/barzana/II/Ii04.html

Marco Such, Manuel. Historia de la informática y metodología de la ciencia. Universidad de Alicante

Portilla, Jorge. Informática empresarial *

Red Iris. Universidades españolas

Serrano Cinca, Carlos. Universidad de Zaragoza

Wikipedia. Enciclopedia libre

Yo NO odio a Bill Gates (I) (Kriptópolis)

Yo NO odio a Bill Gates (II) (Kriptópolis)

fresqui del.icio.us meneame

Buscar en la web

Búsqueda escéptica
Búsqueda en todas mis páginas

Imprimir

Aquí puedes cambiar el tamaño y color del texto

Página Rafael Barzanallana


Actualización en Fisica
Biografía de Edward Lorenz

Actualización en Avisos.
II, trabajos capítulos 2 y 3 de la asignatura

Actualización en Software.
Tutorial sobre la nueva versión de Google Docs

Actualización en Software.
Tutorial sobre el programa HTTrackl

Actualización en Avisos.
II, Sobre GoogleDocs; enlace recomendado
http://www.escepticismo.es/menu-enlaces-escepticismo.html
XML Powered by FeedSweep

Biografías de
informáticos

Von Neumann

29 de 31 18/04/2008 20:25
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html

Introducción a la Informática. Estudios GAP,


facultad Derecho
Capítulo 5. Sistemas de numeración

Asignaturas
Introducción a la Informática
Introducción
Ofimática
La información
Historia de la Informática
Representación de la información
Periféricos de un ordenador
Lenguajes de programación
Sistemas operativos
Redes y comunicaciones
Informática Aplicada a la Gestión Pública
Introducción a la ingeniería del software
Metodologías de desarrollo
Metodologías habituales
Bases de datos. Introducción
Bases de datos. Organización ficheros
Bases de datos relacionales
Bases de datos comerciales
Introducción a internet
Intercambio electrónico de datos (EDI)
Comercio electrónico
Teletrabajo
Calidad
Informática Aplicada al Trabajo Social
Fundamentos de los ordenadores
Los ordenadores en la actualidad
Introducción al hardware
Fundamentos del software
Aplicaciones software
Diversos usos de los ordenadores
Comercio electrónico
Inteligencia artificial
Prácticas
Visión general de la informática
Internet
Editores de textos
Hojas de cálculo
Bases de datos
Lenguaje Pascal
Avisos
Escepticismo
Divulgación
Informática

1 de 34 18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html

Ciencia en general
Biología
Criminología
Inicio
Contacte

Introducción
Códigos de entrada/salida
Sistemas de numeración más usuales
Representación interna de la información
Detección de errores en la información codificada

5.1 Introducción

Como se ha visto, un ordenador es una máquina que procesa información. La ejecución de un programa
implica la realización de unos tratamientos, según especifica un conjunto ordenado de instrucciones (es
decir, un programa) sobre unos datos. Para que el ordenador ejecute un programa es necesario darle
información de dos tipos:

Instrucciones que forman el programa

Los datos con los que debe operar ese programa

Uno de los aspectos más importantes relacionado con la información, es cómo representarla.
Normalmente se le da al ordenador en la forma usual escrita que utilizan los humanos, es decir, con ayuda
de un alfabeto o conjunto de símbolos, los caracteres.

Los caracteres que se utilizan para la representación externa son:

Numéricos: Constituidos por las diez dígitos en el sistema decimal

Alfabéticos: Letras mayúsculas y minúsculas

Especiales: Son símbolos no incluidos en los grupos anteriores, como: ), (, *, /, +, -, [, ]...

Al conjunto de los dos primeros grupos se le denominan caracteres alfanuméricos.

Veremos cómo estos caracteres usados en la representación externa son representables en los ordenadores.
Este paso de una representación a otra se denomina codificación y el proceso inverso decodificación.

Por lo tanto hay dos niveles en la representación de la información

Nivel de representación externa: Usada por las personas e inadecuada para el ordenador

Nivel de representación interna: Adecuada al ordenador y no inteligible directamente por el ser


humano.

Las informaciones más complejas se reducirán a un conjunto de informaciones elementales por técnicas
de codificación.

Los elementos básicos que constituyen un ordenador son de naturaleza binaria, ya que sólo pueden
adoptar dos valores, 0 y 1 (corresponden a dos niveles de tensión, dos valores de corriente, dos situaciones

2 de 34 18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html

de una lámpara... ). Al tener que traducir toda la información suministrada a ceros y unos es necesario
establecer una correspondencia entre el conjunto de todos los caracteres:

{A, B, C, D,...Z, a, b, c,...z, 0, 1,...9, /, +,...}

y el conjunto binario:
{0, 1}n

de forma que a cada elemento del primero le corresponda un elemento distinto del segundo.
Estos códigos de transformación se denominan códigos E/S (entrada/salida) o externos y se pueden definir
de forma arbitraria. Las operaciones aritméticas con datos numéricos se suelen realizar en una
representación más adecuada para este objetivo que la del código de E/S. Por ello en el propio ordenador
se efectúa una transformación entre códigos binarios, obteniéndose una representación fundamentada en
el sistema de numeración en base dos, que al ser una representación numérica posicional es muy apta para
realizar operaciones aritméticas.

5.2 Códigos de entrada/salida.

Los códigos de E/S o externos son códigos que asocian a cada carácter una combinación de bit. En otras
palabras, un código de E/S es una correspondencia entre los conjuntos:

A = {0, 1,...9, A, B,...Z, a, b,...z, *, +, /...}

y
B = {0, 1}n

Si se usa un número fijo, n, de bit para codificar los símbolos de A, el valor mínimo de n dependerá del
número m de elementos de A. Así:

Con 2 bit (n=2) podemos hacer 4 combinaciones distintas y se pueden codificar hasta 4 símbolos
(m=4) distintos
Con 3 bit (n=3) podemos hacer 8 combinaciones distintas y se pueden codificar hasta 8 símbolos
(m=8) distintos
Con 4 bit (n=4) podemos realizar 16 combinaciones distintas y se pueden codificar hasta 16
símbolos (m=16) distintos
....
Con n bit pueden codificarse m = 2n símbolos distintos.

Así se verifica que para codificar m símbolos distintos necesitamos n bit, siendo,

n = log2 m = 3.32 * log m

Es decir, n debe ser el menor entero que verifique la relación anterior.


Ejemplo: Para codificar las 10 cifras decimales (0, 1,...,9) se necesitarán:

n = 3.32 * log (m) = 3.32 * log (10) = 3.32 bit

es decir 4 bit(ya que con 3 sólo podremos codificar 8 símbolos).


Dos codificaciones posibles son las siguientes:

Símbolos Código 1 Código 2


0 0000 0000

3 de 34 18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html

1 1000 0001
2 0100 1001
3 1100 1000
4 0010 0101
5 1010 0100
6 0110 1100
7 1110 1101
8 0001 0011
9 1001 0010

Pueden hacerse codificaciones con más bit de los necesarios; es decir, podríamos establecer códigos de
E/S de forma totalmente aleatoria. Obviamente existen códigos normalizados que suelen ser utilizados
por los constructores de ordenadores. Estos códigos son conocidos como:

BCD de intercambio normalizado.


EBCDIC
ASCII

BCD DE INTERCAMBIO NORMALIZADO

Usualmente este código utiliza 6 bit, con lo que se pueden representar, m = 26 = 64 caracteres. A veces se
añade a su izquierda un bit adicional para verificar posibles errores en la transmisión del código (que
veremos más adelante) de forma que el carácter queda representado por n = 7 bit.

bit de verificación
6 5 4 3 2 1 0

Los bit 4, 5 son conocidos como bit de zona. Los bit de zona indican el tipo de carácter representado.
Ejemplo: 00 para los numéricos. Los bit 0, 1, 2, 3 son conocidos como bit de posición, que coinciden para
los caracteres numéricos con la representación en binario natural y para el 0 con la representación del 10.

CODIGO EBCDIC (Extended Binary Coded Decimal Interchange).

Utiliza n = 8 para representar cada carácter, pudiendo codificar hasta m = 28 = 256 símbolos distintos.

CODIGO ASCII (American Standard Code for Information Interchange)

Utiliza 7 bit y es de los más utilizados. Normalmente se incluye un octavo bit para detectar posibles
errores de transmisión o grabación. Si el octavo bit se emplea para representar más caracteres como letras
griegas y símbolos semigráficos, se tiene el denominado ASCII extendido, usado en el PC de IBM y
compatibles.

5.3 Sistemas de numeración más usuales

Los ordenadores suelen efectuar las operaciones aritméticas utilizando una representación para los datos
numéricos basada en el sistema de numeración en base 2 (binario natural). También se utilizan los

4 de 34 18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html

sistemas de numeración octal y hexadecimal, para obtener códigos intermedios. Un número expresado en
uno de estos códigos puede transformarse a binario y viceversa.

LOS SISTEMAS DE NUMERACION A LO LARGO DE LA HISTORIA

Seguidamente se comentan los sistemas de numeración que distintas culturas han usado a
lo largo de la Historia

· Introducción. El Concepto de Base


· Sistemas de Numeracion Aditivos

o Egipcio

o Griego
· Sistemas de Numeración Híbridos

o Chino
· Sistemas de Numeración Posicionales

o Babilónico

o Maya

Enlace recomendado: Sistema de numeración romano

Introducción. El concepto de base

Cuando los hombres empezaron a contar usaron los dedos, guigarros, marcas en
bastones, nudos en una cuerda y algunas otras formas para ir pasando de un número al
siguiente. A medida que la cantidad crece se hace necesario un sistema de representación
más práctico.

En diferentes partes del mundo y en distintas épocas se llegó a la misma solución, cuando
se alcanza un determinado número se hace una marca distinta que los representa a todos
ellos. Este número es la base. Se sigue añadiendo unidades hasta que se vuelve a alcanzar
por segunda vez el número anterior y se añade otra marca de la segunda clase. Cuando se
alcanza un número determinado (que puede ser diferente del anterior constituyendo la
base auxiliar) de estas unidades de segundo orden, las decenas en caso de base 10, se
añade una de tercer orden y así sucesivamente.

La base que más se ha utilizado a lo largo de la historia es 10 según todas las apariencias
por ser ese el número de dedos con los que contamos. Hay alguna excepción notable
como son las numeración babilónica que usaba 10 y 60 como bases y la numeración
maya que usaba 20 y 5 aunque con alguna irregularidad.

Desde hace 5000 años la gran mayoría de las civilizaciones han contado en unidades,
decenas, centenas, millares etc. es decir de la misma forma que seguimos haciéndolo hoy.
Sin embargo la forma de escribir los números ha sido muy diversa y muchos pueblos han
visto impedido su avance científico por no disponer de un sistema eficaz que permitiese
el cálculo.

Casi todos los sistemas utilizados representan con exactitud los números enteros, aunque

5 de 34 18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html

en algunos pueden confundirse unos números con otros, pero muchos de ellos no son
capaces de representar grandes cantidades, y otros requieren tal cantidad de símbolos que
los hace poco prácticos. Pero sobre todo no permiten en general efectuar operaciones tan
sencillas como la multiplicación, requiriendo procedimientos muy complicados que sólo
estaban al alcance de unos pocos iniciados. De hecho cuando se empezó a utilizar en
Europa el sistema de numeración actual, los abaquistas, los profesionales del cálculo se
opusieron con las más peregrinas razones, entre ellas la de que siendo el cálculo algo
complicado en sí mismo, tendría que ser un metodo diabólico aquel que permitiese
efectuar las operaciones de forma tan sencilla.

El sistema actual fue inventado por los hindús y transmitido a Europa por los árabes. Del
origen hindú del sistema hay pruebas documentales más que suficientes, entre ellas la
opinión de Leonardo de Pisa (Fibonacci) que fue uno de los indroductores del nuevo
sistema en la Europa de 1200. El gran mérito fue la introducción del concepto y símbolo
del cero, lo que permite un sistema en el que sólo diez simbolos puedan representar
cualquier número por grande que sea y simplificar la forma de efectuar las operaciones.

Sistemas de numeracion aditivos

Para ver cómo es la forma de representación aditiva consideremos el sistema geroglífico


egipcio. Por cada unidad se escribe un trazo vertical, por cada decena un símbolo en
forma de arco y por cada centena, millar, decena y centena de millar y millón un
geroglífico específico. Así para escribir 754 usaban siete geroglíficos de centenas cinco
de decenas y 4 trazos. De alguna forma todas las unidades están fisicamente presentes.

Los sistemas aditivos son aquellos que acumulan los simbolos de todas las unidades,
decenas... como sean necesarios hasta completar el número. Una de sus características es
por tanto que se pueden poner los símbolos en cualquier orden, aunque en general se ha
preferido una determinada disposición. Han sido de este tipo las numeraciones egipcia,
sumeria (de base 60), hitita, cretense, azteca (de base 20), romana y las alfabéticas de los
griegos, armenios, judios y árabes.

El sistema de numeración egipcio

Desde el tercer milenio a.n.e. los egipcios usaron un sistema deescribir los números en
base diez utilizando los geroglíficos para representar los distintos órdenes de unidades.
Se usaban tantos de cada uno cómo fuera necesario y se podian escribir indistintamente
de izquierda a derecha, al revés o de arriba abajo, cambiando la orientación de las figuras
según el caso. Al ser indiferente el orden se escribían a veces según criterios estéticos, y
solían ir acompañados de los geroglíficos correspondientes al tipo de objeto (animales,
prisioneros, vasijas etc.) cuyo número indicaban. Estos signos fueron utilizados hasta la
incorporación de Egipto al imperio romano. Pero su uso quedó reservado a las
inscripciones monumentales, en el uso diario fue sustituido por la escritura hierática y
demótica, formas más simples que permitian mayor rapidez y comodidad a los escribas

En estos sistemas de escritura los grupos de signos adquirieron una forma propia, y asi se
introdujeron símbolos particulares para 20, 30....90....200, 300.....900, 2000, 3000......
con lo que disminuye el número de signos necesarios para escribir una cifra.

El sistema de numeración griego

El primer sitema de numeración griego se desarrolló hacia el 600 a.n.e. Era un sistema de
base decimal que usaba unos símbolos para representar esas cantidades. Se utilizaban

6 de 34 18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html

tantas de ellas como fuera necesario según el principio de las numeraciones aditivas. Para
representar la unidad y los números hasta el cuatro se usaban trazos verticales. Para el
cinco, 10 y 100 las letras correspondientes a la inicial de la palabra cinco (pente), diez
(deka) y mil (khiloi). Por este motivo se llama a este sistema acrofónico.

Los símbolos de 50, 500 y 5000 se obtienen añadiendo el signo de 10, 100 y 1000 al de
cinco, usando un principio multiplicativo. Progresivamente este sistema ático fue
reemplazado por el jónico, que empleaba las 24 letras del alfabeto griego junto con
algunos otros símbolos. De esta forma los números parecen palabras, ya que están
compuestos por letras, y a su vez las palabras tienen un valor numérico, basta sumar las
cifras que corresponden a las letras que las componen. Esta circunstancia hizo aparecer
una nueva suerte de disciplina mágica que estudiaba la relación entre los números y las
palabras. En algunas sociedades como la judía y la árabe, que utilizaban un sistema
similar, el estudio de esta relación ha tenido una gran importancia y ha constituido una
disciplina aparte: la kábala, que persigue fines místicos y adivinatorios.

Sistemas de numeración híbridos

En estos sistemas se combina el principio aditivo con el multiplicativo. Si para


representar 500 los sistemas aditivos recurren a cinco representaciones de 100, los
híbridos utilizan la combinación del 5 y el 100. Pero siguen acumulando estas
combinaciones de signos para los números más complejos. Por lo tanto sigue siendo
innecesario un símbolo para el 0. Para representar el 703 se usa la combinacion del 7 y el
100 seguida del 3.

El orden en la escritura de las cifras es ahora fundamental para evitar confusiones, se dan
así los pasos para llegar al sistema posicional, ya que si los signos del 10, 100 etc se
repiten siempre en los mismos lugares, pronto alguien piensa en suprimirlos, dándolos
por supuestos y se escriben sólo las cifras correspondientes a las decenas, centenas etc.
.Pero para ello es necesario un cero, algo que indique que algún orden de magnitud está
vacío y no se confundan el 307 con 370, 3070 ... Además del chino clásico han sido
sistemas de este tipo el asirio, arameo, etíope y algunos del subcontinente hindú cómo el
tamil, el malayalam y el cingalés.

El sistema de numeración chino

La forma clásica de escritura de los números en China se empezó a usar desde el 1500
A.N.E. aproximadamente. Es un sistema decimal estricto que usa las unidades y los
distintas potencias de 10. Utiliza ideogramas y usa la combinación de los números hasta
el diez con la decena, centena, millar y decena de millar para según el principio
multiplicativo representar 50, 700 ó 3000. El orden de escritura se hace fundamental,ya
que 5 10 7 igual podría representar 57 que 75.

Tradicionalmente se ha escrito de arriba abajo aunque también se hace de izquierda a


derecha. No es necesario un símbolo para el cero siempre y cuando se pongan todos los
ideogramas, pero aún así a veces se suprimían los correspondientes a las potencias de 10.

Aparte de esta forma que podríamos llamar canónica se usaron otras. Para los documento
importantes se usaba una grafía más complicada con objeto de evitar falsificaciones y
errores. En los sellos se escribía de forma más estilizada y lineal y aún se usaban hasta
dos grafías diferentes en usos domésticos y comerciales, aparte de las variantes
regionales. Los eruditos chinos por su parte desarrollaron un sistema posicional muy
parecido al actual que desde que incorporó el cero por influencia india en siglo VIII en

7 de 34 18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html

nada se diferencia de este.

Sistemas de numeración posicionales

Mucho más efectivos que los sitemas anteriores son los posicionales. En ellos la posición
de una cifra nos dice si son decenas, centenas ... o en general la potencia de la base
correspondiente. Sólo tres culturas además de la india lograron desarrollar un sistema de
este tipo. Babilonios, chinos y mayas en distintas épocas llegaron al mismo principio. La
ausencia del cero impidió a los chinos un desarrollo completo hasta la intraducción del
mismo. Los sistemas babilónico y maya no eran prácticos para operar porque no
disponían de simbolos particulares para los dígitos, usando para representarlos una
acumulación del signo de la unidad y la decena. El hecho que sus bases fuese 60 y 20
respectivamente no hubiese representado en principio nigún obstáculo. Los mayas por su
parte cometían una irregularidad a partir de las unidades de tercer orden, ya que detrás de
las veintenas no usaban 20x20=400 sino 20x18=360 para adecuar los números al
calendario, una de sus mayores preocupaciones culturales.

Fueron los hindúes antes del siglo VII los que idearon el sistema tal y como hoy lo
conocemos, sin mas que un cambio en la forma en la que escribimos los nueve dígitos y
el cero. Aunque con frecuencia nos referimos a nuestro sistema de numeración cómo
árabe, las pruebas arqueológicas y documentales demuestran el uso del cero tanto en
posiciones intermedias como finales se originó en India. Los árabes transmitieron esta
forma de representar los números y sobre todo el cálculo asociado a ellas, aunque
tardaron siglos en ser usadas y aceptadas. Una vez más se produjo una gran resistencia a
algo por el mero hecho de ser nuevo o ajeno, aunque sus ventajas eran evidentes. Sin esta
forma eficaz de numerar y efectuar cálculos dificilmente la ciencia hubiese podido
avanzar.

El sistema de numeración Babilónico

Entre la muchas civilizaciones que florecieron en la antigua Mesopotamia se


desarrollaron distintos sistemas de numeración. Inventaron un sistema de base 10, aditivo
hasta el 60 y posicional para números superiores. Para la unidad se usaba la marca
vertical que se hacía con el punzón en forma de cuña. Se ponían tantos como fuera
preciso hasta llegar a 10, que tenía su propio signo. De este se usaban los que fuera
necesario completando con las unidades hasta llegar a 60. A partir de ahí se usaba un
sistema posicional en el que los grupos de signos iban representando sucesivamente el
número de unidades, 60, 60x60, 60x60x60 y asi sucesivamente como en los ejemplos
que se acompañan.

El sistema de numeración Maya

Los mayas idearon un sistema de base 20 con el 5 cómo base auxiliar. La unidad se
representaba por un punto. Dos, tres, y cuatro puntos servían para 2, 3 y 4. El 5 era una
raya horizontal, a la que seañadían los puntos necesarios para representar 6, 7, 8 y 9. Para
el 10 se usaban dos rayas, y de la misma forma se continúa hasta el 20, con cuatro rayas.
Hasta aquí parece ser un sistema de base 5 aditivo, pero en realidad, considerados cada
uno un solo signo, estos símbolos constituyen las cífras de un sistema de base 20, en el
que hay que multiplicar el valor de cada cifra por 1, 20, 20x20, 20x20x20 ... según el
lugar que ocupe, y sumar el resultado. Es por tanto un sistema posicional que se escribe a
arriba abajo, empezando por el orden de magnitud mayor.

Al tener cada cifra un valor relativo según el lugar que ocupa, la presencia de un signo

8 de 34 18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html

para el cero, con el que indicar la ausencia de unidades de algún orden, se hace
imprescindible y los mayas lo usaron, aunque no parece haberles interesado el concepto
de cantidad nula. Cómo los babilonios lo usaron simplemente para indicar la ausencia de
otro número.

Pero los científicos mayas eran a la vez sacerdotes ocupados en la observación


astronómica y para expresar los número correspondientes a las fechas usaron unas
unidades de tercer orden irregulares para la base 20. Así la cifra que ocupaba el tercer
lugar desde abajo se multiplicaba por 20x18=360 para completar una cifra muy próxima
a la duración de un año.

El año lo consideraban dividido en 18 uinal que constaba cada uno de 20 días. Se añadían
algunos festivos (uayeb) y de esta forma se conseguía que durara justo lo que una de las
unidades de tercer orden del sistema numérico. Además de éste calendario solar, usaron
otro de carater religioso en el que el año se divide en 20 ciclos de 13 días.

Al romperse la unidad del sistema éste se hace poco práctico para el cálculo y aunque los
conocimiento astronómicos y de otro tipo fueron notables los mayas no desarrollaron una
matemática más allá del calendario

5.3.1 Representación posicional de los números

Se define un sistema de numeración: como el conjunto de símbolos y reglas que se utilizan para la
representación de cantidades. En ellos existe un elemento característico que define el sistema y se
denomina base, siendo ésta el número de símbolos que se utilizan para la representación.

Un sistema de numeración en base "b" utiliza para representar los números un alfabeto compuesto por b
símbolos o cifras. Así todo número se expresa por un conjunto de cifras, teniendo cada una de ellas dentro
del número un valor que depende:

De la cifra en sí
De la posición que ocupe dentro del número

En el sistema de numeración decimal (base 10), que habitualmente se utiliza, b = 10 y el alfabeto por
tanto, está constituido por 10 símbolos: {0, 1, 2..., 9}

Por ejemplo, el número 3278.52 puede obtenerse como suma de:


3000
200
70
8
0.5
0.02

3278.52

por tanto se verifica que:


3278.52 = 3 * 103 + 2 * 102 + 7 * 101 + 8 * 100 + 5 * 10-1 + 2 * 10-2

9 de 34 18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html

Cada posición, por tanto, tiene un peso:

Posición 0 Peso b0
Posición 1 Peso b1
Posición 2 Peso b2
Posición 3 Peso b3
....
Posición -1 Peso b-1
Posición -2 Peso b-2
.....

Generalizando se tiene que la representación de un número en una base b :


N = ...n4 n3 n2 n1 n0 n-1 n-2 ...

es una forma abreviada de expresar su valor, que es:

N = n4 b4 + n3 b3 + .... + n-1 b-1 + n-2 b-2

Ejemplo en base 8:

b = 8. Los símbolos que se usan son:


{0, 1, 2, 3, 4, 5, 6, 7}

El valor decimal del número octal 175.378 será:


175.378)8 = 1*82 + 7*81 + 5*80 + 3*8-1 + 7*8-2 + 8*8-3 =
125.4882812)10

5.3.2 Sistema de numeración en base dos.

El sistema de numeración en base dos, fue introducido por Gottfried Wilhelm Leibniz (1646-1716) en el
siglo XVII, siendo el más adecuado para usar en las máquinas electrónicas, debido a que utilizan
esencialmente sistemas de dos estados, encendido y apagado. En el sistema binario los datos se
representan en un sistema que sólo admite dos estados, 0 y 1.

Las operaciones aritméticas se suelen realizar usando una representación de datos y resultados en binario
natural.

A) Definición del sistema binario.

10 de 34 18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html

En el sistema de numeración binario b=2 y el conjunto de símbolos usados es: {0, 1}

Una muestra de los números enteros binarios que se pueden formar con 3 bit y que corresponden a las
cifras decimales {0, ...,7} es:

Binario Decimal
000 0
001 1
010 2
011 3
100 4
101 5
111 6
111 7

B) Transformaciones entre bases binaria y decimal.

Se puede transformar un número binario a decimal sin más que usar la expresión vista anteriormente:

.n4 n3 n2 n1 n0 n-1 n-2...)2 = ...n4 24 + n3 23 + n2 22 + n1 21 + n0 20+ n-1 2-1 + = N)10

Ejemplo:

Transformar a decimal los siguientes números binarios:


110100)2 = 1*25 + 1*24 + 0*23 + 1*22 + 0*21 + 0*20 = 25 + 24 + 22 =
52)10
0.10100)2 = 0*20 + 1*2-1 + 0*2-2 + 1*2-3 + 0*2-4 + 0*2-5 = 2-1 + 2-3 =
0.625)10
10100.001)2 = 1*24 + 1*22 + 1*2-3 = 20.125)10

Para transformar un número decimal a binario:

a) La parte entera del nuevo número (binario) se obtiene efectuando divisiones enteras (sin obtener
decimales) por dos, de la parte entera del número decimal de partida y de los cocientes que sucesivamente
se vayan obteniendo. Los restos de estas divisiones y el último cociente (que serán siempre ceros y unos)
son las cifras binarias. El último cociente será el bit más significativo y el primer resto el bit menos
significativo (más a la derecha).

Ejemplo:

26)10 es en binario:
26 | 2_
0 13 | 2_
1 6 | 2_
0 3 |2_
1 1

11 de 34 18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html

26)10 = 11010)2

b) La parte fraccionaria del número binario se obtiene multiplicando por 2 sucesivamente la parte
fraccionaria del número decimal de partida y las partes fraccionarias que se van obteniendo en los
productos sucesivos. El número binario se forma con las partes enteras (que serán ceros y unos) de los
productos obtenidos.

Ejemplo:

Transformar a binario natural el número decimal 0.1875

0.1875 0.3750 0.7500 0.5000


*2 *2 *2 *2
--------- ---------- ---------- ----------
0.3750 0.7500 1.5000 1.0000

0.1875)10 = 0.0011)2

Ejemplo:

Transformar a binario el número decimal 74.423

a) Parte entera:
74 | 2_
0 37 | 2__
1 18 | 2__
0 9 | 2_
1 4 | 2__
0 2 | 2__
0 1

b) Parte fraccionaria:

0.423 0.846 0.692 0.384 0.768


*2 *2 *2 *2 *2
-------- --------- --------- --------- ---------
0.846 1.692 1.384 0.768 1.536

Es decir:

74.423)10 = 1001010.01101...)2

12 de 34 18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html

Ejemplo, programa en C, para convertir de base 10 a base 2

1) Se divide el numero entre la base y se va guardando el residuo,


el resultado de la división se vuelve a dividir entre la base y se
guarda el residuo; esto se efectúa tantas veces hasta que el
resultado de la división sea cero.

Ejemplo: convertir 14 en base 10 a base 2

14/ 2= 7 sobran 0
7 / 2= 3 sobran 1
3 / 2= 1 sobran 1
1 / 2 =0 sobran 1

Ahora lo vamos a poner en una tabla con subindices


c0 b c0 r0
14 2 7 0

c0 b c1 r1
7 2 3 1

c1 b c2 r2
3 2 1 1

c2 b c3 r3
1 2 0 1

¿Qué observamos? Es posible utilizar un arreglo de vectores de:

c0,c1,c2,c3 r0,r1,r2,r3 b se mantiene constante. En la primera


columna se observa que en el tercer renglón se repite un valor de
c0 porque es el resultado de la división, que luego se debe
utilizar, nuevamente para hacer la siguiente división.

¿Hasta donde dejar de hacer divisiones? Hasta que c[i] se haga


cero, en este caso c3=0. Y por lo tanto ya terminamos.

¿Ahora como hacemos para que vayan cambiando los subíndices?


primera iteración c0 b c0 r0 Haríamos un "for del índice de 0 a 3"

segunda iteración c0 b c1 r1 Sin embargo los que estan obscuros


perjudican

tercera iteración c1 b c2 r2 nuestro for, lo que podemos mejorarlo


de este

tercera iteración c2 b c3 r3 modo: c[0]= c[1]- 1. Y con esto


quedaria asi:

co b co ro

c1-1 b c1 r1

13 de 34 18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html

c2-1 b c2 r2

c3-1 b c3 r3 si hago el numero= c0;

Que así con un solo for (i=0;i<=3;i++){

c[i]=c[i-1]/b;

r[i]=fmod(c[i-1],b)

El fmod saca el residuo de la division(a,b) a/b= residuo.

.requiere #include <math.h>

¿Cómo lo mandamos a imprimir el resultado?: r4r3r2r1= 1110 base2 =


14 base10

hacemos otro for para el subindice de r[i] desde i=4 hasta i=0

for (i=4; i<=0;i--){

printf("%d", r[i]);

#include <stdio.h>

#include <conio.h>
#include <math.h>
int c[50], r[50]; /* es mejor poner más de lo necesario */

int i,b;
main()
{

clrscr();

/* Datos */
b=2;
c[0]= 14;
i=1;

/* conversion */
for(;;)

{ c[i]= c[i-1]/b;
r[i]= fmod(c[i-1],b);
if (c[i]==0) break;
i=i+1;

}
for(;;) /* impresión de resultado de atrás para adelante */

14 de 34 18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html

{
if (i==0) break;
printf(" %d",r[i]);
i=i-1;
}

C) Operaciones aritméticas y lógicas con variables binarias

Una variable binaria puede representar, una cifra de un número en el sistema de numeración en base dos.
Las operaciones aritméticas básicas con variables binarias naturales son la suma, resta, multiplicación y
división. Estas operaciones son análogas a las realizadas en decimal pero usando ceros y unos.

Tabla de operaciones aritméticas:

Suma aritmética
A B A+B
0 0 0
0 1 1
1 0 1
1 1 0 y llevo 1

Producto aritmético Resta aritmética


División aritmética
A A*B A B A-B
A B A/B
0 0 0 0 0 0
0 0 -
0 1 0 0 1 1 y debo 1
0 1 0
1 0 0 1 0 1
1 0 -
1 1 1 1 1 0
1 1 1

Ejemplo:

1110101 1101010 1101010


1110110 - 1010111 * 11
------------- ------------- ------------
11101011 0010011 1101010
+ 1101010
---------------
100111110

Las operaciones lógicas o booleanas con variables binarias son la suma lógica (+), llamada también

15 de 34 18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html

función OR, el producto lógico (llamado también AND y la complementación (-) o negación o NOT.

Un tutorial sobre lógica se puede ver en el siguiente vídeo:

Online Videos by Veoh.com

Las tablas son las siguientes:

Suma lógica (OR) Producto lógico (AND)


A B A+B A B A*B
Complementación (NOT)
0 0 0 0 0 0
A -A
0 1 1 0 1 0
0 1
1 0 1 1 0 0
1 0
1 1 1 1 1 1

Es frecuente también la utilización de las operaciones combinadas como NAND (AND y NOT) y NOR
(OR y NOT).
Las tablas son las siguientes:

NAND NOR
A B A * B -(A*B) A B A+B - (A + B)
0 0 0 1 0 0 0 1
0 1 0 1 0 1 1 0
1 0 0 1 1 0 1 0

16 de 34 18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html

1 1 1 0 1 1 1 0

Veamos ahora por qué resulta más sencillo operar con el sistema binario que con el decimal.

Se ha visto la simplicidad de las operaciones aritméticas en binario. Los ordenadores funcionan con
circuitos que pueden representar los dos estados del sistema binario (0 y 1) abriéndose o cerrándose el
circuito.

Al conectar dos circuitos según el esquema, y hacer pasar una corriente eléctrica por A se puede conseguir
que el estado del conductor C represente el resultado de la operación AND lógica.

1 1
---------------*------------------ C toma el valor 1
A B

0 1
---/ /---------*------------------ C toma el valor 0
A B

1 0
---------------*-------/ /------ C toma el valor 0
A B

0 0
--/ /---------*-------/ /------- C toma el valor 0
A B

De forma parecida se construye la función OR lógica:

A = 1
-------------------
|------------------- C=1
-------------------
B = 1

17 de 34 18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html

A = 1
-------------------
|------------------- C=1
----/ /----------
B = 0

A = 0
----/ /----------
|------------------- C=1
-------------------
B = 1

A = 0
-----/ /----------
|------------------- C=0
----/ /----------
B = 0

Estos ejemplos ilustran cómo basándose en circuitos e impulsos eléctricos un ordenador puede realizar
operaciones aritméticas y lógicas. El motivo por el que los ordenadores electrónicos trabajan en el sistema
binario se puede deducir de los ejemplos vistos. Queda imaginar la complejidad que supondría trabajar en
el sistema decimal (con circuitos 10 veces más complejos para representar operaciones de 2 dígitos).

Una puerta es un circuíto electrónico que produce una señal de salida que es una operación booleana
sencilla de las señales de entrada. Las puertas básicas usadas en lógica digital son AND, OR, NOT, XOR,
NAND y NOR. cada puerta se define de tres formas: símbolo gráfico, notación algebraica y tabla de
verdad, como se muestra seguidamente:

18 de 34 18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html

D) Representación en complementos

Para representar un número negativo se puede utilizar el complemento de ese número a la base. De esta
forma las sumas y restas quedan reducidas a sumas. Este sistema de representación es de sumo interés en
el caso de los ordenadores ya que al usarlo se reduce la complejidad de los circuitos.

El complemento a la base de un número, es el número que resulta de restar a cada una de las cifras del
número N a la base menos uno del sistema que se esté utilizando y posteriormente sumar uno a la
diferencia obtenida.

Ejemplo:

En base 10:
Base menos uno del sistema: 9
Representar el número 63 en complemento a la base.

N = 63 99 36
-63 +1
------ ------
36 37

Es decir, el complemento a 10 (base)del número 63 es 37.

En base 2:

Base menos uno: 1

19 de 34 18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html

Complemento a 2 del número 10010 es 01110


11111 01101
- 10010 + 1
------------- -------------
01101 01110

Complemento a 2 del número 101010 es 010110

111111 010101
101010 + 1
----------- ------------
010101 010110

Observamos que para transformar un número binario N a complemento a 2 basta con cambiar los 0 por 1
y los 1 por 0 de N y sumar 1 al resultado.

Veremos ahora que la utilidad de esta representación es para convertir la realización de las restas a sumas,
lo cual simplifica el diseño del procesador.

Ejemplo: Base 10

Supongamos que se ha de realizar la siguiente operación: 77 - 63

Se puede hacer de dos formas diferentes:

a) Directamente: 77 - 63 = 14
b) Utilizando el complemento a 10 del substraendo:

Complemento a 10 del substraendo 63 es 37

99 36
-63 +1
---- -----
36 37

77
+37
-----
114
- (No se considera)

El resultado es 14

Es decir, para restar basta con sumar el minuendo con el complemento a la base del substraendo y sin
considerar el acarreo.

Ejemplo: Base 2

20 de 34 18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html

Supongamos se ha de efectuar la siguiente resta:

11001 - 10010

Se puede hacer de dos formas:

a) Directamente:

11001
-10010
--------
00111

b) Usando el complemento a 2 del substraendo:

El substraendo es 10010. Su complemento a 2 se obtiene cambiando 0


por 1 y 1 por 0.
01101
y sumándole 1

01101
+ 1
--------
01110

Ahora sumamos al minuendo el complemento a 2 del substraendo


:

11001
+01110
---------
100111
- (No se considera)

E) Códigos intermedios

Los códigos intermedios se basan en la facilidad de transformar un número en base 2 a otra base que sea
potencia de 2 y viceversa. Usualmente se usan como códigos intermedios los sistemas de numeración en
base 8 y en base 16 (conocidos como octal y hexadecimal).

a) OCTAL.

En la base octal, b = 8 y el conjunto de símbolos utilizados es:


{0, 1,..., 7}

Para convertir un número octal a binario sólo debemos sustituir cada dígito octal por su equivalente
binario.

Equivalencias
OCTAL BINARIO
0 000

21 de 34 18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html

1 001
2 010
3 011
4 100
5 101
6 110
7 111
Ejemplo:
6 se sustituye por 110

2 se sustituye por 010

537.24)8 = 101 011 111 . 010 100)2

que equivale según la tabla, a: 5 3 7 . 2 4

La conversión de binario a octal se realiza juntando en grupos de tres dígitos binarios, comenzando por la
izquierda desde el punto decimal y sustituyendo cada grupo por el correspondiente dígito octal.

Ejemplo:
El número binario 10001101100.11010)2 es en octal
10 001 101 100 . 110 10 = 2154.64)8
Para pasar un número de octal a decimal aplicamos la expresión:
N)8 =...n4 b4 + n3 b3 + .... + n-1 b-1 + n-2 b-2...)10

con b = 8.

Ejemplo:
Para pasar el número octal 1367.25)8 a decimal:
1367.25 = 1*83 + 3*82 + 6*81 + 7*80 + 2*8-1 + 5*8-2 = 759.328125)10

Para pasar un número entero decimal a octal se hacen sucesivas divisiones enteras del número y los
subsiguientes cocientes por 8 (al igual que en binario). Para transformar la parte fraccionaria de un
número decimal a octal se hacen sucesivas multiplicaciones por 8 (de la misma forma que en binario).

Ejemplo:
Para pasar el número decimal 760.33)10 a octal:

760 | 8__
40
0 95 | 8__
15
7 11 | 8__
3 1

22 de 34 18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html

0.33 0.64 0.12 0.96


*8 *8 *8 *8
------ ------- ------- -------
2.64 5.12 0.96 7.68

El número en octal es 1370.2507

b) HEXADECIMAL

Para representar un número en base hexadecimal (b = 16) es necesario disponer de un conjunto o alfabeto
de 16 símbolos. Se suele usar el conjunto:
{0, 1, 2,..., 9, A, B, C, D, E, F}

Podemos hacer las conversiones de binario a hexadecimal y viceversa en forma análoga al sistema octal.
Ahora bien, aquí utilizaremos grupos de 4 bit en lugar de grupos de 3 bit.

Equivalencias
HEX BINARIO DECIMAL
0 0000 0
1 0001 1
2 0010 2
3 0110 3
4 0100 4
5 0101 5
6 0110 6
7 0111 7
8 1000 8
9 1001 9
A 1010 10
B 1011 11
C 1100 12
D 1101 13
E 1110 14
F 1111 15
Ejemplo:
Pasar el número binario 010010111011111.1011101)2 a hexadecimal.
010 0101 1101 1111 . 1011 101)2 = 25DF.BA)16

Ejemplo:
Pasar el número 1ABC701.C4)16 a binario:
0001 1010 1011 1100 0111 0000 0001 . 1100 0100 2
1 A B C 7 0 1 C 4

23 de 34 18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html

El número binario resultante es:


0001101010111100011100000001.11000100)2

Para transformar un número hexadecimal a decimal aplicamos la expresión siguiente con b=16.
N)16 =...n4 b4 + n3 b3 + .... + n-1 b-1 + n-2 b-2...)10

Ejemplo:

Pasar el número hexadecimal A798C.1E)16 a decimal.


10*164 + 7*163 + 9*162 + 8*161 + 12*160 + 1*16-1 + 14*16-2 = =
686476.1171)10

Para pasar un número de decimal a hexadecimal se hace de forma análoga a los casos binario y octal: la
parte entera se divide por 16, así como los cocientes enteros sucesivos, y la parte fraccionaria se
multiplica por 16, así como las partes fraccionarias de los productos sucesivos.

Ejemplo:

El número 4573.79)10 se corresponde en


hexadecimal:
4573 |16
137
093 285 |16
13 125
13 17 |16
1 1

0.79 0.64 0.24


* 16 * 16 * 16
------ ----- - -----
474 384 144
+79 +64 +24
----- ---- -----
12.64 10.24 3.84
C A 3

El número en hexadecimal es 11DD.CA3)16

5.4 Representación interna de la información.

En la memoria y el procesador central la información se transmite y procesa en unidades denominadas


palabras. La organización de las palabras depende del ordenador, siendo usuales las longitudes: 8, 16, 32,
36, 60 y 64 bit, aunque hay hasta de 512 bit.

24 de 34 18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html

La memoria principal se encuentra organizada en palabras, cada una de las cuales tiene asignada una
dirección. Los intercambios de información entre el procesador y la memoria se hacen en unidades
denominadas palabras y no en caracteres (octetos) o en bit.

Normalmente para aprovechar la memoria, la longitud de la palabra debe ser un múltiplo entero del
número de bit usados para representar un carácter.

Los datos se introducen inicialmente en el ordenador según un código de entrada/salida (que ya hemos
visto), tanto si éstos son de tipo alfabético como de tipo numérico.

Los datos de tipo numérico se utilizan normalmente para operar aritméticamente con ellos, y la
representación simbólica obtenida con el código de E/S no resulta adecuada para realizar este tipo de
operaciones. Resulta más adecuado operar en un sistema de numeración que en un código de E/S.

Por los motivos anteriores, y teniendo en cuenta que la ALU opera con palabras, se realiza una conversión
de notaciones pasando de la representación simbólica de E/S a otra notación que denominamos
representación interna.

TIPOS DE INFORMACION.

En un sistema de procesamiento de la información es necesaria la codificación de tres clases de


información:

1 Información numérica:

Enteros
Reales
Complejos
Lógicos

2 Información no numérica (o alfanumérica):

Caracteres
3 Instrucciones del programa

A) Datos de tipo complejo

Los datos de tipo complejo se representan por parejas de números reales almacenados en posiciones
consecutivas de memoria. Es decir, pueden considerarse como un caso particular de números reales.

B) Datos de tipo lógico

Representan un valor del Algebra de Boole binaria, es decir, 0 (falso) ó 1 (verdad).

C) Representación en punto fijo

El nombre de esta representación surge al considerar el punto fraccional, situado en una posición fija. El
punto fijo es utilizado para la representación de números enteros, suponiéndose el punto fraccional
ubicado a la derecha de los bit. Cualquiera de los sistemas de representación de enteros es una
representación de punto fijo. Tambien, se puede utilizar la representación en punto fijo para representar
fracciones binarias escalando los números, de modo que el punto fraccional quede ubicado implícitamente
en otra posición entre los bit, y en el caso límite a la izquierda de todos ellos describiendo un número
fraccional binario puro (menor a 1).

25 de 34 18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html

a) El signo se representa en el bit situado más a la izquierda de la palabra. Este bit es 0 si el número
es positivo ó 1 si el número es negativo.

b) El valor absoluto:
b1) Números positivos: Se almacenan directamente el número en binario natural.
b2) Números negativos: Dependiendo del ordenador se almacena el complemento a 2 del
número binario natural o la magnitud del número en binario natural.

Ejemplo de representación interna de datos de tipo entero en un ordenador de palabras de 4 bit:

SIGNO Y COMPLEMENTO A
DECIMAL
MAGNITUD 2
7 0111 0111
6 0110 0110
5 0101 0101
4 0100 0100
3 0011 0011
2 0010 0010
1 0001 0001
+0 0000 0000
-0 1000 ----
-1 1001 1111
-2 1010 1110
-3 1011 1101
-4 1100 1100
-5 1101 1011
-6 1110 1010
-7 1111 1001
-8 ----- 1000

D) Representación en punto flotante

El punto flotante surge de la necesidad de representar números reales y enteros con un rango de
representación mayor que el que ofrece la representación en punto fijo y posibilitar al ordenador el
tratamiento de números muy grandes y muy pequeños. Estas ventajas que ofrece el punto flotante traen
como contraprestación una disminución en la precisión de los números representados.

En su representación se utiliza la notación científica o exponencial matemática en la que una cantidad se


representa de la siguiente forma:

n° = mantisa * base de exponenciación exponente

Un número en esta notación tiene infinitas representaciones, de las que se toma como estándar la
denominada normalizada, que consiste en que la mantisa no tiene parte entera y el primer dígito o cifra a
la derecha del punto decimal es significativo (distinto de 0), salvo en la representación del número 0.

26 de 34 18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html

Ejemplo

835.4 = 8354*10^-1 = 835.4 * 10^0 = 83.54 * 10^1 = 8.354 * 10^2 = .8354 * 10^3

Representación del número decimal 835.4 con base de exponenciación 10. siendo está última expresión la
que corresponde al número normalizado.

En este sistema de codificación, se dividen los bit disponibles en la palabra o doble palabra del ordenador
entre la mantisa y el exponente, teniendo una base de exponenciación determinada (2 o potencia de 2).
Normalmente la definición de la coma flotante sigue las siguientes reglas:

El exponente se representa en uno de los siguientes sistemas de codificación: módulo y signo o


exceso a 2 n-1, siendo siempre un número entero. En este sistema de codificación el exponente
también recibe el nombre de característica.
La mantisa es un número real con el punto decimal implícito a la izquierda de sus bit, representada
normalmente en uno de los siguientes sistemas de codificación: módulo y signo, complemento a 1 o
complemento a 2.
La base de exponenciación es una potencia de 2 determinada por el fabricante del equipo (2, 8 o
16).

Existen muchas formas de representación en punto flotante, variando la longitud de la palabra del
ordenador, la base de la exponenciación, el número de bit reservados para la mantisa y para el exponente,
el sistema utilizado para representar la mantisa y el exponente, etc.. El punto flotante se define
particularmente en cada caso. Las definiciones más comunes son las siguientes:

a) para simple precisión (32 bit)

signo exponente mantisa


31 30 23 22 0

b) para doble precisión (64 bit)

signo exponente mantisa


63 62 52 51 0

El rango de representación en la coma flotante debe ser analizado teniendo en cuenta los máximos y
mínimos valores representables tanto con signo positivo como negativo:

mínimo número negativo = -(mantisa máxima) * basemáximo exponente

máximo número negativo = -(mantisa mínima) * base-maximo exponente

mínimo número positivo = mantisa mínima * base-máximo exponente

máximo número positivo = mantisa máxima * basemáximo exponente

Conviene observar que existen cuatro zonas de números que no pueden ser representados mediante un
determinado formato de coma flotante. Estas zonas están ubicadas cercanas al 0, tanto para valores
positivos como negativos (subdesbordamiento positivo o negativo), como para valores grandes (positivos)
o pequeños(negativos) que exceden el rango de representación.

27 de 34 18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html

Ejemplo

Un ordenador utiliza el siguiente formato para registrar números en punto flotante:

los bit del 23 al 30 se utilizan para representar el exponente en exceso a 128 (27)

los bit del 0 al 22 se utilizan para representar la mantisa normalizada para el sistema Módulo y
signo

el bit 31 se utiliza para representar el signo de la mantisa (0 para el +)

la base de exponenciación es 2

el 0 se representa con todos los bit en 0.

Representar en este formato el número 12:

12 en notación normalizada de base 2 es 0.75 * 24

el exponente de valor 4 en exceso a 128 es: 10000100

la mantisa 0.75 en binario es 0.11

de donde la representación del número 12 quedará como:

0 10000100 11000000000000000000000
signo (+) exponente 4 mantisa 0.75

Representar en el formato definido el 12. En este caso la notación normalizada solo sufre cambio en el
signo de la mantisa (-0.75 * 24), la expresión quedará ntonces:

1 10000100 11000000000000000000000
signo (-) exponente 4 mantisa 0.75

El rango de representación de este formato en coma flotante será:

mínimo negativo = -(1 - 223)*2127 = -2127 = 1.701411834605 * 1038

máximo negativo = -0.5 * 2-128 = -2-129 = -1.469367938528 * 10 -39

mínimo positivo = 0.5 * 2-128 = 2-129 = 1.469367938528 * 10-39

máximo positivo = (1 - 223)*2127 = 2127 = 1.701411834605 * 1038

E) Datos de tipo carácter

Los datos de tipo carácter, representan sencillamente cadenas de caracteres representados según el código
de E/S.

28 de 34 18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html

A las representaciones de los caracteres se les imponen las siguientes condiciones:

Deben englobar las 26 letras del alfabeto latino, los 10 dígitos y un cierto número de caracteres
gráficos (operadores) y signos de puntuación.
Deben permitir añadir nuevos caracteres específicos.
Deben incluir un sistema de redundancia que permita la detección de errores en el curso de la
transmisión.
Los subconjuntos de letras y números deben estar ordenados y ser coherentes. Estarán en dos
grupos diferentes y ordenados.

F) Codificación de instrucciones

Las instrucciones llevan cierto número de informaciones:

Código de operación.
Dirección de operandos/resultados.
Condiciones de direccionamiento, etc.

A cada una de estas informaciones se le asocia una zona formada por un número de bit suficientes para
codificar los diferentes estados posibles de la instrucción.

Así una zona de código de operación de 6 bit permite codificar 26 = 64 operaciones diferentes, y si una
zona de direcciones es de 16 bit permitirá direccionar una memoria de 216 direcciones.

5.5 Detección de errores en la información codificada

Hemos visto anteriormente que si representamos cada carácter por un número fijo de bit, para representar
m símbolos distintos necesitamos al menos n bit, siendo n el menor número entero que verifica la relación

n = log2 m = 3.32 * log m

También hemos observado que a veces no es necesario utilizar todas las combinaciones posibles de los n
bit. Cuantas menos combinaciones se desperdicien decimos que el código es más eficiente.

Un código que es poco eficiente se dice que es redundante. La eficiencia de un código se expresa como el
cociente entre el número de símbolos que representa y el número total posible,
Eficiencia = m/m´= m/2n

así se tiene para el ASCII una eficiencia de 95/27, que es 0.742, con R=25.8% y para el ASCII extendido
la eficiencia es 95/28, que es 0.371, con R=62.9%, donde R es la redundancia, que se calcula,
R=(1-þ)*100%

A veces las redundancias se introducen deliberadamente para poder detectar posibles errores en la
transmisión o grabación de información.

Así por ejemplo, si necesitamos transmitir 8 símbolos (A, B, C,...,H) y si se hace con un código sin
redundancias, necesitamos n = 3 bit, y un código posible puede ser:

ALFABETO CÓDIGO

29 de 34 18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html

A 000
B 001
C 010
D 011
E 100
F 101
G 110
H 111

En el caso de que por algún error uno de los bit varíe obtenemos otro símbolo del alfabeto, que
considerado aisladamente no puede ser detectado como erróneo. Si se usase un código redundante, tal
como el siguiente:

ALFABETO CÓDIGO
A 0000
B 0001
C 0010
D 0011
E 0100
F 0101
G 0110
H 0111

existirían algunas posibilidades de detectar errores. Así por ejemplo, si se transmite el símbolo H, esto es
0111, y por un error la transmisión cambiara el primer bit, esto es se recibiese 1111, podría detectarse el
error ya que 1111 no corresponde a ninguno de los símbolos posibles.

Usualmente las redundancias se introducen deliberadamente y de acuerdo con algún algoritmo


predeterminado. Uno de estos algoritmos añade al código inicial da cada carácter un nuevo bit
denominado bit de paridad. Existen dos criterios para introducir este bit:

Bit de paridad, criterio par: se añade un bit (0 ó 1) de forma tal que el número total de unos del
código que resulte sea par.
Bit de paridad, criterio impar: Se añade un bit (0 ó 1) de forma tal que el número total de unos del
código que resulte sea impar.

Ejemplo:

Código inicial Código con bit de paridad par

100 0001 0100 0001


-
101 1011 1101 1011
-
101 0000 0101 0000
-

30 de 34 18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html

110 1000 1110 1000

- Código con bit de paridad impar

100 0001 1100 0001


-
110 0101 1110 0101
-
010 0000 0010 0000
-
000 0000 1000 0000
-

El bit de paridad se introduce antes de transmitir o grabar la información. Por ruido o interferencias en la
transmisión o defecto del soporte de la información puede eventualmente cambiar un bit (de 1 a 0 ó de 0 a
1). Si en el receptor o al leer la información se comprueba la paridad, se detectaría el error, ya que el
número de unos dejaría de ser par (en el criterio par) o impar (en el criterio impar).

En el caso de transmisión de datos, automáticamente se podría provocar una nueva transmisión del
carácter erróneo. Obviamente si se produjese el cambio simultáneo de dos bit distintos no se detectaría el
error de paridad, ahora bien, esta eventualidad es mucho menos probable que la de que cambie un sólo bit.

Códigos de barras

Otro caso habitual donde aparece información redundante con la finalidad de verificar errores, es en los
códigos de baras, habituales en cualquier producto que se comercialice masivamente. En 1974 los 12
países que entonces formaban la Unión Europea decidieron adoptar un sistema de codificación para los
productos, similar al sistema UPC de Estados Unidos de Norteamérica. Así surgió el código EAN
(European Article Numbering), sistema que han adoptado más de 100 países y cerca de un millón de
empresas.

El más usual es EAN 13, formado por 13 dígitos agrupados en cuatro partes: prefijo, código empresa,
código producto y dígito de control. El prefijo asignado por EAN internacional a AECOC es el 84, de
modo que la mayoría de las empresas que forman parte del sistema EAN a través de AECOC utilizan este
número. El código de empresa (fabricante o cadena de distribución) está formado por un número de entre
5 y 8 dígitos. El código del producto completa los primeros 12 dígitos y el último dígito es de control. Por
ejemplo, un tarro con garbanzos cocidos marca Eroski, lleva el siguiente código 8480010021967, donde
84 significa España, 80010 es el número que tiene asignado la cooperativa Eroski, 02196 corresponde a
ese tipo de garbanzos, siendo una clasificación interna del distribuidor y 7 es el código de control.

En el momento de la venta, el terminal punto de venta (TPV), realiza las siguientes operaciones:

1. Suma los dígitos de las posiciones pares: 4+0+1+0+1+6 = 12


2. Multiplica el resultado por 3: 12x3= 36
3. Le añade los dígitos de las posiciones impares: 36+8+8+2+9=63
4. Resta la suma obtenida del siguiente múltiplo de 10: 70-63=7

Si el resultado coincide con el dígito de control, como es el caso, el ordenador enviará el precio al TPV.

fresqui del.icio.us meneame

31 de 34 18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera... http://www.um.es/docencia/barzana/II/Ii05.html

Buscar en la web

Imprimir

Aquí puedes cambiar el tamaño y color del texto

Página Rafael Barzanallana


Actualización en Fisica
Biografía de Edward Lorenz

Actualización en Avisos.
II, trabajos capítulos 2 y 3 de la asignatura

Actualización en Software.
Tutorial sobre la nueva versión de Google Docs

Actualización en Software.
Tutorial sobre el programa HTTrackl

Actualización en Avisos.
II, Sobre GoogleDocs; enlace recomendado
http://www.escepticismo.es/menu-enlaces-escepticismo.html
XML Powered by FeedSweep

Enlaces de interés

Skip Navigation
Inicio
Divulgación
Física
Religiones
Fraudes médicos
Fraudes nutrición
Fraudes psicología
Informática

Fraudes en psicología

Los psicólogos de lo paranormal (abduciones) L.A. Gámez


Teoría de recuperación de recuerdos y síndrome de falso recuerdo. John Hochman
La psicología científica y las pseudopsicologías. Carlos Álvarez González
Psicología para escépticos
La psicología científica y los cuestionamientos al psicoanálisis

32 de 34 18/04/2008 20:21
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html

Introducción a la Informática. Estudios GAP,


facultad Derecho
Capítulo 6. Periféricos de un ordenador

Asignaturas
Introducción a la Informática
Introducción
Ofimática
La información
Historia de la Informática
Representación de la información
Periféricos de un ordenador
Lenguajes de programación
Sistemas operativos
Redes y comunicaciones
Informática Aplicada a la Gestión Pública
Introducción a la ingeniería del software
Metodologías de desarrollo
Metodologías habituales
Bases de datos. Introducción
Bases de datos. Organización ficheros
Bases de datos relacionales
Bases de datos comerciales
Introducción a internet
Intercambio electrónico de datos (EDI)
Comercio electrónico
Teletrabajo
Calidad
Informática Aplicada al Trabajo Social
Fundamentos de los ordenadores
Los ordenadores en la actualidad
Introducción al hardware
Fundamentos del software
Aplicaciones software
Diversos usos de los ordenadores
Comercio electrónico
Inteligencia artificial
Prácticas
Visión general de la informática
Internet
Editores de textos
Hojas de cálculo
Bases de datos
Lenguaje Pascal
Avisos
Escepticismo
Divulgación
Ciencia en general

1 de 35 18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html

Biología
Criminología
Inicio
Contacte

Introducción
Dispositivos de entrada
Dispositivos de salida
Dispositivos de memoria secundaria
Calidad en ordenadores personales

Selecciona un texto y
pulsa aquí para oírlo

6.1 Introducción

Se denominan periféricos tanto a los dispositivos a través de los cuales el ordenador se comunica con el
mundo exterior, como a los sistemas que almacenan la información, sirviendo de memoria auxiliar de la
memoria principal, independientemente de que se encuentre en el exterior o interior de la carcasa.

La memoria masiva o auxiliar trata de suplir las deficiencias de la memoria central (RAM): baja
capacidad y que la información almacenada se pierde al desconectar la alimentación eléctrica. En efecto,
los dispositivos de memoria masiva auxiliar (actualmente discos magnéticos y ópticos) tienen mucha más
capacidad que la memoria principal, y en ellos se puede grabar la información durante mucho tiempo.

Según la definición de periférico dada anteriormente, éstos están constituidos por unidades de entrada,
unidades de salida y unidades de memoria masiva auxiliar. Estas últimas también pueden considerarse
como de E/S, ya que el ordenador central puede escribir (dar salida) sobre ellas, y la información escrita
puede ser leída, es decir, ser dada como entrada. Ahora bien, la información grabadas en estos soportes no
es directamente inteligible para el usuario, esto es, no puede haber una intercomunicación directa
usuario-ordenador como la que hay a través de un teclado/pantalla.

El ordenador es una máquina que no tendría sentido si no se comunicase con el exterior, es decir, si
careciese de periféricos. Por lo que debe disponer de:

Unidad(es) de entrada, a través de la(s) cual(es) introducirle los programas que queramos que
ejecute y los datos correspondientes.

Unidad(es) de salida, con la(s) que la ordenador da los resultados de los programas.

Memoria masiva o auxiliar, que facilite su funcionamiento y utilización.

Los dispositivos de entrada/salida (E/S) transforman la información externa en señales codificadas,


permitiendo su transmisión, detección, interpretación, procesamiento y almacenamiento de forma
automática. Los dispositivos de entrada transforman la información externa (instrucciones o datos
tecleados) según alguno de los códigos de entrada/salida (E/S). Así el ordenador recibe dicha información
adecuadamente preparada (en binario). En un dispositivo de salida se efectúa el proceso inverso, la
información binaria que llega del ordenador se transforma de acuerdo con el código de E/S en caracteres
escritos inteligibles por el usuario.

Hay que distinguir claramente entre periféricos de un ordenador y máquinas auxiliares de un determinado

2 de 35 18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html

servicio informático, las máquinas auxiliares no están físicamente conectadas al ordenador (su
funcionamiento es autónomo) y sirven para preparar o ayudar en la confección o utilización de la
información que se da a, o produce, el ordenador. Por ejemplo, hace algunos años existian máquinas
autónomas para perforar tarjetas, para grabar cintas magnéticas manualmente a través de un teclado, para
separar el papel continuo producido por un programa a través de la impresora, etc.

Tampoco hay que confundir periférico con soporte de información. Por soporte de información se
entiende aquellos medios físicos sobre los que va la información. Por unidades o dispositivos periféricos
se entiende aquellos elementos encargados de transcribir la información al correspondiente soporte.

Ejemplos:

- Los disquetes son soporte de información, mientras que la unidad lectora o disquetera, es unidad
periférica.

- El papel impresora es soporte de información y la impresora unidad periférica.

Conexión de periféricos al ordenador

Las unidades funcionales del ordenador, así como éstas con los periféricos se comunican por grupos de
pistas denominados buses. Hay de dos tipos, serie y paralelo.

Los periféricos se interconectan al bus del sistema directamente o bien a través de unos circuitos
denominados interfaces. Hay una gran diversidad de periféricos con distintas características eléctricas y
velocidades de funcionamiento. Las interfaces son para adaptar las características de los periféricos a las
del bus del sistema.

Características generales de los periféricos

Cada periférico suele estar formado por dos partes diferenciadas en cuanto a su misión y funcionamiento:
una parte mecánica y otra electrónica.

La parte mecánica está formada básicamente por dispositivos electromecánicos (conmutadores


manuales, motores, electroimanes, etc.) controlados por los elementos electrónicos. Esta parte
determina la velocidad de funcionamiento.

La parte electrónica gestiona el funcionamiento de los procesos.

Desde el ordenador se actúa sobre los periféricos a iniciativa de las instrucciones de los programas. Para
poder utilizar eficazmente una ordenador, su sistema operativo contiene rutinas específicas para la gestión
de los periféricos. Sin estas rutinas sería extremadamente complejo utilizar un periférico desde un
lenguaje de alto nivel.

Algunos periféricos tienen la posibilidad de hacer autónomamente determinadas operaciones. Estas


operaciones pueden ser desde autocomprobar su funcionamiento físico, hasta funciones más complejas
como rebobinar una cinta magnética, dibujar en un registrador gráfico la información contenida en una
cinta magnética o imprimir una imagen desde la tarjeta de la máquina de fotografíar digital.

Clasificación de los periféricos

Los periféricos se dividen en tres categorías, ya conocidas:

3 de 35 18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html

Unidades de entrada.
Unidades de salida.
Unidades de memoria masiva auxiliar.

No necesariamente las distintas unidades están físicamente individualizadas en módulos independientes,


pudiendo, por ejemplo, estar montadas una unidad de entrada y una unidad de salida conjuntamente. Así
un terminal interactivo suele estar constituido por un teclado (unidad de entrada) y una pantalla (unidad de
salida). A veces se dice que estas unidades son de tipo mixto. Incluso hay dispositivos de entrada que
únicamente tienen sentido actuando conjuntamente con un dispositivo de salida (Ej.: lápiz óptico).

Las unidades de memoria masiva pueden considerarse como unidades de E/S mixtas. Así una unidad de
cinta magnética, cuando lee información de una cinta, actúa como dispositivo de entrada; cuando escribe
o graba información procedente de la ordenador central, actúa como unidad de salida.

6.2 Dispositivos de entrada

Los periféricos más usuales son los siguientes:

Teclado
Ratón (mouse)
"Joystick " o palanca manual de control
Lápiz óptico
Lector óptico
Lector de caracteres imanables
Lector de bandas magnéticas
Lector de tarjetas "Chip" o inteligentes ("Smart Card")
Lector de marcas
Lector de caracteres manuscritos
Lector de códigos de barras
Reconocedores de voz
Sistemas biométricos
Digitalizador o tableta gráfica
Pantalla sensible al tacto
Scanner o rastreador
Sistemas de radiofrecuencia (RFID)

TECLADO

Es un dispositivo análogo al de una máquina de escribir, correspondiendo cada tecla a uno o varios
caracteres, funciones u órdenes. Para seleccionar uno de los caracteres de una tecla puede ser necesario
pulsar simultáneamente dos o más teclas.

Al pulsar una tecla se cierra un conmutador que hay en el interior del teclado, esto hace que unos circuitos
codificadores generen el código de E/S correspondiente al carácter seleccionado, apareciendo éste en la
pantalla si no es un carácter de control.

Los teclados contienen los siguientes tipos de teclas:

Teclado principal: Contiene los caracteres alfabéticos, numéricos y especiales, como en una
máquina de escribir convencional con alguno adicional. Hay teclados que también incluyen aquí

4 de 35 18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html

caracteres gráficos.

Teclas de desplazamiento del cursor: Permiten mover el cursor en los cuatro sentidos, borrar un
carácter o parte de una línea.

Teclado numérico: Es habitual en los teclados de ordenador que las teclas correspondientes a los
caracteres numéricos (cifras decimales), signos de operaciones básicas (+, -, ...) y punto decimal
estén repetidas para facilitar al usuario la introducción de datos numéricos.

Teclas de funciones: Son teclas cuyas funciones son definibles por el usuario o por un programa.

Teclas de funciones locales: Controlan funciones propias del terminal, como impresión del
contenido de imagen cuando el ordenador está conectada a una impresora.

En algunos teclados la transmisión no se efectúa pulsación a


pulsación sino que se dispone de un almacén de reserva o buffer
(tampón) y el envío se efectúa a la vez para todo un conjunto de
mensajes completos cuando el usuario pulsa una tecla especial
destinada a activar dicha transmisión. Esta tecla recibe distintos
nombres como Return, Enter, Transmit, Intro, Retorno de carro.

Entre las posibles características técnicas a contemplar al evaluar la mejor o peor adaptabilidad de un
teclado a nuestras necesidades, podemos citar el número de caracteres y símbolos básicos, sensibilidad a
la pulsación, tipo de contactos de las teclas (membrana o mecánico), peso, tamaño, transportabilidad.
Actualmente se comercializan teclados ergonómicos, con una disposición algo original, aunque se han
difundido poco, y hay discusiones sobre si es cierta la ergonomía que propugnan.

Se pueden encontar teclados con funcionalidades extras, ya sean individualmente o en conjunto, como
lector de banda magnética, lector/grabador de tarjeta inteligente, conexión para escaner, detector
biométrico, con iluminación, entre otras posibilidades.

Para aplicaciones industriales y militares existen teclados totalmente sellados que soportan ambientes
agresivos, como por ejemplo aire, agua y atmósferas de vapores. Cumplen con la normativa IP65.

Entre los tipos de teclados más novedosos se encuentran los que son totalmente flexibles y los
denominados virtuales, que generan una simulación mediante un láser.

RATÓN

El ratón es un pequeño periférico que está constituido por una esfera que puede girar libremente, se
acciona haciéndola rodar sobre una superficie plana. Los modernos se basan en

5 de 35 18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html

un sistema óptico de diodo o láser de infrarrojo en lugar de la bola.

En el momento de activar el ratón, se asocia su posición con la del cursor en la


pantalla y si lo desplazamos sobre una superficie, el cursor seguirá dichos
movimientos. Actualmente es imprescindible en los entornos gráficos, como
KDE-Linux y Windows.

Una variación del ratón es la conocida como "trackball" que consiste en una
bola fija que se hace girar con los dedos. Presenta algunas ventajas sobre los
ratones tradicionales.

La interface de conexión con el ordenador, tanto del teclado como del ratón es a través de la interface
USB con cable o mediante sistemas inalámbricos infrarrojos o de radiofrecuencias, aunque hasta hace
poco tiempo era mediante interfaces específicas.

Dado que bajo los entornos de usuario gráficos actuales se emplea constantemente el ratón, se ha de
seleccionar uno de muy buena calidad, pues sino duran sólo unos pocos meses.

La tecnología más moderna respecto a los ratones es la basada en un


láser VCSEL (vertical-cavity surface-emitting laser), alcanzándose
resoluciones de hasta 2000 puntos por pulgada (una pulgada son 2.54
cm). Estos láseres VCSEL también son de utilidad para una nueva
generación de ordenadores y sistemas de comunicación fotónicos entre
tarjetas y entre "chip" con velocidades de hasta 2.5 Gb/s.

LÁPIZ OPTICO

Físicamente tiene la forma de una pluma o lápiz grueso, de uno de


cuyos extremos sale un cable para unirlo al monitor. Contiene un
pulsador, transmitiéndose información hacia el monitor sólo en el caso
de estar presionado. Al activar el lápiz óptico frente a un punto de la
pantalla se obtienen las coordenadas del sitio donde apuntaba el lápiz.

JOYSTICK. (Palanca manual de control)

La palanca manual de control (en inglés "joystick") está constituida por un dispositivo con una palanca o
mando móvil. El usuario puede actuar sobre el extremo de la palanca , y a cada
posición de ella le corresponde sobre la pantalla un punto. Dispone de un pulsador
que debe ser presionado para que exista una interacción entre el programa y la
posición de la palanca. La información que transmite es analógica.

Su uso ha sido popularizado por los video-juegos y aplicaciones gráficas.

LECTOR DE MARCAS

Hay ciertos documentos o productos que se utilizan en la vida ordinaria en gran cantidad y que pueden ser
controlados por ordenador, introduciendo con gran rapidez y sin error sus características sin necesidad de
teclear el código o información que los identifica. Esto es así porque en su superficie llevan impresos
caracteres, barras o marcas predefinidas, que pueden ser detectados por dispositivos especiales.

Ejemplos de estos productos y documentos: cheques bancarios, productos farmacéuticos, artículos de


supermercados, quinielas, exámenes de respuesta múltiple, etc. En la mayoría de los sistemas existe un
conjunto de caracteres o patrones predefinidos.

6 de 35 18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html

Las lectoras, analizan los datos carácter a carácter y detectan si cada zona de identificación está impresa o
no. A cada carácter, se le hace corresponder una secuencia ordenada de ceros y unos. El dispositivo de
entrada compara esta secuencia con la de los patrones que tiene almacenados.

Los lectores ópticos suelen contener una fuente de luz que ilumina intensamente el dato a leer, un sistema
óptico de ampliación de imagen y los elementos necesarios para identificar el carácter.

LECTOR DE CARACTERES MAGNÉTICOS

Los caracteres magnéticos se utilizan en cheques bancarios, y en las etiquetas de algunos medicamentos
en algunos países, pues en España se usa el código EAN. En estos documentos se imprimen, de acuerdo
con unos patrones, los caracteres que identifican el talón. La tinta utilizada es imanable (contiene óxido de
hierro) y además es legible directamente. La impresión se hace con una máquina auxiliar denominada
inscriptora electrónica.

Este dispositivo ofrece una serie de ventajas como:

Permitir la captación directa de datos.


Los documentos no necesitan cuidados especiales, se pueden doblar, escribir encima con tinta no
magnética.
Se consiguen velocidades de lectura muy apreciables.
Los caracteres usados son legibles.

Los inconvenientes que presentan son:

Alto costo.
Impresión cara y específica.

DETECTOR DE BANDAS MAGNÉTICAS

Utiliza señales electromagnéticas para registrar y codificar información en una banda imanada que puede
ser leída por una máquina, para identificación instantánea. La aplicación más difundida quizás es la de las
tarjetas de crédito y débito. Las instituciones financieras han preferido hasta hace poco tiempo esta
tecnología pues la reproducción era difícil de lograr, aunque la tendencia es a sustituirlas por tarjetas con
"chip" que son mucho más seguras. Se dice que las bandas magnéticas se utilizan para la identificación de
personas, mientras que los códigos de barras se aplican en la identificación de
productos. Las bandas magnéticas tienen excelentes posibilidades en aplicaciones de
corta duración tales como en pasajes de avión, donde la vida esperada del pasaje es del
orden de las 24 horas. En los Estados Unidos se pueden encontrar licencias de conducir
con bandas magnéticas. Asimismo documentos de identidad de instituciones educativas.
Algunas tarjetas "prepagadas" para hacer llamadas telefónicas son otro ejemplo de la
aplicación de las bandas magnéticas.

La codificación de bandas magnéticas, de acuerdo a las normas ISO BCD, se hace en hasta tres
localizaciones, pistas o "tracks" contenidos en la banda magnética. Dependiendo del "track" leido, se
puede almacenar desde 79 caracteres alfanuméricos (Pista 1), a 40 caracteres numéricos (Pista 2), hasta
107 caracteres numéricos (Pista 3). Las normas ISO generalmente se aplican a tarjetas de crédito y débito.

Las bandas magnéticas se leen mediante dispositivos de lectura manuales, similares a un lápiz, o por
detectores situados en los dispositivos en los que se introducen las tarjetas, incluso disponibles en algunos
teclados. La ventaja de este método es que la información es difícil de alterar una vez que se ha grabado

7 de 35 18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html

en la banda, salvo que se le aplique un campo magnético de intensidad adecuada. Esto proporciona un
cierto grado de seguridad frente a los sistemas convencionales.

LECTOR DE TARJETAS "CHIP" O INTELIGENTES

Son tarjetas análogas en dimensiones a las de crédito, pero que incorporan un circuito electrónico y una
pequeña memoria. Se comercializan de dos tipos, por lo que respecta a la comunicación, mediante
contactos o inalámbricos, como por ejemplo las tarjetas bonobus del transporte público en Murcia. Las
más modernas pueden incluir un sistema operativo, y lenguaje de programación como por ejemplo Java.

Un ejemplo de aplicación novedosa de este sistema, el el proceso de votaciones en Lisboa, usando una
tarjeta tipo "chip card" en lugar de las papeletas tradicionales. El prototipo de este Sistema de Voto
Electrónico (SVE) ha sido desarrollado por Omron Electronics. Cada elector dispone de una tarjeta
inteligente, que introduce en el dispositivo de lectura, apareciendo en una pantalla táctil la relación de
candidatos, procediendo el votante a efectuar la selección. Seguidamente dispone de 5 segundos por si
desea cambiar o anular su voto. El elector saca su tarjeta con la información de a quien ha votado, y
seguidamente la inserta en un sistema electrónico que efectúa la lectura.

LECTOR OPTICO

En este apartado únicamente se hace referencia a los detectores de marcas, detectores de barras y
detectores de caracteres manuscritos e impresos.

LECTOR DE MARCAS

Los lectores ópticos de marcas son sistemas que aceptan información escrita a mano y la
transforman en datos binarios inteligibles por el ordenador. El usuario se limita a marcar con su
lápiz ciertas áreas preestablecidas del documento que representan posibles opciones. Estos
documentos pueden ser leídos posteriormente, a gran velocidad, por un ordenador con un lector
óptico de marcas, que detecta las zonas preestablecidas que están marcadas. Esta forma de
introducir dstos es útil, por ejemplo, para corregir exámenes de tipo test, escrutar quinielas, valorar
encuestas, etc.

Una variante sencilla de este sistema la constituye el método de reconocimiento de marcas. En este
caso el dispositivo de lectura puede reconocer cuándo ciertas áreas se han ennegrecido con un lápiz
u otro instrumento de escritura. Entre los documentos sometidos a esta forma de lectura se
encuentran los cupones de las quinielas, los formularios para la lectura de los contadores de gas y
luz, y los cuestionarios con respuesta de elección múltiple. Los métodos de OCR y de
reconocimiento de marcas tienen la ventaja de que se pueden emplear para leer los datos
directamente de los documentos originales, pero son lentos y sensibles a los errores, en
comparación con otros métodos.

Una aplicación nueva es el sistema implantado por la Seguridad Social. Los médicos disponen de
una terminal portátil PDT 3100 de Symbol Tecnologies, lector de banda magnética e impresora
térmica para etiquetas. El médico genera una etiqueta para la receta, con su identidad, detalles del
paciente. En la farmacia se añade a la receta el código de barras del medicamento. Posteriormente
toda esta información se procesa, y ayuda a evitar el abundante fraude que se da en la medicina .

DETECTOR DE CARACTERES MANUSCRITOS E IMPRESOS

Los lectores ópticos de caracteres pueden detectar caracteres (alfabéticos y/o numéricos), o bien
impresos o mecanografiados, o bien manuscritos.

8 de 35 18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html

Los lectores de caracteres impresos suelen utilizar patrones normalizados.

Los lectores de caracteres manuales son mucho más complejos, sirviendo frecuentemente sólo para
detectar unos pocos caracteres. Usualmente en el manual del dispositivo se indica la caligrafía
"preferida" por el dispositivo.

El reconocimiento óptico de caracteres (OCR) está basado en el uso de un dispositivo de


exploración óptica que puede reconocer la letra impresa. Muchos documentos comerciales, como
las facturas de gas, luz o teléfono, disponen de una banda que figura en la parte inferior que se
puede leer mediante un dispositivo de OCR. Los nuevos pasaportes de la Comunidad Europea
disponen de una página de texto OCR en la que se incluyen todos los detalles del titular del
pasaporte. Se emplea un tipo de impresión especial para facilitar su lectura (algunos dispositivos de
OCR pueden leer tipos de imprenta comunes, y otros, como los empleados por las administraciones
postales para los procesos de clasificación, pueden reconocer la letra manuscrita siempre que ésta
sea suficientemente clara).

DETECTOR DE BARRAS

En la actualidad han adquirido un gran desarrollo los lectores de códigos de barras. Estos se usan en
centros comerciales. En el momento de fabricar un producto se imprime en su envoltorio una
etiqueta con información sobre según un código formado por un conjunto de barras separadas por
zonas en blanco.

La forma de codificar cada dígito decimal consiste en variar el grosor relativo de las barras negras y
blancas adyacentes. Con estas marcas se puede controlar fácilmente por ordenador las existencias y
ventas de una determinada empresa, e incluso gestionar los pedidos a los suministradores de forma
totalmente automática, lo cual genera un ahorro de costes considerable.

El cajero o cliente pasa un lector óptica por la etiqueta, introduciéndose así, sin necesidad de
teclear, y con rapidez, la identificación del artículo. El ordenador contabiliza el producto como
vendido y lo da de baja en la base de datos de existencias.

El lector óptico suele formar parte de una caja registradora que en realidad es un terminal
interactivo denominado terminal punto de venta (TPV).

Los códigos de barras se han transformado en la forma estándar de representar la


información en los productos de mercado en un formato accesible para las
máquinas. Un código de barras consiste en un conjunto de barras verticales
pintadas en negro (o en un color oscuro) sobre un fondo claro. Los caracteres se
codifican empleando combinaciones de barras anchas y estrechas y siempre se incluyen caracteres
de comprobación.

Un lector de código de barras interpreta la secuencia de barras y produce el conjunto de caracteres


equivalente. Los lectores de códigos de barras tiene la forma de un lápiz, que se
pasa sobre el código o bien son dispositivos mayores de carácter fijo, que
disponen de una ventana sobre la que se pasa el producto cuyo código se quiere
leer. En este último tipo la lectura se realiza mediante un haz láser. Los lectores
de códigos de barras se incorporan generalmente a algún tipo de terminal, como
en el caso de los más recientes tipos de cajas registradoras para supermercados
(TPV). Las experiencias hasta la fecha indican que los códigos de barras constituyen un método de
codificación bastante rápido y fiable a un precio asequible.

9 de 35 18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html

RECONOCEDORES DE VOZ

Uno de los campos de investigación actual relevantes relacionados con la informática es el


reconocimiento de la voz. Se pretende una comunicación directa del hombre con el ordenador, sin
necesidad de transcribir la información a través de un teclado u otros soportes intermedios.

Usualmente los dispositivos de reconocimiento de la voz o de la palabra tratan de identificar fonemas o


palabras dentro de un repertorio o vocabulario muy limitado. Un fonema es un sonido simple o unidad del
lenguaje hablado. Un sistema capaz de reconocer, supongamos, siete palabras, lo que hace al detectar un
sonido es extraer características o parámetros físicos inherentes a dicho sonido, y compararlos con los
parámetros (previamente memorizados) de las siete palabras que es capaz de reconocer. Si, como
resultado de la comparación, se identifica como correspondiente a una de las siete palabras, se transmite a
la memoria intermedia del dispositivo el código binario identificador de la palabra. Si el sonido no se
identifica, se indica esta circunstancia al usuario (iluminándose una luz, por ejemplo) para que el usuario
vuelva a emitir el sonido.

Existen dos tipos de unidades de reconocimiento de voz:

Dependientes del usuario: En estos sistemas es necesario someter al dispositivo a un período de


aprendizaje o programación, al cabo del cual puede reconocer palabras del usuario. En el período de
aprendizaje el sistema retiene o memoriza las características o peculiaridades de los sonidos
emitidos por el locutor, y que luego tendrá que identificar.

Independientes del usuario: Estos sistemas están más difundidos, pero el vocabulario que reconocen
suele ser muy limitado. Los parámetros de las palabras que identifican vienen ya memorizados al
adquirir la unidad. Son utilizados, por ejemplo, para definir el movimiento de cierto tipo de robots.
En este caso el operador da verbalmente órdenes elegidas de un repertorio muy limitado, como
puede ser: para, anda, arriba, abajo,... La unidad cuando capta un sonido comprueba si corresponde
a uno de los del repertorio. En caso de identificación se transmite a la ordenador central la
información necesaria para la ejecución del programa que pone en marcha y controla la acción
requerida.

SISTEMAS BIOMÉTRICOS

No se debe confundir con la biometría, que es una técnica estadística empleada por biólogos. Las
tecnologías de identificación biométricas no son nuevas (se puede mencionar como ejemplo a la
identificación de huellas dactilares) pero en cuanto a sofisticación tecnológica es un campo muy amplio
para explorar. Estas tecnologías se utilizan generalmente para aplicaciones de control de acceso y
seguridad. Información sobre alguna característica fisiológica es digitalizada y almacenada en el
ordenador, esta información se emplea como un medio de identificación personal.

Algunas de las técnicas biométricas son:

Reconocimiento de iris: Aparentemente dos personas no pueden tienen el mismo patrón de


formación del iris. La "morfogenesis caotica" del iris es un proceso de cambio del patrón del
iris durante le primer año de crecimiento del ser humano.
Reflexión retinal
Geometría de la mano
Geometría facial
Termografía facial: Un termograma facial es la representación gráfica de las emanaciones de
calor del rostro. Ante fluctuaciones de temperaturas el patrón calorífico del rostro se

10 de 35 18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html

mantiene invariable.
Huellas dactilares
Patrón de voz

Una técnica novedosa es el uso de las uñas de las manos como sistema biométrico y también como
memoria óptica y otra técnica futura es basándose en la fotónica.

PANTALLA SENSIBLE AL TACTO

Son pantallas que pueden detectar las coordenadas (x,y) de la zona de la propia pantalla donde se acerca
un puntero. Este es un sistema muy sencillo para dar entradas o elegir opciones sin utilizar el teclado.
Antes de la introducción del PC de IBM, los equipos Hewlett Packard bajo MS-DOS, venían con una
pantalla de este tipo, aunque dejaron de comercializarse al poco tiempo debido a su precio abusivo.

Se utiliza para la selección de opciones dentro del menú o como ayuda en el uso de editores gráficos. Con
frecuencia se ve en los denominados kioskos informativos, cada vez más difundido en grandes empresas,
bancos y en puntos de información urbana. Existen pantallas con toda su superficie sensible, y otras en las
que sólo una parte de ella lo es.

DIGITALIZADOR

Los digitalizadores o tabletas digitalizadoras o tabletas gráficas son unidades de entrada que permiten
transferir directamente al ordenador gráficos, figuras, planos, mapas, o dibujos en general. Esto se hace
pasando manualmente una pieza móvil por encima de la línea a digitalizar y automáticamente se
transfieren las coordenadas (x,y) de los distintos puntos que forman la imagen. Es decir, con el
digitalizador, partiendo de un dibujo se obtiene una representación digital de él, en el interior del
ordenador.

Un digitalizador consta de tres elementos:

Tabla: Donde se ubica el dibujo a digitalizar (puede ser opaca o transparente).

Mando: Con el que el usuario debe recorrer el dibujo. Suele tener forma de lápiz o cursor, y está
unido al resto del sistema por un cable flexible. En el último caso el cursor tiene una ventana
cerrada con una lupa, en cuyo interior se encuentra embebida una retícula en forma de cruz para
señalar o apuntar con precisión el punto a digitalizar. El mando puede disponer de uno o varios
pulsadores para controlar la modalidad de funcionamiento, forma de transmisión y selección de
opciones del programa que gestiona la digitalización.

Circuitos eléctrónicos: Controlan el funcionamiento de la unidad.

ESCANER

Es un dispositivo parecido a una fotocopiadora digital, se emplea para introducir imagenes en un


ordenador. Las imagenes que se desee capturar deben estar correctamente iluminadas para evitar brillo y
tonos no deseados. Son dispositivos de entrada de datos de propósito especial que se emplean
conjuntamente con programas para gráficos o de OCR y pantallas de alta resolución. La mayor parte
capturan imagenes en color.

11 de 35 18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html

Los programas que controlan el escaner suelen presentar la imagen capturada en la pantalla. Los colores
no tienen porqué ser necesariamente los originales, es posible capturar las imagenes en blanco y negro o
transformar los colores mediante algún algoritmo interno o modificar y mejorar la imagen. Sin embargo, y
en general, los colores que produce un scanner suelen ser los correctos.

SISTEMAS DE RADIOFRECUENCIA (RFID)

La tecnología de identificación por radio frecuencia (RFID) es un método electrónico de asignar un


código de información a un producto, proceso o persona y usar estos datos para identificar o acceder a
información adicional al respecto.

Los sistemas de identificación por radio frecuencia consisten generalmente de dos componentes:

El "transponder" que esta de alguna manera unido al elemento a ser identificado.

El lector que detecta la identidad del "transponder".

En algunos casos los transponders pueden ser programados para retransmitir un dato que representa su
identidad. En otros casos tiene un funcionamiento discreto (ON/OFF) como los antirrobo que se ponen en
las prendas de vestir de los comercios.

El funcionamiento de los dispositivos de RF/ID se realiza a frecuencias entre los 50 KHz y 2.5 GHz y a
baja potencia. Las unidades que funcionan a bajas frecuencias (50 KHz-14 MHz) son de bajo costo, corto
alcance, y resistentes al "ruido" entre otras características. No se requiere de licencia para operar a este
rango de frecuencia. Las unidades que operan a frecuencias mas altas (14 MHz-2.5 GHz), son el otro lado
de la medalla.

La tecnología del transponder se basa en la aplicación de un transmisor/receptor encapsulado en un "tag".


El receptor se activa por medio de una señal enviada por el lector (sistema pasivo). El
lector genera un campo magnético cuya señal de RF es captada por el receptor del "tag".
Este a su vez activará al transmisor el cual enviará un mensaje codificado único, que es
decodificado por el lector y almacenado en el ordenador.

Esta tecnología encuentra aplicación en identificación de especies animales, vehículos en


movimiento, bonos de transporte público, contenedores de basura, parihuelas (pallets),
paquetes, control de máquinas herramientas, identificación de líneas de tuberías, control
de inventario de balones (botellas) de gas, control de activos, identificación de animales,
identificación de personas, identificación de vehículos robados, monitoreo de líneas de
producción. control de acceso (por ej., en Murcia, en zonas peatonales, coches de

12 de 35 18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html

residentes), producción de carrocerías, identificación de partes, análisis de aguas,


monitoreo de estacionamiento de vehículos, identificación de antiguedades, control de
inventario, control de desechos tóxicos (y desechos en general), identificación de análisis de sangre.

Enlace recomendado: Telepeaje en las autopistas españolas


La siguiente es una lista de algunos intentos de normalizar la tecnologia RF/ID en la industria:

US Military X3T6 Committee


American Railroad Asociation
Automatic Identification Manufacturers (AIM), Small Animal Task Force
International Airline Transport Association (IATA), Identificacion de equipaje
ISO: RF/ID para animales
ISO 11784: 1996 Code Structure
ISO 11785: 1996 Technical Concept

Una aplicación que se está desarrollando de forma experimental, es para la gestión de equipajes en
aeropuertos. Se están usando "tags" de bajo costo, integrados en las etiquetas con códigos de barras que se
adhieren a los equipajes. En un futuro próximo pueden reemplazar a los códigos de barras disponibles en
los productos de consumo habitual, incluos puedne venir impresos en telas.

Otra aplicación útil, es el sumnistro de combustible a vehículos en estaciones de servicio. Texas


Instruments ha puesto he marcha unos "tags" con un código de
identificación del cliente, enlazado con una tarjeta de pago. Milisegundos
después de llegar al suministrador, el código se captura y autentifica, se
activa el dispensador de combustible y se realiza la compra
electrónicamente, sin necesidad de efectivo, cheques o tarjetas.

En Murcia se utilizan para gestión de accesos, por parte de residentes, a


calles peatonales y en los bonos de transporte en los autobuses urbanos.

Todavía no hay un concenso en cuanto a la estandarización de la tecnología RFID. Cuando eso suceda se
logrará un tag genérico y un lector que en circunstancias ideales podría adquirirse de distintos
proveedores.

6.3 Dispositivos de salida

SINTETIZADOR DE VOZ

Las unidades sintetizadoras de voz son dispositivos que dan los resultados de un programa emitiendo
sonidos (fonemas o palabras) similares al habla humana. Estos periféricos suelen incluir un
microprocesador, memoria con programas y datos, un conversor D/A (digital-analógico), un amplificador
de audiofrecuencia y altavoz.

La mayor parte de los sintetizadores de voz tienen memorizados digitalmente cada uno de los fonemas o
palabras que son capaces de emitir. Los datos que recibe un sintetizador procedentes del ordenador
corresponden a la identificación de los fonemas o palabras a emitir. Una vez que se analiza el dato, se
activa una rutina encargada de generar el sonido correspondiente.

Los sonidos resultan "metálicos". Por lo general, estos sistemas incluyen programas que enriquecen las
posibilidades de los mismos, como generar frases o combinaciones de palabras, incluso hay sistemas que
traducen cantidades.

13 de 35 18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html

VISUALIZADORES ("DISPLAYS")

Los visualizadores son pequeñas unidades de salida que permiten al usuario leer una instrucción, un dato
o un mensaje.

Los caracteres se forman partiendo de estructuras en módulos, cada uno de los cuales sirve para visualizar
un carácter. Cada módulo contiene una serie de segmentos, siendo los más habituales de siete. Un carácter
concreto se visualiza activando determinados segmentos, dependiendo de la forma del símbolo.

El visualizador es el elemento de salida típico de las calculadoras de bolsillo y de los relojes digitales.

TRAZADOR DE GRAFICOS

Los trazadores de gráficos ("plotters") son dispositivos de salida que realizan dibujos sobre papel. Tienen
gran importancia ya que con ellos se obtienen directamente del ordenador planos, mapas, dibujos,
gráficos, esquemas e imagenes en general.

El funcionamiento de un plotter se controla desde programa. El usuario puede incluir en su programa


instrucciones para realizar las representaciones que desee con sus datos.

Los registradores gráficos se fundamentan en el desplazamiento relativo de un cabezal con el elemento de


escritura, con respecto al papel. Dependiendo del tipo de gráfico se moverá sólo la cabeza, o la cabeza y el
papel. Según la forma en que se realiza el dibujo, los registradores se pueden clasificar en tres tipos:

De pluma.
Electrostáticos.
De inyección

En los registradores de pluma el dibujo se realiza mediante un cabezal en el que se insertan los elementos
de escritura: plumas, bolígrafos o rotuladores. Cada elemento de escritura puede subirse o bajarse hasta
entrar en contacto con el papel, todo ello controlado por programa.

14 de 35 18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html

Los registradores electrostáticos son impresoras electrostáticas. El sistema de tracción de papel es similar
al de una impresora convencional. El dibujo se realiza línea a línea. El elemento de escritura está
constituido por una serie de agujas cuya densidad puede variar.

Por lo que respecta a los de inyección, trabajan de forma análoga a una impresora de tinta, que se
describen en el apartado correspondiente.

MONITORES

Hasta hace poco tiempo el tipo más habitual de pantalla era la que vemos en los ordenadores de
sobremesa, la de tubo de rayos catódicos (TRC), aunque cada vez se difunden más las de cristal líquido,
habituales en los equipos portátiles.

La imagen de una pantalla TRC se forma al incidir un haz de electrones sobre la superficie interna de la
pantalla que está recubierta de un material fosforescente, analogamente a
como se forman las imagenes en un televisor. Un campo electromagnético
desplaza el haz de electrones de izquierda a derecha y de arriba a abajo y,
dependiendo de la intensidad con la que inciden los electrones en la
pantalla así de brillante será cada punto generado. La imagen, para ser
visualizada durante un determinado tiempo debe ser repetida o refrescada
periódicamente (al menos 25 veces por segundo). Estas pantallas se
denominan pantallas de barrido.

Una imagen de pantalla no es continua sino que se forma por multitud de


puntos de imagen ("pixel"). La pantalla está dividida en celdas (mediante una rejilla metálica o si es
tecnología Trinitron mediante unos alambres), en cada una de las cuales puede ir un carácter. La celda
está constituida por una matriz regular de puntos de imagen.

Las pantallas se clasifican, según la capacidad o no de mostrar colores, en:

Monocroma: Los colores usuales en una monocromática son el blanco, ámbar o verde.
Color: El color de cada punto se obtiene con mezcla (RGB) de los colores rojo, verde y azul,
pudiéndose programar la intensidad de cada color básico.

Según su capacidad de representación se pueden clasificar en:

De caracteres: Sólo admiten caracteres.


Gráficas: Permiten trazados de líneas y curvas continuas.

En las pantallas de caracteres, la memoria de imagen (que es específica o una parte de la memoria RAM)
almacena la información correspondiente a cada celda (códigos de caracteres y sus atributos). En la
memoria ROM están los patrones de los caracteres, representados como una matriz de puntos. Se
denomina generador de caracteres a esta memoria de sólo lectura. En las pantallas gráficas el usuario tiene
acceso al punto de imagen, pudiendo representar en ellas imagenes configuradas no sólo con las formas
de caracteres incluidos en la ROM. En este caso, la memoria de imagen contiene la información
correspondiente a cada punto de imagen (intensidad, color y otros posibles atributos), en vez de la
correspondiente a cada celda. Los dibujos, a pesar de estar formados por puntos de imagen presentan una
apariencia de líneas continuas. La calidad de la pantalla gráfica depende de la densidad de puntos de
imagen.

Los principales parámetros que caracterizan a una pantalla son:

Tamaño: Se da en función de la longitud de la diagonal principal, y se tiene la mala costumbre de


darla en pulgadas, que no es una unidad del Sistema Internacional de Unidades (SI). Las más

15 de 35 18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html

habituales son las de 431.8 mm (17"), aunque en muchos países se están utilizando superiores.

Número de celdas o caracteres: Lo usual es una representación de 24 filas por 80 columnas de


caracteres.

Resolución: Es el número de puntos de imagen en pantalla. No depende del tamaño de la pantalla.


Usualmente se consideran básicamente tres tipos de resolución (hay resoluciones superiores):

CGA 640*200 puntos


VGA 640*480 puntos
SVGA 1024*768 puntos

En las pantallas de TRC se han de considerar unas normas de seguridad, dado que estos dispositivos
emiten radiaciones de diversos tipos. La radiación más conocida (por sus efectos perjudiciales para la
salud) es la de rayos X, problema que está solucionado, pues todos los monitores llevan cantidad
suficiente de plomo en el cristal, como para reternerla en su mayor parte. Otro tipo de radiación es la
producida por campos eléctromagnéticos a muy bajas frecuencias y a extremadamente bajas frecuencias
(ELF y VLF), según algunas investigaciones (no hay evidencias claras), susceptibles de producir cáncer.
Para evitar este tipo de radiaciones los monitores han de ser homologados MPR, normativa sueca muy
restrictiva, hay otra aún más restrictiva, propuesta por los sindicatos suecos, es la conocida como TCO,
(disponible, por ejemplo en Philips). En resumen, cuando se adquiera un monitor se ha de considerar que
como mínimo lleve la homologación alemana (TÜV) o sus equivalentes en EE.UU. (UL) o para Canadá
(CSA), aparte si se quiere de baja radiación ha de llevar la MPR II o la TCO. Cualquier monitor que no
esté homologado es un peligro para el usuario. Desde el uno de enero de 1996, es obligatoria en los países
de la Unión Europea, la certificación CE, que implica unos mínimos de seguridad, aunque no es una
marca de calidad, ni implica la homologación MPR II.

Una solución es poner filtros para la pantalla, pero si se quiere uno realmente bueno y que ofrezca la
misma seguridad que un monitor de baja radiación su precio es tan elevado, que merece la pena cambiar
de monitor.

Las pantallas de otras tecnologías como plasma, cristal líquido y


cristal líquido orgánico, son mucho más seguras pues la radiación
que emiten es mínima.

La tecnología de plasma fue introducida a principio de los años


1960 por la empresa japonesa Fujitsu, aunque hasta hace muy poco
tiempo no se han logrado con tecnologías asequibles de fabricar y
de bajo consumo. Una pantalla de plasma tiene un fundamento
análogo a los tubos fluorescentes, es una pantalla plana con
muchos alvéolos (uno por pixel) cubierto por un elemento químico
del grupo de las tierras raras, para que la luz emitida por el plasma, que es en el rango ultravioleta se
reemita en el espectro visible. En base a alvéolos de los tres colores fundamentales (rojo, verde y azul) y
mediante la variación rápida del tiempo de iluminación, se logra crear tonos intermedios, de forma
análoga al cine digital- Aunque se anucia muchos en televisores, esta tecnología noe s rentable, son de
precio elevado, consumen mucha electricidad y la vida es limitada, pueden deteriorarse alguno alvéolos y
por lo tanto perdiendo calidad de imagen

Una nueva tecnología que puede reemplazar a los monitores TRC es la denominada "Flat Panel Display"
(FPD). Esencialmente estas pantallas son híbridas entre las convencionales de rayos catódicos y las
pantallas FED ("Field Emission Display"). Usan películas de diamante/carbono, resultando unas pantallas
planas de alta calidad (más brillo y resoluciones que las actuales) y que se pueden fabricar en las mismas

16 de 35 18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html

plantas que actualmente producen TRC.

Lo más novedoso son las pantallas de ordenador táctiles para ciegos, desarrolladas en la universidad de
Málaga.

Una nueva tecnología ha dado lugar a pantallas flexibles, usan tecnología OLED, qu epodría competir con
las de LCD en el negocio multimillonario de los monitores planos. La tecnología OLED no necesita ser
retroiluminada, así que que consumen menos y son más delgados que los LCDs.Sin embargo, los analistas
estiman que pasarán 10 años antes de que las pantallas OLED tengan tamaño como para competir con
LCDs. Ahora mismo, las pantallas OLED se utilizan en teléfonos móviles y en maquinillas de afeitar
eléctricas.

Las pantallas flexibles OLED están atrayendo la atención por


la posibilidad de ser enrrolladas y transportadas. En un nivel
más práctico, también son interesantes para las empresas
porque la aplicación de la tecnología OLED a un fondo
plástico es un sistema de producción más barato.

La empresa holandesa Philips ha presentado pantallas planas


enrrolables, con muchas posibles aplicaciones, como mapas
electrónicos y periódicos electrónicos. Constan de dos partes,
el frontal visual, un biestable electroforético, fabricado por E
ink en Inglaterra y la base electrónica de polímero desarrollada
por Philips. Sus dimensiones son, 100 micrometros de espesor y un radio de enrollamiento de 7.5 mm,
pudiendo enrollarse hasta 10000 veces.

El principal problema en los dispositivos portátiles es la alimentación eléctrica, NEC Corporation (Japón)
ha presentado baterías flexibles ultradelgadas, recargables en tan sólo 30 segundos. Están fabricadas con
un cátodo de plástico, llamado "organic radical polymer (ORB)"

Enlaces recomendados:
Nuevas tecnologías de televisión, plasma frente LCD
Monitores TFT, puntos que marcan la diferencia

MICROFILM

La salida de datos en microfilm es una técnica de representar los datos de salida. Las técnicas COM se
usan en los bancos para llevar los registros de los balances diarios de cuentas. Esto supone un gran ahorro
de papel, al evitar las salidas por impresora, al tiempo que reduce problemas de almacenamiento. Cada
"página" se representa en una pantalla y se fotografía mediante una cámara especial. La imagen de la
página mide alrededor de 1.5 cm2. La película se corta en microfichas del tamaño de una postal
conteniendo cada una cien páginas. Se emplea un lector de microfichas para proyectar la imagen
aumentada de una página cuando es necesario leerla.

IMPRESORAS

Las impresoras son periféricos que escriben la información de salida sobre papel. Su comportamiento
inicialmente era muy similar al de las máquinas de escribir, pero hoy día son mucho más sofisticadas,
incluso algunas son fotocopiadoras o fax, conectadas con el ordenador. Junto a las pantallas, los
dispositivos más utilizados para poder ver en forma inteligible los resultados de un programa de

17 de 35 18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html

ordenador.

Las impresoras tienen dos partes diferenciadas: la parte mecánica (alimentación y arrastre) y la parte
electrónica.

Las impresoras tradicionalmente utilizaban papel continuo, en cuyos márgenes existen unos taladros. En
este caso, el arrastre se efectúa por un tractor que dispone de unos dientes metálicos que encajan en los
taladros laterales del papel. Actualmente la mayoría no necesitan papel continuo, efectuándose el arrastre
por fricción o presión, como en el caso de las máquinas de escribir o en las fotocopiadoras
convencionales.

Clasificación y tipos de impresoras

Existen diversos criterios para clasificar las impresoras.

Calidad de impresión: Considera la calidad de presentación y de contraste de los caracteres impresos. Las
impresoras se clasifican en :

Normales: Como las impresoras de línea, de rueda y térmicas.


Semicalidad. Como algunas impresoras matriciales.
Calidad: Como las de margarita (obsoletas), tinta y láser.

Fundamento del sistema de impresión

Hay impresoras que realizan la impresión por impacto de martillos o piezas móviles mecánicas, y otras
sin impacto mecánico.

El fundamento de las impresoras por impacto es similar al de las máquinas de escribir. Sobre la superficie
de la línea a imprimir en el papel se desliza una cinta entintada, y delante de ésta pasa una pieza metálica
donde está moldeado el juego de tipos de impresión. Cuando pasa el tipo a grabar sobre su posición en el
papel, se dispara un martillo que golpea la cinta contra el papel, quedando impreso en tinta sobre el papel
el carácter en cuestión. En otras impresoras de impacto cada carácter se crea por el disparo de ciertas
agujas metálicas que conforman el carácter con un conjunto de puntos.

Las impresoras de impacto son muy ruidosas y tradicionalmente han sido las más utilizadas. Entre ellas se
encuentran las impresoras de rueda, bola, margarita, matriciales, cilindro y cadena.

Las impresoras sin impacto forman los caracteres sin necesidad de golpes y utilizan otros principios
físicos para transferir las imagenes al papel. Son impresoras sin impacto las térmicas, de inyección de
tinta y las láser.

Forma de imprimir los caracteres

En cuanto a este aspecto, las impresoras se pueden clasificar en:

De caracteres
De líneas
De páginas

Impresoras de caracteres

Realizan la impresión por medio de un cabezal que va escribiendo la línea carácter a carácter. El
cabezal se desplaza a lo largo de la línea que se está imprimiendo, sólo de izquierda a derecha

18 de 35 18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html

(impresoras unidireccionales) o bien, para conseguir mayor velocidad, de izquierda a derecha y de


derecha a izquierda sucesivamente (impresoras bidireccionales).

Impresoras de líneas

En estas impresoras se imprimen simultáneamente todos o varios de los caracteres correspondientes


a una línea de impresión.

Impresoras de página

Aquí se incluyen un grupo de impresoras que actúan de forma muy similar a las máquinas
fotocopiadoras. Se caracterizan por contener un tambor rotativo donde se forma con un polvillo
especial (tóner) la imagen de la página a imprimir. Esta imagen, por contacto y un proceso de
fijación se transfiere al papel.

Descripción de distintos tipos de impresoras

Impresoras de rueda

Son impresoras de impacto y de caracteres. El cabezal de impresión está constituido por una rueda
metálica que contiene en su parte exterior los moldes de los distintos tipos. La rueda se desplaza
perpendicularmente al papel a lo largo de un eje o varilla metálica paralela al rodillo donde se
asienta el papel. La rueda está continuamente girando y cuando el tipo a escribir pasa delante de la
cinta entintada se dispara, por la parte posterior al papel, un martillo que hace que el carácter se
imprima en tinta sobre el papel. Una vez escrito el carácter, la rueda se desplaza a lo largo de la
varilla, hacia su derecha, o pasa a la línea siguiente. Estas impresoras están en desuso.

Impresoras de margarita (ya no se fabrican)

Fueron impresoras de buena calidad de impresión, sin embargo eran lentas. Los caracteres se
encuentran modelados en la parte más ancha de los sectores (pétalos) de una rueda en forma de
margarita. La margarita forma parte del cabezal de impresión. Un motor posiciona la hoja de
margarita del carácter a imprimir frente a la cinta entintada, golpeando un martillo al pétalo contra
la cinta, escribiéndose el carácter. El juego de caracteres se puede cambiar sin más que sustituir la
margarita. Eran análogas a las máquinas de escribir.

Impresoras matriciales o de agujas

También denominadas de matriz de puntos. Los caracteres se forman por medio de una matriz de
agujas que golpea la cinta entintada, trasfiriéndose al papel los puntos correspondientes a las agujas
disparadas.

Los caracteres son punteados, siendo su calidad muy inferior a los continuos producidos por una
impresora láser. No obstante, algunos modelos de impresoras matriciales, tienen la posibilidad de
realizar escritos en calidad de impresión, para ello, los caracteres se reescriben con los puntos
ligeramente desplazados, solapándose los de la segunda impresión con los de la primera, dando una
mayor apariencia de continuidad.

Impresoras de tambor (ya no se fabrican)

De estas impresoras existieron dos dos tipos, de tambor compacto y de ruedas. Ambos tipos son
impresoras de líneas y de impacto. La impresora de tambor compacto contiene una pieza metálica

19 de 35 18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html

cilíndrica cuya longitud coincide con el ancho del papel. En la superficie externa del cilindro o
tambor se encuentran modelados en circunferencias los juegos de caracteres, estando éstos
repetidos tantas veces como posiciones de impresión de una línea. El tambor está constantemente
girando, y cuando se posiciona una generatriz correspondiente a una determinada letra, la "A" por
ejemplo, se imprimen simultáneamente todas las "A" de la línea.

Las impresoras de tambor de ruedas son similares, sólo que cada circunferencia puede girar
independientemente. Todos los caracteres de la línea de impresión se escriben a la vez,
posicionándose previamente cada tipo en su posición correcta. En lugar de una cinta entintada, estas
impresoras suelen llevar una pieza de tela entintada del ancho del papel.

Impresoras de barras

Los caracteres se encuentran moldeados sobre una barra de acero que se desplaza de izquierda a
derecha a gran velocidad, oscilando delante de la línea a escribir. El juego de caracteres está
repetido varias veces. Cuando los moldes de los caracteres a imprimir se posicionan delante de las
posiciones en que han de quedar en el papel se disparan por detrás de éste unos martillos,
imprimiéndose de esta forma la línea. El número de martillos coincide con el número de caracteres
por línea.

Impresoras de cadena

El fundamento es exactamente igual al de las impresoras de barra. Ahora los caracteres se


encuentran grabados en los eslabones de una cadena. La cadena se encuentra cerrada y girando
constantemente a gran velocidad frente a la cinta entintada.

Impresoras térmicas

Son similares a las impresoras de agujas. El calor se transfiere desde el cabezal por una matriz de
resistencias en las que al pasar una corriente eléctrica se calientan, formándose los puntos en el
papel. Son habituales en lso acjeros bancarios y tikets de compra.
Estas impresoras pueden ser:

De caracteres: Las líneas se imprimen con un cabezal móvil.


De líneas: Contienen tantas cabezas como caracteres a imprimir por línea. Son más rápidos.

Impresoras de inyección de tinta

El descubrimiento de esta tecnología fue fruto del azar. Al acercar accidentalmente el soldador, por
parte de un técnico, a un minúsculo cilindro lleno de tinta, salió una gota de tinta proyectada,
naciendo la inyección de tinta por proceso térmico. La primera patente referente a este tipo de
impresión data del año 1951, aunque hasta el año 1983, en el que Epson lanzó la SQ2000, no
fueron lo suficientemente fiables y baratas para el gran público. Actualmente hay varias
tecnologías, aunque son muy pocos los fabricantes a nivel mundial que las producen.

El fundamento físico consiste en emitir un chorro de gotas de tinta ionizadas que en su recorrido es
desviado por unos electrodos según la carga eléctrica de las gotas. El carácter se forma con la tinta
que incide en el papel. Cuando no se debe escribir, las gotas de tinta se desvían hacia un depósito de
retorno, si es de flujo contínuo, mientras que las que son bajo demanda, todas las usadas con los
PC`s, la tinta sólo circula cuando se necesita. Los caracteres se forman según una matriz de puntos.
Estas impresoras son bidireccionales y hay modelos que imprimen en distintos colores.

20 de 35 18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html

Un ejemplo de aplicación de la impresión con tinta es el marcado de lote y fecha de caducidad en


botellas de productos alimenticios. Este proceso se efectúa con el sistema de impresión mediante
circulación contínua Los equipo de marcado de botellas sufren una degradación progresiva en la
tinta que contienen, debida al proceso tecnológico de funcionamiento. el sistema de circulación
contínua de tinta provoca que una partícula de tinta pase por el cabezal impresor gran cantidad de
veces antes de ser proyectada. La tinta al sufrir presión, entrar en contacto con el aire y sufrir la
carga de las placas electrostáticas pierde propiedades eléctricas, se evapora parte del disolvente y
sufre contaminación debida al polvo y humedad del aire. Este sistema incorpora un viscosímetro
que controla la cantidad de disolvente que la tinta pierde al entrar en contacto con el aire y la
compensa añadiendo aditivo, que además de disolvente añade sales y otros elementos para
recuperar la tinta.

La contaminación que la tinta sufre con el contacto del aire, provoca peor calidad de impresión,
llegando un momento en el que hay que cambiar la tinta. El equipo incorpora un depósito central de
cambio fácil e instantáneo que avisa con 24 horas de antelación al momento de sustitución. El
depósito central incorpora el filtro principal de tinta, con lo que se cambia sin intervención cada vez
que se repone el depósito.

Impresoras electrostáticas

Las impresoras electrostáticas utilizan un papel especial eléctricamente conductor (de color gris
metálico). La forma de los caracteres se produce por medio de cargas eléctricas que se fijan en el
papel por medio de una hilera de plumillas que abarcan el ancho del papel. Posteriormente a estar
formada eléctricamente la línea, se la hace pasar, avanzando el papel, por un depósito donde se la
pulveriza con un líquido que contiene suspendidas partículas de tóner (polvo de carbón). Las
partículas son atraídas en los puntos que conforman el carácter. Estas impresoras de línea son muy
rápidas.

Impresoras láser

Estas impresoras tienen una gran importancia por su elevada velocidad, calidad de impresión,
relativo bajo precio y poder utilizar papel normal.

Su fundamento es muy parecido al de las máquinas de fotocopiar. La página a imprimir se transfiere


al papel por contacto, desde un tambor que contiene la imagen impregnada en tóner.

21 de 35 18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html

La impresión se realiza mediante radiación láser, dirigida sobre el tambor cuya superficie tiene
propiedades electrostáticas (se trata de un material fotoconductor, tal que si la luz incide sobre su
superficie la carga eléctrica de esa superficie cambia). Si es en colores, suelen llevar tres tóneres y
tres tambores.

Impresoras LED

Son análogas a las laser, con la única diferencia que la imagen se genera desde una hilera de diodos,
en vez de un laser. Al ser un dispositivo fijo, son más compactas y baratas, aunque la calidad es
peor. Algunas de las que se anuncian como laser a precio barato, son de esta tecnología, por
ejemplo Fujitsu y OKI.

Enlace recomendado: Tecnologías de impresión en color

PARAMETROS QUE CARACTERIZAN A UNA IMPRESORA

Velocidad de escritura

Normalmente la velocidad de impresión se da en las siguientes unidades:


Impresoras de caracteres: Caracteres por segundo (cps).
Impresoras de líneas: Líneas por minuto (lpm).
Impresoras de páginas: Páginas por minuto (ppm).

Caracteres por línea

Es el número máximo de caracteres que se pueden escribir en una línea.

Ancho del papel o longitud del carro

Se suele dar en pulgadas.

Densidad de líneas

Se expresa normalmente en líneas por pulgada e indica el espaciado entre líneas.

Tipos de letras

Una misma impresora puede escribir con distintos tipos de letras. Las de agujas usualmente pueden
escribir en tamaño normal, comprimido y elongado. El cambio del tipo de letra se realiza por

22 de 35 18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html

programa.

Color

Es la posibilidad de imprimir en colores. Usualmente los colores se forman a partir de tres básicos
(como en los monitores en color), pero a partir del cian, magenta y amarillo.

Resolución

Una gran parte de impresoras forman los caracteres por unión de puntos. La resolución se suele dar
en número de puntos por unidad de superficie.

6.4 Dispositivos de memoria secundaria

Una característica que distingue un soporte de almacenamiento de los de entrada o de salida (aparte de la
posibilidad de realizar operaciones de entrada/salida indistintamente) es que en el soporte de
almacenamiento los datos son legibles sólo por la máquina y no lo son directamente por el hombre.
Mientras los dispositivos de memoria permiten un acceso inmediato del programa a la información que
contienen, los de almacenamiento guardan la información en un soporte que no permite el acceso
inmediato desde el programa y se requiere un paso previo de lectura (o entrada) que recupera dicha
información desde el almacenamiento y lo lleva a la memoria.

Si la memoria de los ordenadores tuviera gran capacidad y no fuera volátil no serían precisos sistemas de
almacenamientos externos. Si se han inventado distintos tipos de dispositivos de almacenamiento de los
datos es por la imposibilidad de disponer de memoria con capacidad suficiente. Sacrificando la
inmediatez del acceso se obtienen capacidades muchísimo mayores a precios muy inferiores y con
tiempos de respuesta aceptables para cada tipo de aplicación. Los soportes magnéticos son el medio más
usual de almacenar la información. Entre la variedad existente, destacan: cinta, disco y disquete.

Las principales características de estos soportes son:

Reutilizabilidad (salvo en los primitivos).


Elevada capacidad de almacenamiento.
No volátiles.
Más económicos que la memoria central (RAM).

Dentro de los dispositivos de almacenamiento secundario hay que tener en cuenta en el momento de su
elección las siguientes características:

Tiempo de acceso a los datos.


Velocidad de transferencia de los datos.
Capacidad total de almacenamiento.
Tipo de acceso del dispositivo (secuencial o directo).
Costo/bit del dispositivo.
Densidad de almacenamiento.

Recientemente se han desarrollado soportes de almacenamiento de tecnología óptica que tienen mayores
densidades de grabación que las magnéticas convencionales.

23 de 35 18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html

Se distinguen los siguientes tipos de dispositivos de almacenamiento:

DISCOS MAGNETICOS

Los discos magnéticos son los sistemas de almacenamiento que en la actualidad tienen más importancia,
ya que constituyen el principal soporte utilizado como memoria masiva. A pesar de que son más costosos
que las cintas, son de acceso directo, y con ellos se consiguen tiempos medios de acceso mucho menores
que con las cintas.

Un disco está constituido por una superficie metálica o plástica recubierta por una capa de una sustancia
magnética. Los datos se almacenan mediante pequeños cambios en la imanación, en uno u otro sentido. El
plato o disco puede ser de plástico flexible o rígido, en el primer caso tenemos disquetes o
discos flexibles (en inglés floppy disk o diskettes) y en el segundo caso discos rígidos o
duros.

Tanto en los discos rígidos como en los flexibles la información se graba en circunferencias
concéntricas, no percibiéndose visualmente. Cada una de estas circunferencias constituye una pista. Así
mismo el disco se considera
dividido en arcos iguales
denominados sectores, de esta
forma cada pista está compuesta de
sectores. Los sectores de las pistas
más exteriores son de mayor
longitud que las interiores, ahora
bien el número de bits grabados en
cada sector es siempre el mismo,
con lo que la densidad de
grabación será mayor en las pistas
interiores que en las exteriores. Los
sectores comienzan con una
cabecera de identificación,
indicando su dirección completa.
Un cilindro es un conjunto de
pistas, una en cada disco, que son accesibles simultáneamente por el conjunto de cabezas.

La lectura y escritura en la superficie del disco se hace mediante una cabeza. Esta suele ser de tipo
cerámico, aunque inicialmente eran metálicas. La cabeza, en las unidades de cabezas móviles, está
insertada en un extremo de un brazo mecánico, que se desplaza hacia el centro o hacia la parte externa del
disco, bajo el control de los circuitos electrónicos del periférico. El direccionamiento para leer o grabar un
sector del disco se efectúa dando al periférico:

número de unidad
número de superficie
número de pista
número del sector

El brazo sitúa rápidamente la cabeza encima de la pista correspondiente y espera a que el sector en
cuestión se posicione bajo la cabeza. En el acceso, por tanto, hay que considerar dos tiempos:

Tiempo de búsqueda de la pista (tb)


Tiempo de espera al sector (te)

24 de 35 18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html

Luego el tiempo de acceso será ta = tb + te. En las unidades de cabezas fijas, hay una cabeza por pista y
por tanto ta = te. La unidad de transferencia de datos desde y hacia el disco es el sector.

Los disquetes suelen tener una o varias referencias físicas (orificios y muescas) para poder identificar los
sectores y pistas. Esto se denomina sectorización hardware o física. En los disquetes de 133 mm sólo
existe un orificio de alineamiento y referencia. Este orificio, cuando el disco gira, es detectado por un
conjunto fotodiodo/fototransistor utilizándose como punto de referencia para el acceso a las distintas
pistas y sectores. Las unidades de discos rígidos suelen tener unas muescas que identifican los límites de
cada sector y el primer sector de la pista.

Antes de utilizar un disco es necesario efectuar en él unas grabaciones denominadas "dar formato" al
disco. Al formatear un disco se definen por software las pistas y sectores, además se inicializa un
directorio para la información sobre el contenido del disco (es como un índice). El formateo efectúa una
sectorización que detecta y elimina para posteriores grabaciones, las zonas del disco deterioradas. El
formateo incluye tablas con los nombres de los ficheros grabados en él, fecha y hora en que se crearon o
actualizaron por última vez, espacio que ocupan y direcciones físicas donde se encuentran.

Clasificación y tipos de discos

Básicamente existen cinco tipos de unidades de discos:

Discos de cabezas fijas


Paquetes de discos
Discos cartucho
Discos Winchester (disco duro)
Disquetes y extraibles

A continuación se describen brevemente cada uno de ellos:

Discos de cabezas fijas

Son discos que tienen una cabeza individual de lectura/escritura para cada pista, con ello se
consigue un tiempo de acceso relativamente bajo, ya que este tiempo viene fijado únicamente por la
velocidad de giro del disco. Existen unidades con un sólo plato o con varios.

Paquetes de discos

Son unidades compuestas por varios platos que giran solidariamente alrededor de un eje común.
Las cabezas le lectura/escritura son móviles, existiendo una por superficie. Estas se desplazan
simultáneamente a gran velocidad radialmente buscando la pista en que se encuentra el sector que
se debe escribir o leer. Todas las cabezas se mueven al unísono, y cada cabeza lee/graba en el sector
correspondiente a su superficie, trasfiriéndose la información en paralelo.

En un instante dado, por tanto, se leen/graban las mismas pistas de las distintas superficies. Cada
grupo de estas pistas se denomina cilindro de pistas, existiendo tantos cilindros como pistas.

Usualmente las superficies externas no se utilizan para grabar, así una unidad con seis platos puede
utilizar sólo 10 superficies.

Existen unidades de paquetes de discos en que éstos son intercambiables.

25 de 35 18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html

Discos-cartuchos

Consiste en único plato con dos superficies de grabación. Usualmente estas unidades son duales, es
decir, contienen dos subsistemas, uno de ellos con un plato fijo (donde se graba, por ejemplo, el
sistema operativo) y el otro con un plato intercambiable. Para desmontar el disco intercambiable es
necesario esperar a que las cabezas se retraigan y el disco se pare.

Discos Winchester (disco duro)

Es un desarrollo más reciente. Es un disco pequeño pero de elevada precisión y con gran capacidad
de almacenamiento. Está permanentemente montado en su unidad. Los platos de estas unidades
están herméticamente cerrados y son fijos. El hecho de que estén cerrados es por reducir los efectos
de la suciedad ambiental. No es necesario el retraimiento de las cabezas en reposo, existiendo una
pista específica de "aterrizaje". Las cabezas van más próximas a la superficie que en las anteriores
unidades, lográndose grandes densidades de grabación. Por tanto, en pequeñas superficies se
pueden almacenar mucha información. Son los habituales en los ordenadores personales. El vídeo
mostrado a continuación visualiza un disco duro destapado trabajando.

Actualmente hay varios tipos de sistemas de almacenamiento orientado hacia las empresas con
grandes volúmenes de información, principalmente debido a las redes de ordenadores, SAN
(storage area network), DAS (disk attached storage) y NAS (network attached storage) son las tres
tecnologías que se están implantando, estando su precio al alcance de las pequeñas y medianas
empresas (PYMES).

Nueva tecnología de cabezas HAMR

Actualmente el disco duro de menor capacidad que se puede conseguir para un


ordenador personal es de 100 GO, esta gran mejora de capacidad se debe al gran
desarrollo de las tenologías en las cabezas lectoras/grabadoras.

Recientemente, Seagate una empresa muy conocida en el campo de los discos

26 de 35 18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html

duros, ha presentado una nueva tecnología para grabación de datos en soportes


magnéticos, "grabación magnética asistida por el calor", cuya sigla en inglés es
HAMR, que posibilitará densidades del orden de decenas de terabit por centímetro
cuadrado. Por ejemplo, en el disco duro de un ordenador portátil cabrá todo el
contenido de la biblioteca del Congreso de EE.UU.

Con las tecnologías actuales se ha alcanzado el límite físico y pronto el tamaño del
bit almacenado en la superficie magnética será tan pequeño que se hará inestable
debido al fenómeno físico del superparamagnetismo. Los soportes magnéticos más
estables (en base a hierro y platino autoordenado) no son aptos para las actuales
cabezas, por lo que esta nueva tecnología, en base a un láser, calienta la zona
donde se va a grabar un bit de información, al enfriarse posteriormente la
información permanece grabada, siendo legible por las cabezas actuales.

Disquettes

Los disquetes son pequeños discos intercambiables, cuyos platos son flexibles, ya que están
onstituidos por un material plástico.

Los de 133 mm son también denominados minidisquetes, actualmente los más empleados son los
de 90 mm, denominados microdisquetes.

La superficie se encuentra protegida por una funda recubierta internamente de un material que
facilita el deslizamiento rotacional del plato. En la funda hay una abertura radial que abarca a todas
las pistas; a través de esta ventana las cabezas de la unidad de disquetes acceden a la información.

La grabación, dependiendo del tipo de unidad, puede efectuarse en una única superficie, es decir, en
una sola de la caras, o en doble cara. También se puede efectuar en densidad normal (simple
densidad) o doble densidad.

Los disquetes hasta hace muy poco tiempo eran un elemento excelente para actuar como memoria
masiva auxiliar de microordenadors personales.

PARAMETROS QUE CARACTERIZAN EL COMPORTAMIENTO DE UN DISCO

Los principales parámetros que caracterizan el funcionamiento de un disco son:

Tipo de disco: Indica la tecnología y estructura física del mismo. Los tipos básicos son: discos de
cabezas fijas, paquetes de discos, cartuchos de discos, discos Winchester y disquetes.

Capacidad: Indica el contenido en octetos que es capaz de almacenar. La capacidad de


almacenamiento depende del tamaño de la superficie de grabación, número de superficies y tipo de
grabación (simple o doble densidad).

Tamaño: Indica el diámetro del plato donde se encuentran las superficies imanables.

Tiempo medio de acceso: Es el tiempo medio que la cabeza lectora/grabadora tarda en acceder a un
sector determinado.

Velocidad de transferencia: Indica el número de octetos que se transfieren por unidad de tiempo,

27 de 35 18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html

entre la ordenador central y el dispositivo o viceversa.

Velocidad de rotación: Es el número de revoluciones por minuto a que gira el plato que contiene la
superficie imanable.

Número de superficies: Es el número de superficies grabables.

Número de cabezas: Es el número de cabezas lectoras/grabadoras de que consta la unidad.

Número de pistas: Es el número de circunferencias grabables. Se suele indicar el número de pistas


por superficie.

Número de sectores por pistas: Es el número de bloques o registros físicos que hay en una pista.

Número de palabras por sector: Es el número de palabras que pueden grabarse en un sector.

Bits por palabra: Indica el número de bits que utilizan las palabras grabadas.

Densidad máxima: Indica la máxima densidad de grabación en las pistas, es decir, la densidad de
grabación en la pista más interiores. Este parámetro se indica en bits/pulgada o bits/cm.

Código de grabación: Es el código usado para la grabación magnética de la información. Desde el


punto de vista práctico interesa conocer si la grabación se efectúa en simple o doble densidad.

CINTAS MAGNETICAS

Es el medio más barato para almacenar grandes cantidades de datos. Las cintas están formadas por una
sustancia plástica recubierta de material imanable, por su aspecto, recuerdan a las empleadas para la
reproducción del sonido. Las cintas magnéticas se basan en los mismos principios que los discos
magnéticos. La lectura y grabación se efectúa haciendo pasar la cinta por unas cabezas
lectoras/grabadoras. Usualmente se lee simultáneamente el contenido de varias pistas requiriéndose un
elemento lector/grabador por pista. Por lo general el conjunto de bits que se leen simultáneamente
corresponde a un carácter con un bit adicional de paridad.

La grabación de una cinta se hace por bloques de caracteres de una longitud preestablecida. En el caso de
las cintas, debido a la inercia, entre dos bloques consecutivos se desperdicia un determinado espacio que
se denomina interbloque. Cada bloque contiene, además de los datos del usuario, líneas adicionales
redundantes para poder detectar automáticamente posibles errores de grabación y secuencias de caracteres
y espacios identificadores de los límites del bloque. Los extremos inicial y final de la cinta contienen unas
marcas metálicas pegadas denominadas BOT (comienzo de la cinta) y EOT (fin de la cinta) para
detección automática del inicio y fin de la cinta.

La capacidad de una cinta depende fundamentalmente de su longitud, densidad de grabación, longitud de


bloque y formato de grabación. Las cintas magnéticas son un soporte de información barato y de gran
capacidad, pero son muy lentas (acceso secuencial).

CD-ROM

La información se almacena en un disco compacto o "compact disc" (CD) en forma digital, de modo
semejante a los de audio. Sobre una capa de plástico se graban, con un haz de láser, los agujeros o marcas
que posteriormente detectará la unidad lectora (los CD creados de forma masiva se hacen a partir de un
molde con los datos de un disco maestro). La lectura se produce, y en su caso grabación, mediante
técnicas ópticas, con un láser de baja potencia, que garantiza que no va a sufrir ningún daño. Gracias a la

28 de 35 18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html

precisión de esta técnica, es posible disponer grandes cantidades de información en un espacio muy
reducido. Cada bit en estos discos de llama pit.

Un inconveniente es que los primeros de estos dispositivos, una vez grabados no podían ser reutilizados
para escribir. Por lo que respecta a los CD-R, así denominados los grabables, se comercializan con precios
muy asequibles, existiendo también regrabables, CD-RW. El fundamento de estos soportes es una
sustancia que cambia de fase al ser irradiada con un laser más potente que el de los lectores de CD
normales, apareciendo entonces para la lectura como si hubiera pits análogamente a los CD generados a
partir de un master. Actualmente en España estos soportes han de incluir un canon para la SGAE, que
incluso en algunos casos supera al valor del soporte en sí.

Existe otro tipo de discos ópticos grabables por el usuario, son los conocidos como WORM, se graban
una vez pero se pueden leer múltiples veces. Una evolución de estos son los
conocidos como discos magnetoóptcos, compatibles con los anteriores pero que
admiten borrar la información lo cual permite la reescritura. Las capacidades son del
orden de gigaoctetos.

La gran ventaja de los discos ópticos es la permanencia de la información durante


tiempos muy superiores a la grabada en soportes magnéticos, sin embargo son más
lentos, lo cual los hace poco adecuados bajo determinadas circunstancias.

Como ejemplo de la complejidad que suponen desde el punto de vista matemático estos sistemas ópticos,
se muestra el sistema de corrección/detección de errores/borrones en un CD. El sistema de
almacenamiento y reproducción del CD fue diseñado, por Philips en junio de 1980.

La señal analógica que transmite el sonido es muestreada 44100 veces por segundo, y a cada muestra, se
le asigna un valor numérico (amplitud de la señal) entre 0 y 216 - 1. Este valor da un vector binario de 16
componentes, que se escribe como dos elementos de GF(28). Teniendo en cuenta que transmitiremos
señal estéreo, cada muestra estará formada por cuatro elementos de GF(28), dos para el canal derecho y
dos para el canal izquierdo. La información es grabada después de haberla codificado concatenando dos
códigos RS.sobre GF(28), con intercalado. La longitud de estos códigos es n =28 - 1 = 255, su dimensión
es k = n - d + 1 = 251 y su distancia mínima es d = 5.

En el canal interno de la concatenación no se usa el código RS(255, d = 5), sino el código recortado hasta
una longitud de n = 28. Por abuso de lenguaje diremos que utilizamos un código RS(28,d = 5), sobre
GF(28). En el canal externo de la concatenación se usa el mismo código RS, recortado hasta longitud n =
32; hablaremos del código RS(32, d = 5).

En el esquema de la figura se recogen los rasgos más característicos del proceso de concatenación.

La grabación en disco se hace en una pista


espiral-marcando, físicamente, áreas; planas y áreas
hundidas. Cada vez que ocurre una transición de una área
plana a una área hundida, o viceversa, se lee un "1" y en
caso contrario se leen "0", según la longitud de la zona
recorrida sin cambiar de área. Por ejemplo, en la figura
observamos la secuencia 00 1000 1000000 100 10000
1000, grabada en el disco.

29 de 35 18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html

La transición entre áreas viene dada por los cambios de intensidad de la luz reflejada por el disco,
proveniente de una fuente láser. Por razones técnicas, en cada área debe haber un mínimo de dos ceros y
un máximo de diez. En principio, los bits que salen de la última matriz de intercalado del diagrama
anterior no cumplen esta propiedad y, por tanto, antes de proceder a la grabación definitiva hay que
arreglar la situación. Esto se consigue con la técnica EFM, que transforma cada símbolo de GF(28) en una
secuencia de 17 bits con las propiedades requeridas. Además, a cada trama de 544 bits se le añaden 27
bits de sincronización y de direccionamiento, que permitirán la búsqueda rápida de la información.

En total, cada seis muestras iniciales (24 elementos de GF(28) = 192 bits) se transforman en 571 bits
grabados en el CD. La tasa de transmisión de la información es de 192/571 aproximada a 1/3. (La tasa de
transmisión de la información, considerando únicamente los códigos, vendría dada por k = (28/32)
(24/28) = 3/4). Cada segundo de música necesita 44100 muestras, y cada una 571/6 bits. En definitiva, 4.2
Mb/s. Cada disco tiene una capacidad de unos 20000 Mb que, traducido a tiempo, representa unos 80
minutos de audición.

Funcionamiento de los dos códigos concatenados. Proceso CIRC (Cross Interleaved Reed-Solomon
Code). El código RS(32,28) tiene una distancia mínima d = 5, puede corregir 2 errores o bien se puede
utilizar para corregir 1 error y detectar 3. En nuestro caso lo utilizaremos para corregir un único error. Si
en el decodificador encontramos un error, lo corregimos. En caso contrario, damos como borrones los 28
símbolos que salen del decodificador y entran en el canal externo.

El decodificador externo RS(28,24) tiene distancia mínima d = 5 y lo utilizaremos para corregir 4


borrones. Tal como está montada la matriz de intercalación, es posible que este código corrija hasta un
máximo de 112 x 4 = 448 borrones de GF(28), es decir 3584 bits de datos, que quedan en 3072 bits de
información real, equivalentes a unos 3 mm en una pista del CD.

Además, en el caso de que un vector a decodificar en el código externo tenga más borrones que los que se
pueden corregir, se daría como nulo y, en su lugar, se haría la interpolación de las palabras anterior y
posterior.

VIDEO DISCO VERSATIL (DVD) Es un sistema semajante a los CD-ROM, pero usando láser de
distinta fecuencia, lo cual da lugar a densidades de grabación más elevadas (técnicamente es posible
alcanzar los 50 GO), e incluso por una misma cara se pueden tener tres capas de grabación. Actualmente
hay varias tecnologías de grabación, que como se puede ver en la siguiente tabla son incompatibles entre
sí, siendo un periférico habitual en los ordenadores personales.

Características DVD DVD-RAM DVD-R DVD-RW DVD+R DVD+RW


Capacidad una cara 2.6-4.7 3.95-4.7 4.7 4.7 4.7
Longitud onda láser 660-685 635-650 650 650 650
Distancia entre pistas (mm) 1.15-0.65 .74 .74 .74 .74
Tipo de soporte Cambio de fase Quemado Cambio de fase Quemado Cambio de fase
Modo de escritura Z-CLV CLV CLV CLV y CAV CLV y CAV
Máxima velocidad escritura 1x 2x 1x 2.4x 2.4x
Número escrituras 100000 1 1000 1 1000

1x=1.385 MOctetos/s
Tecnologías de giro: CAV=velocidad angular constante, CLV=velocidad lineal constante

30 de 35 18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html

El año 2006 vio la llegada al mercado de dos tecnologías basadas en el láser violeta de GAn/InGaN,
"Blue-Ray Disc" (BRD) de Sony e "Hight Definition DVD" (HD-DVD) de Toshiba y NEC. Ambos
sistemas de almacenamiento compiten por el mercado de los DVD, que se piensa que en una década ya no
exista, y también se pensaba que competirían entre sí al no ser compatibles, sin embargo en febrero de
2008 Toshiba ha anunciado que deja de fabricar HD-DVD. Hay otra tecnología revolucionaria, la empresa
InPhase Technologies ha comercializado el primer sistema de almacenamiento "Holographic-ROM"
(H-ROM), que funciona con un láser rojo (como los DVD) o con un láser azul. Se logran capacidades de
300 Goctetos (en el futuro 1.6 Teraoctetos) en un disco de 130 mm y con velocidad de transferencia de 20
Moctetos/s. Por lo que respecta a futuros sistemas, es de destacar el desarrollo de científicos de Israel que
usa óptica de dos fotones y como soporte una variación del polimetilmetacrilato, denominada ePMMA. El
sistema se fundamenta en 200 capas separdas 5 micrometros (micras) creadas mediante un láser rojo, y en
lugar de los pits de los CD y DVD actuales, implementa un proceso de absorción no lineal de dos fotones.
Cuando el láser se focaliza sobre una pequeña zona del disco los fotones excitan los cromóforos en las
moléculas de ePMMA, conmutando entre dos estados, la lectura es análoga pero con luz que hace
fluorescentes los cromóforos, siendo la cnatidad de fluorescencia dependiente de si está marcado el punto
como "escrito" o "no escrito". Se espera que se comercialice el año 2010

Una nueva tecnología de almacenamiento, descubierta por investigadores de la


universidad japonesa Shizuoka, se basa en esferas de poliestireno, dopadas con
sustancias fluorescentes como rodamina, de 500 nm de diámetro colocadas
sobre una rejilla, dando lugar a una densidad de grabación doble respecto a la de
los DVD y en un futuro se espera que llegue a ser 10 veces superior, reduciendo
el diámetro de las esferas y apilándolas. Los datos se graban mediante luz verde
y se leen mediante el análisis de luz roja reflejada.

Hay investigaciones con bacterias, la proteína bacteriorodopsina (bR) encontrada en la membrana


superficial de halobacterium halobium, y que suele habitar en ambientes salinos, absorbe la luz en un
proceso análogo a la fotosíntesis. bR existe en dos estados intercambiables, que absorbe luz azul y verde
respectivamente, lo cual permite almacenar información en un código binario. Disponiendo este producto
en forma de cubo, y teniendo un laser para acceder a cambiar entre los dos estados, se pueden obtener
"discos" con capacidades de muchos Gigaoctetos, por el precio de los de 1 Giga.

El principal problema es que no aguantan temperaturas superiores a 83 C, otro inconveniente es que no


son muy rápidas. En los seres vivos su función es el bombeo de iones de hidrógeno al exterior de las
células. Lo cual puede dar origen al desarrollo de productos que ayuden a mejorar la salud de las personas.

Hay quienes se muestran pesimistas sobre la posible pérdida de información, por una parte debida a la
baja duración de lso sistemas actuales de almacenamiento y por otra al cambio de stándares y falta futura
de dispositivos de lectura para formatos binarios y soportes de almacenamiento que sean obsoletos. Un
vídeo muestra, de forma pesimista, este posible problema futuro, el documental se denomina La oscura
era digital.

6.5 Calidad en ordenadores pesonales

Dícese de la totalidad de los rasgos y características de un producto o servicio que se sustenta en su


habilidad para satisfacer las necesidades establecidas implícitas.

En la informática personal hay una gran oferta y a precios muy dispares, esto se explica por las diferentes
calidades. Las marcas más famosas, por ejemplo, Siemens y Toshiba suelen ser las que ofrecen productos
más costosos, sin embargo si se valora su calidad y seguridad, la relación calidad-precio es muy buena.
Mientras que la mayoría de los denominados clónicos, suelen ser baratos, pero aunque con prestaciones
iguales o superiores a los de las marcas más famosas, el cociente relación-precio es pésimo.

31 de 35 18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá... http://www.um.es/docencia/barzana/II/Ii06.html

Al adquirir un ordenador personal se ha de considerar la calidad de todos sus componentes, esto se


verifica observando las diversas homologaciones que llevan impresas, por ejemplo TÜV, RL, CSA, CE,
... En los países de la Unión Europea, como mínimo han de incluir la homologación CE, que aunque no es
esencialmente una indicación de calidad en el sentido amplio de la palabra, si lo es de seguridad en el
campo de la compatibilidad electromagnética, es decir que el ordenador no interfiere ni se ve afectado en
su funcionamiento, por los campos electromagnéticos procedentes de otros aparatos, como por ejemplo
los teléfonos móviles celulares.

Enlaces recomendados:
Las fuentes de alimentación y las directivas comunitarias
La industria de las TIC genera el 2% de las emisiones de CO2

A nivel internacional existen unas normas de homologación de los procesos de fabricación y ensamblaje,
las conocidas normas ISO (de la Organización Internacional de Estándares), las más habituales son las
ISO 9001, ISO 9002 e ISO 14001. El que los ordenadores se fabriquen o ensamblen en instalaciones que
cuenten con algunas de estas homologaciones significan una mayor fiabilidad en los equipos.

Enlaces de interés:
Canadian Centre for Occupational. Canadá
CUErgo. Universidad de Cornell. EE.UU.
Ergonomía en Español. Chile
Ergoprojects. Ergonomía en tú idioma
Nielsen Norman Group
Typing Injury FAQ

fresqui del.icio.us meneame

Buscar en la web

Búsqueda escéptica
Búsqueda en mis webs

Imprimir

Aquí puedes cambiar el tamaño y color del texto

32 de 35 18/04/2008 20:14
Apuntes Introduccion a la Informática. Capitulo 7, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii07.html

Introducción a la Informática. Estudios GAP,


facultad Derecho
Capítulo 7. Lenguajes de programación

Asignaturas
Introducción a la Informática
Introducción
Ofimática
La información
Historia de la Informática
Representación de la información
Periféricos de un ordenador
Lenguajes de programación
Sistemas operativos
Redes y comunicaciones
Informática Aplicada a la Gestión Pública
Introducción a la ingeniería del software
Metodologías de desarrollo
Metodologías habituales
Bases de datos. Introducción
Bases de datos. Organización ficheros
Bases de datos relacionales
Bases de datos comerciales
Introducción a internet
Intercambio electrónico de datos (EDI)
Comercio electrónico
Teletrabajo
Calidad
Informática Aplicada al Trabajo Social
Fundamentos de los ordenadores
Los ordenadores en la actualidad
Introducción al hardware
Fundamentos del software
Aplicaciones software
Diversos usos de los ordenadores
Comercio electrónico
Inteligencia artificial
Prácticas
Visión general de la informática
Internet
Editores de textos
Hojas de cálculo
Bases de datos
Lenguaje Pascal
Avisos
Escepticismo
Divulgación
Informática

1 de 18 18/04/2008 20:06
Apuntes Introduccion a la Informática. Capitulo 7, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii07.html

Ciencia en general
Biología
Criminología
Inicio
Contacte

Conceptos generales
Metodologías de programación
Tipos de lenguajes

Anexo, lenguaje Pascal

Selecciona un texto y
pulsa aquí para oírlo

7.1 Conceptos generales

Un ordenador consta de dos partes, una es la parte física, conocida como "hardware" y otra, la lógica
denominada "software". Ambas son imprescindibles para tener un ordenador en funcionamiento.
Respecto a la parte física dentro de esta web está disponible un esquema de sus componentes, en este
capítulo se estudiarán los integrantes del "Software". Así como la parte física es totalmente visible, la
parte lógica es intangible, aunque imprescindible para que un ordenador sea operativo.

El software se divide en dos grandes grupos, uno es el conocido como sistema operativo o sistema de
explotación y otra parte son los denominados lenguajes de programación. Aparte existen infinidad de
aplicaciones de "software" pero ya para casos concretos, como por ejemplo laplicaciones contables,
aplicaciones ofimáticas, paquetes estadísticos o los programas científicos.

Lenguajes de programación hay en gran cantidad, algunos han evolucionado a lo largo del tiempo y son
usados en el transcurso de muchos años, mientras que otros han sido operativos durante un período más o
menos largo y actualmente no se usan. Dada esta gran variedad de lenguajes, aquí no se pretende dar una
visión completa, sino una clasificación en diversos tipos y concretar alguno. Respecto al más
recomendado para el aprendizaje, el Pascal, se le dedica un apartado para quienes estén interesados en
aprender a programar en un lenguaje asequible.

En general un lenguaje es un método conveniente y sencillo de describir las estructuras de información y


las secuencias de acciones necesarias para ejecutar una tarea concreta. Pero este proceso se puede realizar
de muchas maneras distintas, por lo que habrá que disponer de clasificaciones. Una muy importante es
hacer dos grupos en base a su funcionamiento, esto es considerarlos como intérpretes y compiladores,
según se describe seguidamente.

Un lenguaje se dice que es un intérprete, por ejemplo los BASIC primitivos, cuando para ejecutar
un programa el lenguaje ha de leer y traducir al lenguaje específico de la máquina las instrucciones
una por una. Como es lógico el proceso se enlentece, por ejemplo si una operación está dentro de la
estructura conocida como ciclo y este se repite 100 veces, el lenguaje tiene que traducirlo 100 veces
al código de la máquina. No todo son desventajas, pues la parte buena de este tipo de lenguajes es
que los errores se pueden corregir al momento y seguir facilmente la ejecución del programa, por lo
cual son idóneos para aprender a programar, proceso en el que da lo mismo la lentitud.

2 de 18 18/04/2008 20:06
Apuntes Introduccion a la Informática. Capitulo 7, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii07.html

Por contra un lenguaje se dice que es compilado cuando el programa entero se traduce mediante el
compilador de dicho lenguaje al lenguaje máquina correspondiente y el resultado se almacena de
manera permanente en un archivo. De esta forma el programa se ejecutará de forma mucho más
rápida que con un intérprete, sobre todo si hay estructuras que se repiten, caso de los ciclos. La
principal desventaja es cuando se produce un error, que muchas veces se detecta en el momento de
la ejecución, y la corrección no se puede hacer de inmediato sino que hay que realizar todo el
proceso de compilado desde el principio. Un ejemplo típico de lenguaje de este tipo el C ++,
ampliamente usado en el desarrollo de programas.

Hay un lenguaje difundido en el ámbito de la enseñanza, es el TurboPascal, cuya ventaja es que aunque se
trata de un compilador tiene un entorno de trabajo como si fuera un intérprete y cualquier error se puede
corregir al momento, reanudándose la ejecución del programa de inmediato.

Un ejemplo en la vida real que visualiza la diferencia entre un intérprete y un compilador es el siguiente,
supongamos que tenemos un libro escrito en una lengua distinta al castellano, son posibles dos procesos
de acceder a su contenido cuando se necesite su lectura, una es traducir en el momento de su empleo la
parte del libro que se necesite, pero sin pasarla a papel, sino simplemente mediante lectura traduciendo,
esto sería el proceso de interpretado, mientras que la otra opción sería traducir el libro entero al castellano
y dejar dicha versión escrita sobre papel, esto sería equivalente al compilado.

3 de 18 18/04/2008 20:06
Apuntes Introduccion a la Informática. Capitulo 7, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii07.html

El proceso de compilado no es tan inmediato como parece, se describe seguidamente de forma muy
esquematizada:

1. Se escribe el programa (conocido como programa fuente) mediante un editor de textos y se


almacena en un fichero.

2. Este programa fuente es invocado por la primera etapa del compilador, que efectúa un análisis
léxico, se puede considerar como una interpretación del programa fuente preparándolo para un
tratamiento posterior con detalle. En esta etapa se ejecutan los tres procesos indicados
seguidamente:

Adaptar el código fuente a un formato independiente de la forma en que se haya introducido


en el sistema
Eliminación de información redundante como espacios y comentarios
Tratar las palabras clave y los símbolos para su paso a símbolos clave, conocido como
"tokens"

Por ejemplo, considerando un fragmento de código en BASIC (también existe compilador de


BASIC), se tendría,

200 FOR I=1 TO N STEP 1


210 LET A(I)=0: REM Inicializa la matríz
220 NEXT I

lo pasaría a:

[L45] [T16] I=1 [T17] N [T18] 1 \


[L46] [T09] X(I)=0 \
[L47] [T19] I \

3. Análisis sintáctico es el paso siguiente, el compilador determina la estructura, y de alguna forma


el significado del programa fuente. El conjunto del programa se analiza en bloques, que se
descomponen en instrucciones y se procede a identificar los elementos individuales. Como la
sintaxis está expresada mediante un conjunto de reglas, cada una indica como se construye una
estructura del programa a partir de otras estructuras de menor entidad. El proceso mediante el cual
el compilador aplica estas reglas es conocido como "parsing". Seguidamente se cita un ejemplo:

En notación BNF una regla sintáctica se puede escribir como,

<Línea programa::=<Número de línea <Palabra clave <Resto de la sentencia

y aplicándola a la línea 100 del ejemplo BASIC anterior, se tendría,

<Número de línea 100


<Palabra clave LET
<Resto de sentencia X=0

y por tanto:

<Línea de programa 100 LET X=0

Durante la compilación se genera gran cantidad de información, que se almacena en una estructura

4 de 18 18/04/2008 20:06
Apuntes Introduccion a la Informática. Capitulo 7, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii07.html

de datos conocida como diccionario o tabla de símbolos, en algún momento del proceso se
necesitará la información guardada previamente. La mayor parte es información sobre variables, por
ejemplo para X en el programa anterior, se tendría en el diccionario,

Nombre de la variable Tipo Dirección


X N 3A2F

4. El paso siguiente es la generación de código, conocido como objeto Para ello se recorre el código
intermedio generado y se busca cada uno de los "tokens" en el diccionario, lo que permite insertar
las direcciones en el código máquina que se está generando. En el ejemplo que se está estudiando se
tendría:

Línea 200
LOA X N+1 Emplea el registro ínidice como contador
SIG CMP X N Compara con N
BGT FIN Al terminar vete a FIN
Línea 205
CLR A Pone a cero el acumulador
STD A D Y Copia el contenido del acumulador en Y+índice
Línea 210
INC X Incrementa el índice
BRN SIG Continúa el bucle
FIN

5. El proceso siguiente es la optimización de código objeto generado, con lo que se obtiene un


programa más eficiente. Generalmente donde se consiguen los mejores resultados es en los bucles,
cuyo objetivo es reducir al máximo el número de operaciones que se ejecutan en él.

6. Normalmente hay una etapa posterior conocida como "linkado " en la que el o los módulos
objetos generados previamente se unen entre sí y/o con otros módulos disponibles en librerías, para
formar un fichero que contiene un programa ejecutable directamente desde el sistema operativo, sin
necesidad de disponer del compilador correspondiente. Incluso se pueden unir programas escritos
en lenguajes distintos si los módulos objeto creado se han estructurado de forma adecuada. En
cualquier fase del proceso pueden detectarse errores que se podrán de manifiesto, implicando el
volver hasta el programa fuente, efectuar las correcciones pertinentes y repetir todo el proceso, lo
cual suele ser algo laborioso.

Primeras programadoras profesionales (foto ejército de EE.UU.)

7.2 Metodologías de programación

Actualmente se están produciendo cambios de gran alcance en la forma en que se desarrolla el "software"
para los equipos informáticos. Entre las causas de estos cambios se incluyen las siguientes:

5 de 18 18/04/2008 20:06
Apuntes Introduccion a la Informática. Capitulo 7, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii07.html

El coste creciente de los desarrollos


La insatisfacción de los usuarios con la adecuación y calidad
La complejidad y tamaño creciente de los programas
La creciente dependencia de muchas organizaciones de sus sistemas informáticos, sin posibilidad
de abandonarlos
El avance hacia ordenadores con características "software" muy diferentes de los actuales.

Estas y otras presiones están provocando una reorganización de los métodos empleados en el desarrollo
de los programas para los ordenadores. Lo que se necesita son técnicas para la elaboración de productos
software muy largos y complejos, que satisfagan estándares muy estrictos de calidad y prestaciones, de
acuerdo con una planificación, control y presupuestos adecuados.

Los métodos de trabajo que se han desarrollado para responder a estas necesidades constituyen lo que se
ha dado en llamar "Ingeniería del Software". La Ingeniería del Software es una tarea de equipo, al
comenzar un proyecto de desarrollo, se constituyen una serie de equipos con una estructura paralela a la
del programa en sí. Se establece un calendario para el proyecto y se asignan costes a cada una de las partes
y etapas del proyecto. Cada equipo tiene un responsable, cuya tarea es la de comprobar que la
programación desarrollada por el equipo sea correcta, está estructurado con propiedad, dispone de las
interfaces para conectar con los programas desarrolladas por otros equipos y se desarrolla de acuerdo a las
previsiones de tiempo y coste.

La Ingeniería del Software se ocupa del ciclo de vida completo de un producto software, diseño,
desarrollo, uso y mantenimiento. El trabajo se hace buscando el mayor grado posible de estandarización y
los menores costes durante la totalidad del ciclo de vida de los programas. La Ingeniería del Software
implica que un programa bien estructurado satisfaga las siguientes condiciones:

El programa ha de tener una estructura general en forma de módulos, que a su vez estarán formados
por procedimientos o segmentos.
Debe existir un interfaz claramente definido entre los diversos módulos
Cada módulo debe de ser una combinación sencilla de construcciones elementales de un lenguaje
de programación
Debe existir una fuerte correspondencia entre la estructura de los módulos y la de los datos sobre
los que operan
Cada módulo debe dejar las estructuras de datos sobre las que opera en un estado consistente con su
definición
Un módulo no debe tener efectos secundarios

Por lo que respecta a las técnicas de diseño de programas, el método más simple y uno de los más
populares es el conocido como de "Refinamiento Progresivo". Se fundamenta en el uso de algoritmos
que se escriben en un lenguaje intermedio entre el castellano y un lenguaje de programación como el
Pascal, este lenguaje se denomina seudocódigo. El proceso se puede describir en términos de un lenguaje
de esta naturaleza:

Establecer todos los pasos del programa en un algoritmo breve de alto nivel
Repetir:
Expandir cada sentencia del algoritmo en detalle, especificando los pasos necesarios
Hasta que las tareas hayan sido especificadas con el detalle suficiente como para que pueda
generarse el código del programa.

Existen otras metodologías más depuradas como por ejemplo la conocida como "Descomposición
Funcional". A diferencia de la anterior en cada etapa se especifican las propiedades esenciales de las
estructuras de datos, y cada algoritmo se expresa como una función matemática que transforma esta
estructura de datos.

6 de 18 18/04/2008 20:06
Apuntes Introduccion a la Informática. Capitulo 7, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii07.html

Una vez desarrollado un programa como es lógico se ha de comprobar su buen funcionamiento.


Actualmente en la mayoría de los casos se prueban con cualquier tipo de datos que pueden presentarse en
la realidad. Sin embargo este proceso nunca puede establecer si un programa es o no correcto, sin
importar cuantos conjuntos de datos de usen. Si un programa es de importancia crítica, como ocurre en el
presente con muchas aplicaciones comerciales, industriales o militares, es necesario tomar todas las
precauciones posibles para asegurar que están libres de errores.

Se están empezando a utilizar técnicas para asegurar que los módulos (y los algoritmos) son correctos,
que los consideran como teoremas matemáticos y entonces se emplean los mismos métodos que se
utilizan para demostrar los teoremas. Esta tarea es muy compleja y no siempre aplicable.

7.3 Tipos de lenguajes

Aparte de la clasificación vista previamente en compiladores e intérpretes, los lenguajes de programación


se clasifican en base a otros aspectos, de manera general en dos grandes grupos, Lenguajes de Alto Nivel
y Lenguajes de Bajo Nivel. El grupo de los de Bajo Nivel, como su nombre indica incluye los
relacionados íntimamente con la arquitectura de la máquina, por lo que generalmente son específicos de
una unidad central de procesamiento (CPU) y no son válidos para otra diferente.

Dentro de los de estos grupos está el lenguaje máquina, que es programar en el ámbito de la CPU, por lo
tanto usando ceros y unos, lenguaje muy dificil y propenso a errores. El otro más conocido dentro de esta
categoría es el Ensamblador, que utiliza mnemónicos a escala sencilla, y por lo tanto evita las secuencias
de ceros y unos. Aún así es bastante complicado y no es recomendable para usuarios sin amplios
conocimientos. En conclusión, un lenguaje de bajo nivel está orientado hacia la resolución de una
determinada máquina o clases de máquinas.

A diferencia de los del grupo anterior, un lenguaje de alto nivel es independiente del microprocesador del
ordenador que lo soporta, así por ejemplo un programa escrito en lenguaje C, se puede compilar sin
modificar para cualquier máquina, y en principio funcionará sin ningún problema.

Esto implica dos ventajas principales, una es que la persona que desarrolla los programas no ha de saber
nada acerca del ordenador en que se ejecutará el programa, la otra es que los programas son portables, es
decir el mismo programa (en teoría) ha de funcionar sobre distintos tipos de ordenadores.

El desarrollo de los lenguajes de alto nivel comenzó a mediados de los años cincuenta del siglo pasado, en
esta época se crearon los lenguajes COBOL, FORTRAN Y ALGOL60. Posteriormente se han ido
originándose otros muchos, de hecho varios miles, aunque sobreviven muy pocos.

Entre los lenguajes de alto nivel cabe destacar los siguientes:

JAVA
BASIC
FORTRAN
MODULA 2
Pascal
ADA
C
C ++
LOGO
LISP
PROLOG
Smalltalk

7 de 18 18/04/2008 20:06
Apuntes Introduccion a la Informática. Capitulo 7, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii07.html

En conclusión un lenguaje de alto nivel está orientado hacia la resolución de una determinada clase de
problemas.

Otra forma de clasificar los lenguajes es en dos grandes grupos, declarativos e imperativos. Los
imperativos establecen cómo debe ejecutarse una tarea partiéndola en procedimientos que especifican
cada una de las tareas. Por el contrario los declarativos establecen estructuras de datos y las relaciones
entre ellos que son significativas para ejecutar una tarea determinada, al tiempo que indican cual es el
objetivo de dicha tarea. Un lenguaje típico de este grupo es el Prolog.

Anexo - Ejemplo de un lenguaje:


Pascal
El Pascal recibe su nombre en honor del matemático y filósofo francés
Blas Pascal (1623-1662). Se desarrolló entre los años 1968 y 1971.

En contraste con FORTRAN, COBOL O ALGOL 60, el Pascal es resultado


del trabajo de una sola persona, Niklaus Wirth (1934-), profesor
universitario (actualmente jubilado) de Zurich (Suiza). A partir del
Algol60 diseñó un lenguaje adecuado para enseñar computación a los
estudiantes universitarios. Según su creador su desarrollo se debe a
dos motivos principales. El primero es el de proporcionar un lenguaje
adecuado para enseñar a programar de forma sistemática, a partir de
unos cuantos conceptos fundamentales que se reflejen de forma clara
y natural en el lenguaje. El segundo es desarrollar implementaciones
de este lenguaje que funcionen de forma fiable y eficiente sobre los
ordenadores disponibles actualmente.

Enlace recomendado:
Curso de Pascal. Centro de Cálculo, Universidad de Zaragoza (PDF)

Partes de un programa en Pascal

Un programa se subdivide en varias partes:

- La cabecera, suele ser opcional, en ella se indica el nombre del


programa
- Definiciones y declaraciones, son opcionales y pueden categorizarse
como:

- Definiciones de tipos
- Definiciones de constantes
- Declaraciones de variables
- Declaraciones de etiquetas
- Definiciones de subprogramas

La cabecera

Independientemente de lo largo o pequeño que sea, todo programa

8 de 18 18/04/2008 20:06
Apuntes Introduccion a la Informática. Capitulo 7, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii07.html

debe comenzar con una cabecera de programa. Esta cabecera es la


primera línea, comienza con la palabra clave Program seguida del
nombre y terminada por ;.

Definiciones y declaraciones

Lo normal es que un programa necesite datos. Un dato es cualquier


información que sea manipulada por un programa y necesite un
espacio de almacenamiento en el ordenador al ejecutarse el programa.
Los datos que no cambian nunca se denominan constantes, mientras
que los que cambian se conocen como variables. Para reservar espacio
en la memoria se han de declarar mediante una declaración de
variables. Los identificadores deben comenzar con un carácter
alfabético o el símbolo de subrayado. El primer carácter puede estar
seguido de hasta 126 adicionales, alfabéticos, numéricos o de
subrayado.

Tipos
En Pascal además de dar identificadores para las variables se debe de
indicar el tipo de los datos que se usará para esa variable. El tipo de
un dato tiene dos propósitos, una asignar cuánta memoria se va a
asignar a un dato de tipo particular. El otro es prevenir un mal
emparejamiento de tipos.

En Pascal, los tipos pueden categorizarse en predefinidos y definidos


por el usuario.

Los tipos predefinidos son:

Boolean, admite los valores FALSE y TRUE


Char, son caracteres del conjunto de códigos ASCII
Integer, son números en el rango -32768 a 32767
Byte, es un subrango del tipo Integer, de 0 a 255
Real, son números reales en el rango 1E-38 a 1E+38

Constantes
Se usan para asociar un valor fijo a un identificador. Este puede estar
definido por el usuario o puede ser literal que describe un valor. Por
otra parte las constantes definidas por el usuario, llamadas constantes
con nombre deben definirse en la parte de definición de constante,
como por ejemplo, const PUERTO = 98. Cons es la palabra reservada
correspondiente. A su vez la constante se puede definir con tipo, como
por ejemplo, Const PUERTO: Integer 98;

Variables
Cuando se declara una variable, se le asigna memoria,
suministrándole un lugar para poner un tipo de dato. Una declaración
también suministra un nombre para ese lugar. La palabra clave es Var,
pudiendo aparecer a continuación uno o más identificadores de

9 de 18 18/04/2008 20:06
Apuntes Introduccion a la Informática. Capitulo 7, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii07.html

variables, separados por comas y los tipos se separan con dos puntos
(:), a continuación se muestran ejemplos,

Var tipo_interes
cant_nominal
principal : Real;
año : Integer;
mes : Byte;
inchr : Char;
salida : Boolean;
Var tipo_interes, cant_nomina, principal: Real;

Constantes con tipo


Pueden usarse para ahorrar memoria y como variables inicializadas. A
continuación se da un ejemplo:

Const TEXTO="T";
MAYUSCULA="U";
peso : Byte = 80;
tipo_entrada : Char = MAYUSCULA;

Operadores
Gran parte de la manipulación de datos en un programa se ejecuta
mediante operadores. Los operadores se clasifican en tres categorías,
aritméticos, lógicos y relacionales.

El término expresión se refiere a una combinación de una o más


constantes literales o con nombre o identificadores de variables, con
uno o más operadores.

Cuando aparece más de un operador hay un orden de precedencia, y


si es al mismo nivel la evaluación se efectúa de izquierda a derecha.
Las precedencias son:

1 - (menos unario)
2 not
3 *, /,div,mod,and,shl,shr
4 *,-,or,xor
5 =,<,<,,<=,=,in

Sentencias
La parte de sentencias es en donde se define la lógica de un
programa, es donde se manipulan los datos para obtener el resultado
deseado por el usuario del programa. Las sentencias se pueden
clasificar en los tipos:

Sentencias de asignación
Sentencias compuestas
Sentencias de control de la lógica

10 de 18 18/04/2008 20:06
Apuntes Introduccion a la Informática. Capitulo 7, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii07.html

Una sentencia de asignación consta de un identificador de variable (o


función) seguido del operador de la asignación (:=) seguido de una
expresión. A continuación se indican ejemplos,

salida:=FALSE
interes:=10
pago:=principal/periodo

Una sentencia compuesta se ha de identificar en el principio con Begin


y al final con end;. Una sentencia de este tipo puede estar formada
por todos los tipos de sentencias incluyendo otras sentencias
compuestas.

Sentencias de control de lógica

- Bucle while. Ejecuta una sentencia repetidamente hasta que la


condición del bucle da FALSE. La forma es, While condicion Do sentencia

While condicion Do
Begin
sentencia 1
sentencia 2
......
End;

- Bucle Repeat-Until. Se usa cuando es necesario que el bucle se


ejecute al menos una vez. En este caso la verificaciónde la condición
ofrece esa posibilidad. La forma del bucle es,

Repeat
sentencia 1
sentencia 2
......
Until condicion

- Bucle For-Do. Es ideal para los casos en que está predeterminado el


número de veces que se ejecutará una sentencia. La forma es, For
contador:= exp1 To exp2 Do sentencia

For contador:=exp1 To exp2 do


Begin
sentencia1
sentencia2
.......
End;

- If-Then-Else. Esta sentencia ejecuta una, muchas o ninguna


sentencia dependiendo de la evaluación de la condición establecida. La
forma general es,

If condicion Then sentencia1 [Else sentencia2]

11 de 18 18/04/2008 20:06
Apuntes Introduccion a la Informática. Capitulo 7, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii07.html

- Sentencia Case. La forma de esta sentencia es,

Case selector Of
Constante1 : sentencia1;
Constante2 : sentencia2;
Constanten : sentencian;
Else
sentencia;

Cuando se ejecuta una sentencia Case, el valor del selector, que es


una variable y puede ser cualquier tipo escalar excepto Real, se usa
para determinar cuál, si la hubiera de las, sentencias del Case se
ejcuta. Las constantes asociadas con la sentencia deben de ser del
mismo tipo que la variable selector

Subprogramas en Pascal

Los subprogramas son como pequeños programas dentro de un


programa, incluso se parecen a los programas por comenzar con una
cabecera, ir seguida de las declaraciones y una parte de sentencias.
Los subprogramas se encuentran en la parte de declaración del
programa, sin embargo operan en su propio entorno, separados pero
no siempre aislados del programa principal. Un subprograma puede
declarar variables que son sólo accesibles desde el subprograma,
puede usar variables del programa principal y puede usar una mezcla
de los dos.

Los subprogramas son de dos tipos: procedimientos y funciones.

Procedimientos
Los procedimientos comienzan por la palabra reservada Procedure
seguida de un identificador y un punto y coma. Después de la
cabecera viene la parte de declaración. Al ejecutar un procedimiento
se crean en memoria las constantes y variables de la parte de
declaración, pero después de que se haya terminado el procedimiento
desaparecen, lo cual supone un ahorro de memoria.

A continuación de la declaración están las sentencias, entre las


palabras clave Begin y End y un punto y coma. Los procedimientos se
activan en el programa principal dando su nombre como una sentencia
simple.

Con frecuencia los procedimientos necesitan que se les dé uno o más


valores, que se conocen como parámetros. Estos se incluyen en la
cabecera, dentro de los paréntesis que siguen al identificador. Las
declaraciones de parámetros son como las declaraciones de variables
en la forma y propósito. Cada identificador se separa por punto y
coma, cada uno se ha de definir como un tipo con nombre. A
continuación se muestra un procedimiento que repite un carácter en
pantalla, el número de veces que se desee,

Procedure Repite(caracter; Car, conta: Integer);

12 de 18 18/04/2008 20:06
Apuntes Introduccion a la Informática. Capitulo 7, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii07.html

Var i:Integer;
Begin
For i:=1 to conta Do
Write(caracter);
End;

y así para invocar que aparezca la letra A 80 veces seguida en


pantalla,

Repite ("A",80)

donde se han pasado dos parámetros. Estos parámetros pueden ser


de otro tipo, como variables, expresiones, como por ejemplo,

caracter:="A"; conta:=80;

Repite(LowerCase(caracter),conta);

donde LowerCase es una función que saca la letra minúscula de la


indicada.

A su vez los parámetros se pueden pasar por valor o referencia. Si se


pasa por valor, se transfiere una copia del valor del parámetro actual
al procedimiento, el procedimiento no accede a la variable real y por lo
tanto no puede modificarla. Un procedimiento puede cambiar el valor
de un parámetro por valor, pero a la vuelta al programa queda sin
modificar el valor actual del parámetro original.

Si se desea pasar un parámetro por referencia, el parámetro actual


debe ser una variable o una constante con tipo. Delante de la
declaración del parámetro formal hay que poner la palabra clave Var.

Seguidamente se da un ejemplo para cada una de las dos formas de


paso de parámetros,

a) Por valor

Procedure incrementa(mas_uno:Integer)

Begin
mas_uno:=mas_uno+1;
WriteLn(mas_uno);
End;

y al ejecutar las instrucciones siguientes,

avance:=1;
incrementa(avance);
WriteLn(avance)

la salida sería de 2 y 1.

13 de 18 18/04/2008 20:06
Apuntes Introduccion a la Informática. Capitulo 7, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii07.html

b) Por referencia

Procedure incrementa(Var mas_uno:Integer)

Begin
mas_uno:=mas_uno+1;
WriteLn(mas_uno);
End;

y al ejecutar las instrucciones siguientes,

avance:=1;
incrementa(avance);
WriteLn(avance)

la salida sería de 2 y 2.

Funciones
La diferencia entre un procedimiento y una función es que el
identificador de una función asume un valor cuando la función ha
terminado y devuelve este valor a la rutina que la llamó en sustitución
del nombre de la función. En un sentido amplio el nombre de la
función es también una variable. Todo lo indicado previamente
respecto a la definición de los procedimientos se aplica a las funciones.
La palabra clave es Function. A continuación se indica un ejemplo de
función que convierte un parámetro de tipo Char a letra minúscula, si
dicho parámetro está en el rango de la A a la Z.,

Function miniscula(caracter:Char);Char

Begin
If caracter in "A".."Z" Then
minuscula:=Char(Ord(caracter)+32)
Else
minuscula:=caracter;
End;

Otras posibilidades

El Pascal ofrece muchas más posibilidades, como por ejemplo la


definición de tipos por el usuario, o el tipo Set (conjunto), de gran
interés dado que no aparecen en la mayoría de los lenguajes. Otro
tipo a destacar es el denominado puntero. La recursividad es una
característica de mucha utilidad, es decir que cierta instrucción se
puede llamar a si misma. Aquí no se tratan estas posibilidades aunque
se usan ampliamente en la programación a escala avanzada en Pascal.

Bibliografía (Disponible en la Biblioteca Universitaria):

- Appleby, Doris, Lenguajes de programación : paradigma y práctica / Doris

14 de 18 18/04/2008 20:06
Apuntes Introduccion a la Informática. Capitulo 7, 2007/08. Universid... http://www.um.es/docencia/barzana/II/Ii07.html

Appleby, Julius J. Vandekopple 1998


- Berger, Marc. Graficación por computador con Pascal / Marc Berger. --
Argentina, etc. : Addison-Wesley Iberoamericana, cop. 1991
- Biondi, Joëlle, Algorítmica y lenguajes / Joëlle Biondi, Gilles Clavel 1985
- Burns, Alan Sistemas de tiempo real y lenguajes de programación -- Madrid :
Addison-Wesley, cop. 2003
- Cueva Lovelle, Juan Manuel...[et al.]. Introducción a la programación
estructurada y orientada a objetos con Pascal -- Oviedo : Departamento de
Matemáticas
- Cuevas Agustín, Gonzalo. Teoría de la información, codificación y lenguajes
Córdoba, Argentina : SEPA, Sociedad para Estudios Pedagogicos Argentinos ,
cop. 1985
- Lenguajes HTML, JAVA Y CGI : el diseño de páginas web para internet a su
alcance. -- Madrid : Abeto, 1996
- Findlay, W. Pascal : programación metódica W. Findlay, D. A. Watt. -- [2ª
ed.]. -- Madrid : Rueda, 1984
- Grogono, Peter, Programación en PASCAL. -- Ed. revisada. -- Argentina, etc.
: Addison-Wesley, cop. 1986
- Sánchez Dueñas, G. Compiladores e intérpretes.Un enfoque pragmático 2ª
ed. Díaz de Santos, Madrid 1989
- Algunos programas de uso común en Pascal. -- Madrid : McGraw-Hill, D.L.
1982
- Lenguajes HTML, JAVA Y CGI : el diseño de páginas web para internet a su
alcance. -- Madrid : Abeto, 1996
- TRUCS et astuces pour turbo Pascal. -- Paris : Micro-Application, 1986

Enlaces relacionados con la temática del capítulo:

- Artículos y tutoriales. Lenguaje Pascal


- Bjarne Stroustrup's homepage!
- El Máquinas
- Hello World. ACM
- Metodología y Tecnología de la Programación. Fac. Informática. Univ. Murcia
- Raúl Monge Anwandter. Univ. F. Sanat María. Chile
- Metodologías de Desarrollo de Software. Fac. Informática. Univ. Murcia
- Metodología y Tecnología de la Programación I. Vicente López. ETSI. U A.
Madrid
- The Computer Language Benchmarks Game
- The Languaje Guide
- Vilecha.com. Tú albergue en la red

fresqui del.icio.us meneame

15 de 18 18/04/2008 20:06
Apuntes Introduccion a la Informática. Capitulo 8, 2006/07. Universid... http://www.um.es/docencia/barzana/II/Ii08.html

Introducción a la Informática. Estudios GAP,


facultad Derecho
Capítulo 8. Sistemas operativos

Asignaturas
Introducción a la Informática
Introducción
Ofimática
La información
Historia de la Informática
Representación de la información
Periféricos de un ordenador
Lenguajes de programación
Sistemas operativos
Redes y comunicaciones
Informática Aplicada a la Gestión Pública
Introducción a la ingeniería del software
Metodologías de desarrollo
Metodologías habituales
Bases de datos. Introducción
Bases de datos. Organización ficheros
Bases de datos relacionales
Bases de datos comerciales
Introducción a internet
Intercambio electrónico de datos (EDI)
Comercio electrónico
Teletrabajo
Calidad
Informática Aplicada al Trabajo Social
Fundamentos de los ordenadores
Los ordenadores en la actualidad
Introducción al hardware
Fundamentos del software
Aplicaciones software
Diversos usos de los ordenadores
Comercio electrónico
Inteligencia artificial
Prácticas
Visión general de la informática
Internet
Editores de textos
Hojas de cálculo
Bases de datos
Lenguaje Pascal
Avisos
Escepticismo
Divulgación
Informática

1 de 17 18/04/2008 20:01
Apuntes Introduccion a la Informática. Capitulo 8, 2006/07. Universid... http://www.um.es/docencia/barzana/II/Ii08.html

Ciencia en general
Biología
Criminología
Inicio
Contacte

Historia de los sistemas operativos


Clasificación
Sistemas operativos habituales

Selecciona un texto y
pulsa aquí para oírlo

8.1 Historia de los sistemas operativos

En este capítulo se describe aquella parte del "software" de un ordenador que transforma el "hardware" en
algo útil: el sistema operativo. Para los fines de este capítulo es importante considerar un ordenador como
un conjunto de recursos, de tipo físico, lógico o una mezcla de ambos. Tomados como un todo estos
recursos proporcionan facilidades para el tratamiento y la entrada/salida de datos, así como para otros
aspectos del funcionamiento de un ordenador.

Para comprender qué es un sistema operativo, es necesario entender cómo han sido desarrollados, en este
apartado se esboza el desarrollo de los sistemas operativos desde los primeros hasta los actuales
multiprogramados y de tiempo compartido. A medida que nos adentremos en las distintas etapas, veremos
que los componentes de los sistemas operativos evolucionaron como soluciones naturales a los problemas
de los primeros sistemas informáticos.

LOS PRIMEROS SISTEMAS

Inicialmente lo único que existía era el "hardware" del ordenador. Los primeros ordenadores eran
máquinas muy grandes que ejecutaban su trabajo desde lo programado en una consola. El usuario escribía
el programa y lo ejecutaba directamente desde la consola del operador, se debía de cargar manualmente en
la memoria, bien fuera desde los conmutadores del panel frontal, desde cinta de papel o mediante tarjetas
perforadas. Seguidamente se pulsaban los interruptores adecuados para cargar la dirección de inicio y para
comenzar la ejecución del programa. Se supervisaba la ejecución por medio de los indicadores luminosos
de la consola, si aparecía algún error se podía detener la ejecución, examinar el contenido de la memoria y
de los registros y depurar el programa desde la consola. La salida generada se imprimía, o bien se
almacenaba en cinta de papel o tarjetas perforadas para su procesado posterior.

Con el tiempo se perfeccionaron tanto el "hardware" como el "software", aparecieron los lectores de
tarjeta muy rápidos, impresoras de línea de elevadas prestaciones en cuanto a velocidad y cintas
magnéticas. Se diseñaron programas ensambladores, cargadores y enlazadores para facilitar la tarea de
programación.

Más tarde aparecieron compiladores para los lenguajes FORTRAN y COBOL, haciendo más sencillo el
manejo del ordenador por parte del usuario, pero más compleja su forma de operar. Por ejemplo para
trabajar con un programa en FORTRAN, el programador había de cargar primero en la máquina el
compilador FORTRAN, que estaba normalmente en una cinta magnética que se tenía que montar en un
lector de cinta. El programa se leía a partir de tarjetas perforadas. A continuación de la compilación se

2 de 17 18/04/2008 20:01
Apuntes Introduccion a la Informática. Capitulo 8, 2006/07. Universid... http://www.um.es/docencia/barzana/II/Ii08.html

generaba una salida en ensamblador que para ensamblarse requería la carga desde otra cinta del lenguaje
ensamblador. A su vez el código generado era frecuente que se tuviera que enlazar con otro existente en
librerías. Finalmente el programa en binario, quedaba listo para su ejecución y podía cargarse en memoria
y si fuera necesario proceder a su depuración. Como se puede deducir, la ejecución de un programa podía
implicar previamente un tiempo de preparación considerable. Además si se producía un error en cualquier
paso lo más probable era que habría que comenzar desde el principio.

MONITOR SIMPLE

Durante el tiempo de montaje de las cintas o mientras se operaba en la consola, la CPU del ordenador
permanecía inactiva. Además los ordenadores eran muy caros, como ejemplo si se considera un IBM
7094, que costaba dos millones de dólares y su esperanza de vida era de cinco años, el coste del
inmovilizado era de 45.66 dólares por hora, trabajando 24 horas al día y 365 días al año. Además se han
de considerar los costes de funcionamiento por energía, refrigeración, papel, programadores, etc. Todo
ello en una época en la que el salario mínimo era de un dólar por hora. Está claro que el tiempo de
ordenador era muy valioso, y los propietarios deseaban sacarle el máximo rendimiento. Para rentabilizar
su inversión debían maximizar la cuota de uso.

La solución fue doble, en primer lugar se contrataron operadores de ordenador profesionales, el


programador entonces ya no tenía que tocar la máquina. Tan pronto como se terminaba un trabajo el
operador ponía en marcha el siguiente y se eliminaban los tiempos de inactividad basándose en el sistema
de reservas. Además al tener los operadores más experiencia en los procesos implicados, como por
ejemplo el montaje de cintas, los tiempos se redujeron. Por supuesto que los operadores no podían
depurar los problemas que surgieran en los programas, por lo que en caso necesario se volcaban a un
sistema de almacenamiento y se entregaban al programador. El segundo ahorro de tiempo fue debido a la
reducción del tiempo de preparación. Los trabajos con necesidades similares se incluyeron en lotes y se
ejecutaban en le ordenador como un grupo. Por ejemplo si se recibían programas en diversos lenguajes
como FORTRAN y COBOL, no se ejecutaban en el orden de recepción, sino que se procesaban
primeramente todos los de un lenguaje y a continuación todos los del otro, con el consiguiente ahorro al
cargar una sola vez cada compilador.

Pero aún había problemas, por ejemplo si un trabajo se detenía, los operadores tenían que darse cuenta
observando la consola, determinar por qué se había detenido la ejecución y obrar en consecuencia según
el problema planteado. Durante este proceso la CPU volvía a estar inactiva. Para solventar esta
inactividad se introdujo el secuenciamiento automático de trabajos y con él se crearon los primeros y
rudimentarios sistemas operativos. Fueron los programas residentes denominados monitores residentes,
que secuenciaban automáticamente todos los programas que se ejecutaban en el ordenador. Para facilitar
la secuenciación sin necesidad de la intervención de un operador se introdujeron las tarjetas de control,
cuya idea es muy simple, además del programa o datos de un trabajo, se incluyen tarjetas especiales que
son directivas para el monitor residente, indicándole qué programa tiene que ejecutar. Por ejemplo para
indicar que un programa está en FORTRAN, se acostumbraba a poner una tarjeta de control con el texto
$FTN, y para terminar un trabajo se pondría otra con $END. Los sistemas así configurados son conocidos
como batch o procesos por lotes.

PRESTACIONES

Los ordenadores, en especial los grandes, han sido máquinas muy caras, por lo que es lógico obtener las
máximas prestaciones posibles. Los procesos por lotes mejoraron las prestaciones, sin embargo aunque el
trabajo realizado por los operadores se redujo, había una parte del proceso que era muy lenta en
comparación con la velocidad de la CPU, este problema era originado por los sistemas de entradas y
salidas, siendo el caso más representativo el acceso a las cintas magnéticas, pues al ser dispositivos
mecánicos la velocidad es muy baja comparada con los procesos electrónicos. Por ejemplo al trabajar para
la ejecución de un programa, que como es lógico se cargaba desde cinta, se tenía la CPU inactiva el 93%
del tiempo que duraba todo el proceso.

3 de 17 18/04/2008 20:01
Apuntes Introduccion a la Informática. Capitulo 8, 2006/07. Universid... http://www.um.es/docencia/barzana/II/Ii08.html

OPERACIONES "OFF-LINE"

Con el tiempo se crearon dispositivos de entrada/salida más rápidos, pero las velocidades de las CPU's
crecieron aún a un ritmo mayor, por lo que el problema aumentó. Una solución fue la de reemplazar las
lentas lectoras de tarjetas e impresoras de líneas, por unidades de cinta magnética. La mayoría de los
sistemas de los años 1950 y 1960 trabajaban por lotes, que leían de tarjetas y escribían en impresoras. Sin
embargo en lugar de hacer que la CPU leyera directamente tarjetas, estas se copiaban previamente en una
cinta magnética, y cuando estaba llena se llevaba al ordenador. Si un programa necesitaba una entrada de
una tarjeta, se leía de la cinta, análogamente las salidas se llevaban a cintas y se imprimían
posteriormente.

Se desarrollaron dispositivos especializados con salida o entrada directa a cinta magnética. Incluso se
llegaron a crear pequeños ordenadores para realizar dichas funciones, que eran satélites del equipo
principal.

Otra solución a la lentitud de los procesos de entrada/salida fue el denominado "buffering". Este sistema
trata de mantener continuamente ocupados tanto a la CPU como a los dispositivos de E/S. La idea es muy
sencilla, una vez que se han leído los datos y que la CPU va a operar con ellos, el dispositivo de entrada
ejecuta inmediatamente la siguiente lectura. La CPU y el dispositivo de entrada permanece ocupado. Con
suerte, cuando la CPU esté libre para el siguiente grupo de datos, el dispositivo de entrada habrá acabado
de leerlos. La CPU podrá iniciar el proceso de los últimos datos leídos, mientras que el dispositivo de
entrada iniciará la lectura de los datos que siguen. Para la salida se puede realizar un proceso análogo. (La
palabra buffer, en castellano se puede traducir como tampón).

Al introducirse como sistemas de almacenamiento los basados en disco, el sistema off-line se fue
eliminando progresivamente, y se introdujo el sistema conocido como "spooling" (Simultaneous
Operation On-Line), que consiste en usar el disco como tampón, cuya principal ventaja es que solapa la
entrada/salida de un proceso con la computación de otros.

MULTIPROGRAMACIÓN

El aspecto más importante de la planificación de trabajo es la capacidad de multiprogramación. Las


operaciones descritas previamente para procesos de E/S tienen sus limitaciones, un usuario, no puede en
general mantener la CPU o los dispositivos de E/S ocupados todo el tiempo. La multiprogramación es un
método para incrementar el empleo de CPU, disponiendo en todo momento de algo que la CPU pueda
ejecutar. La idea ea la siguiente, el sistema operativo toma uno de los trabajos de un grupo de ellos y
empieza a ejecutarlo, eventualmente el trabajo tendrá que esperar por algún motivo, como por ejemplo
para montar una cinta, en un sistema sin multiprogramación la CPU quedaría inactiva.

Esta idea es bastante frecuente en otras situaciones, un abogado no tiene un solo cliente en un cierto
momento, por el contrario, varios clientes pueden estar en situación de recibir atención al mismo tiempo.
Mientras un caso espera para ir a juicio, el abogado puede trabajar en otro caso. Con un número suficiente
de clientes un abogado nunca estará ocioso (Los abogados ociosos tienden a convertirse en políticos del
PP, por lo que hay interés social en mantenerlos ocupados).

4 de 17 18/04/2008 20:01
Apuntes Introduccion a la Informática. Capitulo 8, 2006/07. Universid... http://www.um.es/docencia/barzana/II/Ii08.html

Los sistemas operativos multiprogramados son bastante sofisticados. Tener varios trabajos dispuestos
para su ejecución, supone mantenerlos simultáneamente en memoria, y tener varios programas en
memoria al mismo tiempo requiere una gestión de la memoria. Además, si hay varios trabajos dispuestos
para ejecución, hay que tomar alguna decisión para elegir entre ellos, mediante una planificación
adecuada de la CPU. La multiprogramación es el tema central de los sistemas operativos modernos.

Los aspectos fundamentales a considerar son:

Gestión de la memoria
La memoria total del ordenador se ha de compartir de forma adecuada entre todos los
programas y datos que en cierto momento tenga cada usuario del equipo.

Planificación de la CPU
Entre todas las tareas demandadas por los usuarios es posible establecer preferencias, lo cual
implica que la CPU se planifique dando más tiempo a algunos trabajos o a los usuarios en
función de unos niveles de privilegios establecidos.

Control de concurrencia.
El sistema operativo ha de gestionar adecuadamente todos los recursos del ordenador y
ordenar la concurrencia de demandas de una forma adecuada. Por ejemplo si varios usuarios
solicitan al mismo tiempo el acceso a un disco, se habrá de gestionar de forma correcta esta
concurrencia para evitar bloqueos o situaciones impredecibles.

Protección
En un sistema donde acceden muchos usuarios es lógico que exista un sistema de protección
que permita asegurar que a los trabajos de uno no pueden acceder los otros usuarios, ya sea
por motivos de seguridad (por ejemplo para evitar pérdidas de información) o de
confidencialidad.

Abrazo mortal
Es un problema que no se plantea solamente en un entorno de sistemas operativos, sino que
puede aparecer en la vida real. Por ejemplo si dos personas han de cruzar un río, saltando
entre piedras puestas en él, y con la condición de apoyar un solo pie, se llega al abrazo mortal
cuando dos personas empiezan a cruzar desde orillas opuestas y se encuentran en el medio,
llega este momento cuando los dos intentan pisar la misma piedra. En general esta situación
se produce cuando un sistema consta de un número finito de recursos para distribuir entre un
número dado de procesos en competencia.

TIEMPO COMPARTIDO

5 de 17 18/04/2008 20:01
Apuntes Introduccion a la Informática. Capitulo 8, 2006/07. Universid... http://www.um.es/docencia/barzana/II/Ii08.html

Cuando se desarrollaron los sistemas por lotes estos se definían por la agrupación de trabajos similares,
que sólo permitían el acceso secuencial a la información. Al disponerse de discos, se hizo posible el
acceso inmediato a todas las aplicaciones.

Un sistema por lotes tiene algunos inconvenientes, para el usuario, el principal es que los usuarios no
pueden interactuar con sus trabajos mientras se están ejecutando, lo cual crea problemas caso de necesitar
depurar un programa. Como consecuencia posteriormente a estos sistemas aparecieron los conocidos
como interactivos o "hands-on", en los que el usuario da y recibe las instrucciones de forma inmediata. En
consecuencia se puede experimentar fácilmente con cualquier programa.

Un sistema operativo de tiempo compartido utiliza la planificación de la CPU y la multiprogramación


para dotar a cada usuario de una pequeña parte del ordenador compartido. Permite que muchos usuarios
compartan el ordenador. Como cada acción o comando suele ser breve, basta con un tiempo de CPU corto
para cada usuario. Dado que el sistema cambia rápidamente entre usuarios, estos tienen la impresión de
que cada uno de ellos dispone de su propio ordenador, cuando realmente un solo ordenador es compartido
entre muchos usuarios. Esta idea fue expuesta en 1960, pero al ser difíciles de construir estos sistemas, no
se difundieron hasta principios de los 70.

TIEMPO REAL

Otro tipo de sistemas son los conocidos como en tiempo real, que se utilizan frecuentemente como
dispositivos de control en aplicaciones especializadas. Por ejemplo unos sensores proporcionan datos al
ordenador, que los analiza y en consecuencia ajusta unos controles para modificar las entradas al sensor.
Casos de este tipo se dan en aplicaciones científicas, médicas e industriales.

Un caso típico de equipo que funciona bajo tiempo real, es un "controlador miniatura", que consiste en un
pequeño ordenador, diseñado en una placa de circuito impreso, que se embebe en una máquina o
cualquier otro dispositivo, con finalidad de control. Estos dispositivos se usan en maquinaria de
fabricación, comprobación de equipamientos, telecomunicaciones, sistemas de control y seguridad,
ventilación y aire acondicionado, monitorización del medio ambiente e investigación científica. Algunos
ejemplos reales se citan seguidamente:

Hornos
Control de señales de tráfico
Control de satélites
Equipos musicales
Verificación de componentes de automoción
Control de riego agrícola

Comparado con un PC, un ordenador de este tipo es menor, gasta menos energía y disipa menos calor. La

6 de 17 18/04/2008 20:01
Apuntes Introduccion a la Informática. Capitulo 8, 2006/07. Universid... http://www.um.es/docencia/barzana/II/Ii08.html

propiedad más importante es que pueden trabajar en ambientes hostiles.

8.2 Clasificación

El sistema operativo es parte fundamental de cualquier ordenador. A grandes rasgos un sistema


informático se puede dividir en:

Hardware
Sistema operativo o de explotación
Programas de aplicación
Usuarios

El hardware facilita los recursos básicos de computación, mientras que los programas de aplicación
definen cómo hay que utilizar estos recursos para resolver los problemas de los usuarios. Puede haber
muchos usuarios diferentes tratando de resolver problemas distintos. Consecuentemente es habitual la
existencia de distintos programas de aplicación. El sistema operativo controla y coordina el uso del
hardware por parte de los distintos programas de aplicación de los diversos usuarios.

Un sistema operativo es similar a un gobierno. Los recursos básicos de un sistema informáticos son el
hardware, el software, los datos y por supuesto los usuarios. El sistema operativo facilita los medios para
el uso adecuado de estos recursos durante la operación del sistema informático, al igual que un gobierno,
el sistema operativo no realiza por sí mismo una función útil, simplemente crea el entorno en el que otros
programas puedan hacer un trabajo.

También se puede considerar un sistema operativo como un asignador de recursos. Un sistema


informático tiene muchos recursos susceptibles de ser requeridos para resolver problemas. El sistema
operativo actúa como gestor asignando los recursos a programas y usuarios específicos, según las
necesidades, para que realicen sus tareas.

Otra concepción ligeramente diferente de un sistema operativo se basa en la necesidad de controlar


distintos dispositivos de entrada/salida y los programas de usuario. Un sistema operativo es un programa
de control.

7 de 17 18/04/2008 20:01
Apuntes Introduccion a la Informática. Capitulo 8, 2006/07. Universid... http://www.um.es/docencia/barzana/II/Ii08.html

En general no existe una definición completamente adecuada de un sistema operativo. Existen por que
son una vía razonable para resolver el problema de crear un sistema informático manejable. En general es
más fácil definir los sistemas operativos por lo que hacen mas que por lo que son.

Los sistemas operativos se pueden clasificar en cuatro grupos:

Por lotes (batch)


Son los primitivos, de la época en que se manejaban tarjetas perforadas.

Interactivos monousuarios
Permiten que el usuario del equipo pueda interaccionar en cualquier momento con el proceso que
esté ejecutando. Sólo permiten que trabaje un usuario en un momento dado.

Tiempo compartido
Permiten el acceso al ordenador a un número variable de usuarios de forma concurrente, y dada la
gran velocidad del ordenador, es como si estuviera trabajando simultáneamente para todos ellos.

Tiempo real
Se utilizan ampliamente en aplicaciones industriales y de control. El sistema responde de forma
inmediata a entradas del exterior.

8.3 Sistemas operativos habituales

En el inicio de la informática cada fabricante tenía sus propios sistemas operativos que no eran
compatibles con los de otros, incluso dentro de un mismo fabricante podían coexistir varios, caso típico
de IBM. Estos se conocen como sistemas propietarios.

La tendencia actual es hacia los llamados sistemas abiertos, lo cual indica que estos sistemas operativos
trabajan sobre una gran variedad de máquinas con independencia del fabricante del equipo. La gran
ventaja es el ahorro a todos los niveles, pues por ejemplo una empresa con ordenadores de distintos
fabricantes puede tener totalmente uniformado todo su software.

A continuación se comentan los sistemas operativos más difundidose en los últimos 25 años.

MS-DOS

Fue un sistema operativo adaptado por Microsoft para IBM (PC-DOS), y en concreto para el modelo PC,
aunque se popularizó rápidamente siendo el más usado a nivel personal. Fue desarrollado en el año 1979
por Tim Paterson que trabajaba en Seatle Computer Products, y adquirido por Microsoft Corporation. En
la bitácora Pmurillo se puede ver la historia de la elección de IBM para su nuevo ordenador personal.

El espíritu del MS-DOS fue el de proporcionar una base flexible para el software de un microordenador.
Tiene un núcleo con un conjunto de comandos residentes y una capa con comandos transitorios que se
cargan en memoria cuando se necesita su ejecución para a continuación abandonarla.

Dado que el entorno es poco amigable se crearon añadidos que proporcionan un ambiente de trabajo más
fácil, el que ha tenido más éxito es WINDOWS (no estrictamente por razones de calidad), que ofrece un
entorno gráfico de ventanas y sencillez de manejo mediante un ratón, basado en desarrollos de la empresa
XEROX.

La principal desventaja de MS-DOS es que es monousuario y monotarea, es decir que sólo puede trabajar

8 de 17 18/04/2008 20:01
Apuntes Introduccion a la Informática. Capitulo 8, 2006/07. Universid... http://www.um.es/docencia/barzana/II/Ii08.html

un usuario (no admite terminales) y que a su vez este sólo puede ejecutar un programa al mismo tiempo,
aunque este último problema se resuelve con el entorno Windows. Actualmente ha quedado obsoleto,
aunque se comercializa en algunos países de Asia, pues a partir del Windows XP ya son en sí sistemas
operativos completos (aunque siguen siendo muy deficientes) y no necesitan para funcionar el MS-DOS.

UNIX

UNIX fue diseñado en los laboratorios Bell de la empresa AT&T, para su empleo en ordenadores marca
Digital. Dadas sus características pronto se difundió ampliamente en ambientes universitarios, por lo que
en el prrincipio se consideró como un sistema operativo orientado hacia ambientes de investigación y no
en aplicaciones de gestión. Actualmente está muy difundido en todo tipo de equipos aunque se ha perdido
la estandarización habiendo muchas versiones diferentes poco compatibles entre si. Otra versión es el
Solaris de la empresa SUN. Una ventaja sobre otros sistemas operativos es que este sistema es
multiusuario, por lo que un equipo admite gran cantidad de terminales trabajando simultáneamente,
además de la robustez y seguridad.

LINUX

Linux es básicamente un sistema operativo compatible con UNIX, que opera bajo equipos compatibles
con el estándar del mercado y grandes sistemas informáticos. Su ventaja principal es que su costo es
prácticamente nulo, y es "software" libre, que significa que lo podemos dsitribuir y modificar libremente,
según la licencia GNU.

EL núcleo fue escrito por Linus Torvalds (1969-), como un sistema operativo abierto y
estandar, siendo desarrollado y ampliado posteriormente por muchos programadores, de
forma independiente. El código fuente, gestores de dispositivos y utilidades están disponibles
gratuitamente.

Actualmente supone una gran competencia para Windows, más que para UNIX, de hecho en el futuro
puede desbancarlo, no sólo por ser gratis y disponer de los fuentes, sino por superioridad y más seguridad.

Diversas administraciones públicas, como por ejemplo la Junta de Andalucía y la de Extremadura, en


España, y otras a nivel mundial lo están considerando como estándar, lo cual implicará una amplia
utilización en el futuro.

Un grupo de profesores de la Universidad de Murcia, está desarrollando una versión para la enseñanza,
denominada CALDUM.

Como ejemplo de la gran difusión del Linux, se tiene el caso de IBM que junto con Citizen han creado un
reloj con este sistema operativo y masa inferior a 250 gramos. Comercialmente se conoce como
WatchPad, e incluye tecnología de voz y conectividad por infrarrojos. Para interactuar con él es mediante
una pantalla táctil de cristal líquido QVGA. También se ha incorporado a los teléfonos móviles como por
ejemplo el proyecto Android de Google, para dotar a los móviles celulares de un sistema operativo libre y
gratuito, a direnecia de otros que se usan actualmente como Symbian y Windows Mobile.

Como ejemplo de la difusión que está tomando Linux, en la siguiente tabla se muestran los sistemas
operativos que gestionan las 500 computadoras más potentes a nivel mundial (datos año 2007)l.

9 de 17 18/04/2008 20:01
Apuntes Introduccion a la Informática. Capitulo 8, 2006/07. Universid... http://www.um.es/docencia/barzana/II/Ii08.html

Extracto del TOP 500


Nro. Fabricante Ordenador Procesadores SO
1 IBM eServer Blue Gene 131072 CNK/Linux
2 IBM eServer Blue Gene 40960 CNK/Linux
3 IBM eServer pSeries p5 575 1.9 GHz 12208 AIX
4 SGI SGI Altix 1.5 GHz 10160 Linux
5 Bull NovaScale 5160, Itanium2 1.6 GHz 8704 Linux
6 Dell PowerEdge 1850, 3.6 GHz 9024 Linux
Sun Fire X4600 Cluster, Opteron
7 NEC/Sun 10368 Linux
2.4/2.6 GHz
8 IBM eServer Blue Gene 16384 CNK/Linux
9 Cray Red Storm Cray XT3, 2.0 GHz 10880 UNICOS/Linux
10 NEC Earth-Simulator 5120 Super-UX
11 IBM JS20 Cluster, PPC 970, 2.2 GHz 4800 Linux
12 IBM eServer Blue Gene 12288 CNK/Linux
13 Cray Cray XT3, 2.4 GHz 5200 UNICOS
14 CDC Intel Itanium2 Tiger4 1.4GHz 4096 Linux
15 IBM eServer Blue Gene 8192 CNK/Linux
16 IBM eServer Blue Gene 8192 CNK/Linux
17 IBM eServer Blue Gene 8192 CNK/Linux
18 IBM eServer Blue Gene 8192 CNK/Linux
19 IBM eServer Blue Gene 8192 CNK/Linux
20 Cray Cray XT3, 2.6 GHz 4096 UNICOS
Windows Compute Cluster
130 Dell PowerEdge 1855, 3.2 GHz 900
Server 2003

En la tabla (fuente: blog de Javier Smaldone, bajo licencia Creative Commons) podemos ver las 20
primeras entradas de la lista, con el añadido del primer sistema no-Unix, que aparece en la posición 130
(es un sistema Windows). Podemos ver que 16 de las primeras 20 computadoras corren Linux, lo que
representa un 80%.

LINUX, UNA REVOLUCIÓN IMPREVISTA

Este sistema operativo, que nació en 1991, se enfrenta a Windows con una filosofía de
código abierto y uso libre

Cuando Linus Torvalds, el estudiante finlandés que creó Linux publicó su autobiografía
la tituló Just for fun. Algo así como Sólo como diversión. Y el subtítulo todavía era más
claro: La historia de un revolucionario accidental. Es decir, la contundente emergencia de
Linux en el mercado de los sistemas operativos, con una filosofía que contradice a la de
Microsoft y le planta cara, no estaba en los planes de aquel chico que lanzó en 1991 lo
que sería Linux, un sistema operativo de código abierto, que permite conocer sus tripas
técnicas y modificarlo.

10 de 17 18/04/2008 20:01
Apuntes Introduccion a la Informática. Capitulo 8, 2006/07. Universid... http://www.um.es/docencia/barzana/II/Ii08.html

..... Doce años más tarde, sin embargo, grandes empresas como IBM, HP o Oracle
anuncian productos con Linux y el diario Wall Street Journal lo incluye como una de las
diez tecnologías que "usted debe conocer". Como teorizan en el diario, "Linux podía
haberse quedado como una herramienta para rebeldes del software", pero es una
"revolución del código abierto que sacude el mercado".

En 1991, Torvalds; empieza en los foros de Internet a dar noticias sobre lo que está
haciendo y pide ayuda-"Hola ( ... ). Estoy trabajando en un libre sistema operativo (un
hobby, que no será grande y profesional como gnu)". Miles de programadores
participaron y participan sin cobrar en el desarrollo de este programa.

Unix reinaba en la informática corporativa. Apple tenía una robusta herramienta, pero
sólo trabajaba sobre máquinas de su marea. Las escuelas de negocios todavía discuten
hoy el impacto que tuvo para Apple retener su sistema operativo vinculándolo a su
máquina en un binomio cerrado.

Apple se ha quedado con una modesta cuota de mercado de usuarios, eso sí, entusiastas.
IBM abrió su arquitectura a otros fabricantes de ordenadores y desató su propia
competencia. Mientras, Bill Gates había comprado por 50.000 dóla-res el esqueleto de un
sistema operativo, DOS, y reinaba en el universo del PC personal. Menos amiga-ble que
el sistema operativo de Apple, tenía la ventaja de que funcionaba sobre ordenadores
compatibles con el diseño de IBM. Luego vendría Windows.

Cuando Torvalds escribe que está trabajando sobre un sistema operativo libre (free) se
está apuntando a un movimiento lanzado en 1983 por Richard Stallman conocido como
Proyecto GNU. La idea era que el software debia ser abierto y gratuito licencia GPL).
Esta licencia permite usar el programa sin restricciones, redistribuirlo sin limitaciones,
modificarlo y distribuir las modificaciones. Con Microsoft o cualquier programa bajo
licencia propietaria, los clientes adquieren la licencia al usar un programa, pero tienen
vetado escudriñar su panza, la arquitectura de su código, y, obviamente su redistribución.
Linux sigue bajo la licencia GPL con que nació.

No obstante, sí se pueden añadir ejecutables propietarios, con código cerrado, que no


supongan cambiar Linux sino trabajar sobre él. Es decir, cuando una empresa como
Oracle ofrece sus productos que trabajan sobre Linux Oracle sigue siendo propietaria de
estos productos porque no alteran Linux sino que lo usan de plataforma.

En 1995 se fundan compañías, como Red Hat, que comercian con Linux. La pregunta
irremediable es: ¿cómo alguien piensa hacer negocio con un programa con licencia
gratuita? Estas empresas pueden comercializar la edición de] programa en un CD con
manual de instrucciones o la instalación y mantenimiento del mismo a un cliente. Red
Hat, por ejemplo, obtiene ingresos también con cursos de Linux que certifican al alumno
como conocedor del sistema. Cada vez más empresas desarrollan sobre Linux ejecutables
de los que son propietarios.

Ahora, Linux es una palabra que preocupa a Microsoft porque gana adeptos más allá de
comunidades ilustradas. Sus mejores propagandistas son las corporaciones que lo
adoptan y las empresas informáticas que lo ofertan. Tras abrirse a Linux el mundo
empresarial, ahora empieza su penetración en el mundo doméstico, temeroso de su
esoterismo. Un obstáculo era su fama de antipático en el manejo. ¿Un juguete para chicos
listos? Linux inicialmente obligaba a dar órdenes escritas a la máquina. Posteriormente
aparecieron interfaces más convivenciales para usuarios acostumbrados a la rutina de las
ventanas (windows).

11 de 17 18/04/2008 20:01
Apuntes Introduccion a la Informática. Capitulo 8, 2006/07. Universid... http://www.um.es/docencia/barzana/II/Ii08.html

Otro factor que ayuda a esta popularización son las políticas de algunas administraciones
en favor del software libre. Desde Brasil a Alemania, pasando por el Gobierno extremeño
o el PP valenciano, se han pronunciado en favor del software libre. Argumentos: las
administraciones no tienen por qué pagar para conseguir algo que es gratuito y, no es
lógico usar una herramienta tan crítica cuvo secreto está en otras manos. Microsoft, que
había desdeñado la emergencia de Linux reacciona. En un informe a la autoridad bursátil
norteamericana de diciembre de 2002, la propia compañía escribe: la popularización del
movimiento del código abierto supone "una significativa amenaza al modelo de negocio
de la compañía, incluyen~ do los esfuerzos de sus defensores para convencer a los
gobiernos que opten por el código abierto". Microsoft advierte que si esta opción gana
adeptos, Ias ventas de la compañía pueden bajar, tendrá que reducir los precios que carga
sobre sus productos y, los ingresos y márgenes pueden declinar".

Microsoft ha replicado con su política de código compartido por la que, a las agencias de
seguridad de determinados países y tras suscribir un acuerdo bilateral, les abre el código
de Windows. Microsoft predica que los gobiernos han de ser neutrales frente al dilema de
licencia propietaria o libre y tomar sus decisiones sólo en función del rendimiento de los
programas.

Microsoft se apoya en una consultoría externa para argumentar que Linux es gratis, de
entrada, pero resulta más caro a la larga por costes de mantenimiento e ineficiencias. Lo
cierto es que aquella inocente diversión de un estudiante preocupa a una compañía que ha
instalado Windows en el 95% de los PC.

Todo el artículo en El País - Negocios...

Software libre La industria Linux responde a Microsoft

Marimar Jiménez y Javier F. Magariño (Cinco Dias, 17 mayo 2003)

Medio centenar de empresas españolas viven del software libre, con unas ventas medias
de 450000 euros, no somos un puñado de voluntarios sin sueldo. Y si no que se lo
pregunten a las personas que trabajan desarrollando software libre en HP, IBM, Sun
Microsystems, Wall Street o en universidades de prestigio de todo el mundo. Todos están
pagados, espeta Juan Tomás García, presidente de la asociación española de usuarios y
desarrolladores de software libre Hispalinux. Esta declaración defensiva se produce unos
días después de que Steve Ballmer, presidente de Microsoft, visitara España con motivo
del lanzamiento en nuestro país de Windows Server 2003. La mano derecha de Bill Gates
advirtió ante un foro repleto de directivos del error que supone introducir aplicaciones de
código abierto en las empresas: 'Al ser un grupo de desarrolladores que trabaja gratis, su
actividad se convierte en algo muy impredecible'. Y añadió que el avance de Linux 'no
genera ni puestos de trabajo ni inversiones en I+D'.

Estas duras críticas chocan, en cambio, con la preocupación que parece vivirse en el seno
de la compañía de Redmond. Hace tres días, el diario International Herald Tribune
publicaba el contenido de un correo interno del director ejecutivo de ventas de Microsoft,
Orlando Ayala, en el que apostaba por una guerra de precios, al autorizar a sus directivos

12 de 17 18/04/2008 20:01
Apuntes Introduccion a la Informática. Capitulo 8, 2006/07. Universid... http://www.um.es/docencia/barzana/II/Ii08.html

a hacer fuertes recortes en los mismos: 'Bajo ninguna circunstancia debemos perder
frente a Linux', arengaba en el e-mail Tras la conocida decisión de divulgar el código
fuente de Windows y donar importantes sumas de dinero a la comunidad educativa, la
nueva política de Microsoft parece incluir importantes descuentos, que estarían
respaldados por un fondo especial de nueva creación.

'Los nervios de Ballmer no son para nosotros sino la mejor de las señales, la que nos
indica que vamos por el buen camino, que estamos consiguiendo resultados, que estamos
venciendo', asegura Javier Cuchí, representante de Hispalinux. Cuando este experto habla
en plural se refiere a todo un colectivo de desarrolladores y de empresas cuyo negocio
gira en parte o totalmente alrededor del software libre. 'No es cierto que estas
herramientas no generen una industria. Otra cosa es que aún sea incipiente', dice Jesús
González Barahona, profesor del área de telemática de la Universidad Juan Carlos I. Y es
que no es lo mismo software libre que gratuito.

En España se calcula que hay en torno a medio centenar de empresas ligadas al


desarrollo, implantación y mantenimiento del software libre. Generalmente son
pequeñas: sus plantillas van de los 4 a los 50 empleados y sus ventas oscilan entre los
300000 y 600000 euros, aunque hay alguna excepción. La compañía Ándago, fundada en
enero de 1996 y con 45 trabajadores, tuvo unos ingresos cercanos a los tres millones de
euros en 2002. 'Aún no hemos alcanzado los beneficios, pero la previsión es lograrlos a
lo largo de este ejercicio', cuenta su presidente, José María Olmo. El pasado año, Ándago
sufrió la crisis económica, ya que sus principales clientes eran operadores de
telecomunicaciones que frenaron en seco sus inversiones tecnológicas. Hoy dirige sus
servicios y consultoría hacia otros sectores como la banca y la administración.

El empuje de pymes como Ándago, Disoft, Igalia, Internet Web Serveis o Yaco
Ingeniería, por citar algunos ejemplos, empieza a consolidar una red de entidades que
fomenta el software no propietario en España. De hecho, a la vuelta de un mes, una
veintena de ellas presentará la Asociación de Empresas de Software Libre (Aesli). 'El
objetivo es fomentar la idea de que detrás de Linux hay iniciativas empresariales',
comenta una de las promotoras, Alicia Zurita. Ella, junto a David Aycart, fundó Esware
en 1999. La compañía, con 24 empleados, enfoca su actividad hacia la venta de software,
formación y consultoría. 'La situación que describe Ballmer es de hace seis años. Resulta
absurdo que desprecie así una tecnología aceptada por toda la industria', defiende Aycart.

En España, algunas Administraciones públicas como la extremeña, la andaluza, la de


Valencia o Aragón han apostado abiertamente por esta corriente, con el convencimiento
de que les permitirá crear una industria local de aplicaciones informáticas. ¿Ocurrirá
realmente? 'Lo cierto es que, de otra forma, no se generaría', apunta Barahona.

Roberto Di Cosmo es un investigador italiano en ciencias de la computación, que se encuentra radicado


en Francia y es docente de la Universidad Paris 7.

Además de su extensa labor científica, es un entusiasta promotor del Software Libre y luchador en contra
de las patentes de software (y como si esto fuera poco, ¡es un tipo muy divertido también !).

Su artículo "Trampa en el Cyberespacio" es un pequeño ensayo en donde analiza la situación actual de la


informática en lo que se refiere al software propietario. Es un excelente documento (muy legible, además)
para entender los peligros que entrañan los manejos de algunas empresas de software (con Microsoft
como el caso más notable).

13 de 17 18/04/2008 20:01
Apuntes Introduccion a la Informática. Capitulo 8, 2006/07. Universid... http://www.um.es/docencia/barzana/II/Ii08.html

Roberto tiene gran cantidad de material en su sitio web (http://www.dicosmo.org) y además lidera un
proyecto de desarrollo de DemoLinux, una distribución de Linux que solo requiere de un CD booteable
para funcionar (http://www.demolinux.org).

Para quienes lean inglés, recomiendo ampliamente su libro "Hijacking the World. The Dark Side of
Microsof". En su sitio hay un enlace para comprarlo (cuesta unos 9 dólares en versión electrónica).
Quienes no lean inglés (o tengan problemas para comprar un libro a 9 dólares a través de Interne), pueden
disfrutar de la traducción al castellano del primer capítulo (publicada por el semanario uruguayo Brecha
en un artículo titulado "La democracia en peligro".

Trampa en el Cyberespacio
Versión HTML(online). Tamaño: 72k

Bibliografía (disponible en la Biblioteca Universitaria):

- Lucas, H y otros. Sistema operativo UNIX. Paraninfo S.A. Madrid 1986


- Milenkovic, Mila. Sistemas Operativos. Concepto y diseño. Mc Graw Hill. Madrid 1998
- Stallinger, William. Sistemas operativos 4ª ed. Prentice Hall, Madrid 2001
- Tanembaun Andrew S. Sistemas operativos modernos. Prentice Hall, México 1992
- Programación en Linux con ejemplos. Prentice Hall. Buenos Aires 2000

Enlaces de interés en internet:

Can We Make Operating Systems Reliable and Secure?


Debian. Linux
Fundación Vía Libre. Argentina
Sourceforge.net
Univ. Pontificia de Salamanca. Sistemas operativos

fresqui del.icio.us meneame

Buscar en la web

Búsqueda escéptica

14 de 17 18/04/2008 20:01
Apuntes Introduccion a la Informática. Capitulo 8, 2006/07. Universid... http://www.um.es/docencia/barzana/II/Ii08.html

Búsqueda en mis webs

con la tecnología
ABC - El (c)olor del colonialismo de

Loading...
Imprimir

Aquí puedes cambiar el tamaño y color del texto

Página Rafael Barzanallana


Actualización en Fisica
Biografía de Edward Lorenz

Actualización en Avisos.
II, trabajos capítulos 2 y 3 de la asignatura

Actualización en Software.
Tutorial sobre la nueva versión de Google Docs

Actualización en Software.
Tutorial sobre el programa HTTrackl

Actualización en Avisos.
II, Sobre GoogleDocs; enlace recomendado
http://www.escepticismo.es/menu-enlaces-escepticismo.html
XML Powered by FeedSweep

Enlaces de interés

Skip Navigation
Inicio
Divulgación
Física
Religiones
Fraudes médicos
Fraudes nutrición
Fraudes psicología
Informática

Fraudes en psicología

Los psicólogos de lo paranormal (abduciones) L.A. Gámez


Teoría de recuperación de recuerdos y síndrome de falso recuerdo. John Hochman
La psicología científica y las pseudopsicologías. Carlos Álvarez González
Psicología para escépticos
La psicología científica y los cuestionamientos al psicoanálisis
Enciclopedia de las alegaciones, fraudes y engaños de lo oculto y lo sobrenatural
El ruido electromagnético y los lugares embrujados
Laberinto postmoderno

15 de 17 18/04/2008 20:01
Apuntes Introduccion a la Informática. Capitulo 8, 2006/07. Universid... http://www.um.es/docencia/barzana/II/Ii08.html

Escepticismo en España

ARP-SAPC
Círculo escéptico
Magonia

Escepticismo
en América

Pensar. Argentina
Escépticos. Colombia
Arev. Venezuela
James Randi. EE.UU.
CSI. EE.UU.

Sugerencias

y consultas

Nombre: eMail:
Tel (opcional):

Consulta o sugerencia:

Protección de datos: los datos proporcionados sólo se utilizan para responder. No se almacena ninguna información
Enviar consulta

Rafael Menéndez-Barzanallana Asensio


Departamento Informática y Sistemas. Universidad de Murcia
Bajo Licencia Creative Commons
Actualizado 2008/03/18

16 de 17 18/04/2008 20:01
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html

Introducción a la Informática. Estudios GAP


facultad Derecho
Capítulo 9. Redes y comunicacaciones

Asignaturas
Introducción a la Informática
Introducción
Ofimática
La información
Historia de la Informática
Representación de la información
Periféricos de un ordenador
Lenguajes de programación
Sistemas operativos
Redes y comunicaciones
Informática Aplicada a la Gestión Pública
Introducción a la ingeniería del software
Metodologías de desarrollo
Metodologías habituales
Bases de datos. Introducción
Bases de datos. Organización ficheros
Bases de datos relacionales
Bases de datos comerciales
Introducción a internet
Intercambio electrónico de datos (EDI)
Comercio electrónico
Teletrabajo
Calidad
Informática Aplicada al Trabajo Social
Fundamentos de los ordenadores
Los ordenadores en la actualidad
Introducción al hardware
Fundamentos del software
Aplicaciones software
Diversos usos de los ordenadores
Comercio electrónico
Inteligencia artificial
Prácticas
Visión general de la informática
Internet
Editores de textos
Hojas de cálculo
Bases de datos
Lenguaje Pascal
Avisos
Escepticismo
Divulgación
Informática

1 de 29 18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html

Ciencia en general
Biología
Criminología
Inicio
Contacte

Introducción
Redes de ordenadores y sus tipos
Telefonía
Sistema de posicionamiento global

Presentación de resumen

Selecciona un texto y
pulsa aquí para oírlo

Importante: las imágenes miniatura se amplían pulsando sobre ellas.

9.1 Introducción

Este capítulo está orientado a usuarios de ordenadores sin conocimientos previos en redes y
comunicaciones. No ofrece un tratamiento exhaustivo de las redes de ordenadores, sin embargo aporta
una base suficiente sobre los conceptos generales y tecnologías comunes.

Durante el siglo pasado se desarrollaron una gran variedad de redes de comunicaciones, hasta alcanzar la
situación actual, en la que rodean la Tierra y se extienden por el espacio. La radio, la televisión, el
teléfono e internet, permiten que millones de personas estén en contacto, a menudo salvando grandes
distancias.

Enlaces recomendados:
Televisión Digital Terrestre (TDT)
11 mitos de la televisón en alta definición desmentidos

Aunque los primeros sistemas de comunicación, como el telégrafo , utilizaban un código digital (código
Morse) para transmitir la información, el mayor peso de los desarrollos
necesarios para dar lugar a estas redes de comunicación ha ido dirigido
hacia la transmisión de voz e imagen, de forma analógica. Con la llegada
de los ordenadores, la situación ha cambiado de nuevo, la información se
envía en forma digital. La combinación de ordenadores y redes de
comunicaciones es una de las principales áreas de desarrollo en la
actualidad, teniendo un impacto tan profundo en el estilo de vida de
millones de personas como lo tuvieron la radio y el teléfono en su
momento.

Un proceso cualquiera de comunicación está constituido por un EMISOR que envía INFORMACIÓN a
través de un CANAL de transmisión, que es recibida por un RECEPTOR. Podemos por tanto, hablar de
comunicación oral, escrita, etc., donde el canal será respectivamente el aire, el papel, etc.

La información no es transmitida tal como la emitimos, sino que se utilizan unos CÓDIGOS
comprensibles por el emisor y el receptor, y que se comunica mediante SEÑALES físicas. Los códigos

2 de 29 18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html

serán el lenguaje utilizado y las señales las ondas sonoras, luminosas, etc. En muchos casos, la utilización
de códigos y señales exigirá que la información sea CODIFICADA en la transmisión y
DECODIFICADA en la recepción. Es decir, pueden ser codificadores/decodificadores los sentidos, los
traductores, etc.

El objetivo de un proceso de comunicación es que la información que se desea transmitir sea idéntica a la
que se recibe. Si falla cualquiera de los elementos que intervienen (transmisor, canal de transmisión o
receptor), se producen pérdidas de información; para intentar evitarlo, se repiten los mensajes en su
totalidad o en parte (redundancia), o se acompañan de códigos especiales (de control) que permitan
reconstruirla. La comunicación suele ser en ambas direcciones alternativa o simultáneamente,
convirtiéndose en este caso el transmisor en receptor y viceversa. Lo dicho de una forma general se puede
extrapolar a la informática con la intervención de diferentes máquinas que comunicarán las informaciones
a diversos tipos de receptores.

Las principales razones de ser de las comunicaciones informáticas son:

Necesidad de enviar y recibir datos


Compartir recursos. No todos los usuarios de un sistema informático van a poder disponer de un
sistema adecuado a sus necesidades, por lo que es útil compartir tanto los equipos como los
programas
Compartir carga. Consiste en distribuir el trabajo que supone el proceso de datos entre varios
ordenadores (caso de un banco en hora punta, el ordenador central se puede pedir a otro que le
ayude, distribuyendo así la carga de trabajo).

Estas necesidades han conducido al gran desarrollo de las redes de comunicaciones. Veremos cómo es
posible conectar ordenadores y terminales. Un terminal puede ser "tonto" o inteligente, el primero
consiste en un monitor y un teclado, y el segundo es un ordenador completo, es decir, se diferencian en
que el terminal inteligente posee capacidad de proceso de información de forma autónoma.

Las redes se distinguen primeramente por la distancia existente entre sus terminales, clasificándose en:

WAN: Redes de Area Remota que interconexionan sistemas geográficamente dispersos.


LAN: Redes de Area Local que conectan sistemas próximos.
PAN: Redes de Area Personal, que conectan sistemas muy próximos.

Como medio físico o canal de comunicación se usan el aire o cables (par trenzado, coaxial y fibra óptica).
No se puede hablar de uno mejor que otro, sino de cuál es el más adecuado a cada necesidad y dependerá
de las prestaciones, coste, fiabilidad de instalación y capacidad de integración con otros sistemas.

Se diferencian también por la velocidad de transmisión. Esta se mide en bits por segundo frecuentemente
confundida con baudios. El baudio es una unidad de velocidad de señalización, o de modulación, igual al
número de condiciones discretas o símbolos que se suceden en la línea, por segundo. La velocidad de
transmisión en baudios coincide con la velocidad de transmisión en bit/s, sólo si cada símbolo representa
un bit. Un baudio es el inverso del intervalo del pulso más corto de señalización medido en segundos.

Un modem a una velocidad de 2400 bit/s, mediante un sistema de modulación cuaternario por modulación
de fase, transmite 1200 símbolos por segundo, y por lo tanto la velocidad de modulación es de 1200
baudios. Un sistema que no emplee bit de parada ni de arranque tiene una velocidad de transmisión en
bit/s igual a la velocidad de modulación en baudios. Un sistema de transmisión de 5 bit, con un pulso de
arranque de 13.5 ms y un pulso de parada de 19 ms, con una duración total par el carácter de 100 ms,
tiene una velocidad de señalización o modulación de:
1/(13.5*10-3) = 74 baudios

y una velocidad de transmisión de:

3 de 29 18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html

5/(100*10-3) = 50 bit/s

Las líneas pueden ser de los tipos siguientes:

Líneas de banda estrecha (banda baja),


Líneas de banda de voz (banda media),
Líneas de banda ancha (banda alta).

El intercambio de información entre los distintos dispositivos tiene que estar regido por unos
PROTOCOLOS, o lenguajes de diálogo que lo regulen. Consisten en un conjunto de normas comunes
para establecer la comunicación tanto para el receptor como para el emisor. En el inicio de la industria
informática, cada fabricante intentaba idear una serie de procedimientos, con los cuales podía controlar la
información y así monopolizar el mercado de las ventas de los distintos elementos que componen la
informática. Con el paso del tiempo esta industria se ha extendido tanto, que surgió la necesidad de
compatibilizar los procedimientos de la información. Actualmente existen asociaciones de fabricantes de
ordenadores, y organizaciones internacionales como por ejemplo ISO, que establecen unas
recomendaciones sobre los procedimientos normalizados de comunicación, que van a gobernar ese
intercambio de información. Un protocolo es pues, un conjunto de procedimientos normalizados o
estandarizados que gobiernan el intercambio de comunicaciones, acuerdos o convenios que se adoptan
para poder establecer una comunicación correcta; afectan a las frecuencias de las señales, reconocimiento
de la conexión, código de recepción y emisión, control de errores, control de la sincronía, inicio de las
operaciones, establecimiento de los caminos por lo que irán los mensajes, asegurar que los datos han sido
recibidos, etc.

9.2 Redes de ordenadores y sus tipos

Una red de ordenadores es un conjunto de equipos que pueden almacenar y procesar datos electrónicos,
interconectados de forma que sus usuarios pueden almacenar, recuperar y compartir información con los
demás. Las máquinas conectadas pueden ser, microordenadores, miniordenadores, grandes ordenadores,
terminales, impresoras, dispositivos de almacenamiento, cámaras, entre otros.

En una red de ordenadores se puede almacenar cualquier información, incluyendo textos, imágenes,
mensajes de voz e imágenes visuales como por ejemplo fotos y vídeos.

Como se ha visto las redes aportan beneficios, los más habituales son:

A) Compartir información de forma flexible

Una red de ordenadores permite a los usuarios compartir casi instantáneamente y sin esfuerzo la
información.

Por ejemplo, un editor de libros, escritores, asociaciones de editores y artistas pueden necesitar
trabajar conjuntamente en una publicación. Mediante una red pueden compartir los mismos
archivos electrónicos, cada uno desde su ordenador y transferir y copiar archivos. Estos pueden
añadir material simultáneamente a los ficheros, o eliminar partes, sin interrumpir el trabajo de los
demás. Las ventajas son evidentes, como por ejemplo con el programa Google docs.

B) Libertad para elegir la herramienta adecuada

Si se opta por un entorno de red abierto, esto añade otra dimensión a las capacidades de compartir
información inherente a la red. Esto permite trabajar con el equipamiento que más satisfaga a las
necesidades del usuario. Por ejemplo en una red abierta a los estándares internacionales, pueden
estar trabajando unos usuarios bajo Windows, mientras que otros lo pueden estar haciendo

4 de 29 18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html

simultáneamente bajo Linux, en estaciones de trabajo o desde otros PCs.

C) Reducción de costos al compartir equipamiento

Una razón muy importante para disponer de una red de área local es el compartir equipamiento, lo
cual implica grandes beneficios. Por ejemplo, en una red de veinte microordenadores, se puede
disponer de una impresora laser en color, para todo el conjunto, por lo que el ahorro sería
considerable frente a la opción de que los veinte equipos no estuvieran conectados en red, e incluso
dado el coste de este tipo de impresoras sería económicamente inviable el que cada usuario tuviera
una de estas impresoras.

Lo mismo que se ha visto en el caso previo, de la impresora de alta calidad, se puede concluir de
otros dispositivos, como por ejemplo un grabador holográfico, un escaner de alta velocidad o un
sistema de fax. En una situación de red se puede compartir cada uno de estos equipos, mientras que
aisladamente sería improbable el que dispusiera cada usuario de ellos.

D) Uso flexible de la potencia de computación

Una de las ventajas más claras de una red, es la posibilidad de usar la potencia de un equipo de la
red, distinto al que estamos trabajando. Por ejemplo si se han de realizar cálculos matemáticos o de
ingeniería complicados, se podrá acceder desde un punto de red, al equipo de dicho entorno que
tenga potencia y rapidez suficiente para realizarlos en un tiempo razonable.

Otra alternativa es el procesamiento paralelo, es decir resolver el problema de cálculo mediante el


trabajo simultáneo de varios equipos de la red. Algunos programas son demasiado complicados
para poder ejecutarse en microordenadores individuales, o tardarían mucho tiempo, pero mediante
el procesamiento paralelo entre los diversos equipos de la red se aceleraría mucho el cálculo. Un
ejemplo es el proyecto BOINC, para compartir ordenadores de forma desinterasada, y otro reciente
es el buscador Wikia.

E) Comunicación efectiva y fácil con todo el mundo

Mediante las redes de área geográficas, se pueden interconectar redes de área local a escala
mundial. De esta forma se puede transferir información, prácticamente de forma instantánea, a
cualquier lugar, como por ejemplo los correos electrónicos.

Topología de red y tipos de redes

Datos frente a Información, rutinariamente se intercambian ambos términos, técnicamente no son lo


mismo. Datos son entidades con un significado dado, son la forma de representar la información, pero no
la información en sí misma. Para propósitos habituales la información son datos decodificados en forma
legible. Por ejemplo, los datos de un fichero se pueden decodificar y mostrar en una pantalla de ordenador
o trasladarlos a una impresora.

¿Cómo se transfieren los datos en una red?, para transferir señales entre ordenadores se necesitan: un
medio de transmisión para portar las señales y dispositivos para enviar y recibir las señales.

A) Medios de transmisión de la red

Las señales eléctricas se generan como ondas electromagnéticas (señales analógicas) o como una
secuencia de pulsos de voltajes (señales digitales). Para propagarse, una señal debe viajar a través
de un medio físico, el llamado medio de transmisión. Hay dos tipos de medios de transmisión,
guiados y no guiados.

5 de 29 18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html

Los medios guiados se fabrican de forma que las señales se confinan a un canal de transmisión
estrecho y en el que se puede predecir su comportamiento. Son habituales, los cables de par
trenzado (como los telefónicos), cables coaxiales (como los de las antenas de televisión) y cables de
fibra óptica.

Los medios no guiados son partes del entorno natural, a través de los que se transmiten las señales
bajo forma de ondas. Las frecuencias habituales se corresponden con el espectro de radioondas
(VHF y microondas) u ondas de luz (infrarrojo o visible).

Para planificar una red de ordenadores, se exige un medio de transmisión, o combinación de ellos,
basándose en las circunstancias físicas, la construcción de la red y las prestaciones que se requieren
de ella. Un objetivo habitual es guardar el coste al mínimo, sobre la base de las necesidades
planteadas.

B) Dispositivos de transmisión y recepción

Una vez que se tiene un medio de transmisión, se necesitan los dispositivos que propaguen y
reciban las señales a través del medio elegido. Estos pueden ser, adaptadores de red, repetidores,
concentradores, transmisores diversos y receptores.

Adaptadores de red

Se fabrican de diversas formas, la más habitual es una placa de circuito impreso que se instala
directamente en un zócalo de expansión, otros están diseñados para microordenadores
portátiles, por lo que consisten en un dispositivo pequeño, que se conecta a la salida de
impresora o a una ranura PCMCIA, sin embargo los nuevos ordenadores lo llevan incluido en
la placa base. Estos adaptadores se fabrican en diversas versiones, de forma que se puedan
conectar a cualquier tipo de medio guiado. También se pueden conectar a dispositivos que
puedan transmitir mediante medios no guiados.

Repetidores y Hubs

Se usan para incrementar las distancias a las que se puede propagar una señal de red. Cuando
una señal viaja a través de un medio encuentra resistencia y gradualmente se hace más débil y
distorsionada. Técnicamente este proceso se denomina atenuación.

Puentes (Bridges)

Permiten conectar una LAN a otra red con diferentes protocolos en los niveles físico y de
enlace, pero siempre que en los niveles superiores usen los mismos protocolos.

Pasarelas (Gateways)

Se usan para conectar una LAN a otra red que utilice otros protocolos. Se emplean para
conexión entre diferentes redes locales, o entre locales y ampliadas (WAN).

Concentradores

Se usan en redes para proporcionar un punto común de conexión para dispositivos. Todos los
concentradores tienen repetidores

Transmisores de microondas

6 de 29 18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html

Los transmisores y receptores de microondas, especialmente satélites, se usan para transmitir


señales a grandes distancias a través de la atmósfera. En EE.UU. las principales bandas de
microondas autorizadas para telecomunicaciones fijas están en el rango de frecuencias de dos
a 40 GHz. Las licencias están concedidas para subrangos inferiores, por ejemplo el Gobierno
Federal tiene una en el rango de 7.125 a 8.40 GHz, mientras que el rango de 10.550 a 10.680
está adjudicado a usuarios privados. A continuación se muestra un esquema del espectro
electromagnético completo:

La
siguiente
figura
muestra
el
proceso
de

transmisión que sufren las microondas en la atmósfera:

Transmisores infrarrojos y láser

Son análogos a los de microondas. También usan la atmósfera como medio, sin embargo sólo
son válidos para distancias cortas, ya que la humedad, niebla, obstáculos y otros fenómenos
ambientales pueden causar problemas de transmisión.

Conectividad en distancias cortas

Las redes de área personal (PAN) como tecnología de tercera generación, significan un impulso al proceso
de convergencia entre las industrias informática y de comunicaciones. Desde el momento en que los
teléfonos móviles se empiecen a utilizar masivamente como ordenadores (como ejemplo el Nokia N96) se
producirá una reestructuración del mercado. Los sectores de GPS, telefonía móvil, ordenadores y en
general procesadores, dejarán de ser independientes. Estas redes trabajan en una banda de frecuencias de
microondas, que no precisa licencia, 2.4 GHz.

Las interferencias constituyen un problema en la tecnología radio en general, que se manifiesta

7 de 29 18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html

activamente en VLAN y también en distancias cortas o PAN por cuanto trabaja en la banda sin licencia
IMS de 2.4 GHz, como los hornos de microondas tanto domésticos como industriales. En particular, es de
gran relevancia la problemática ligada al efecto de las interferencias en sistemas de radio producidas por
los hornos de microondas.

El dispositivo fundamental de un horno de microondas es, en lo que respecta a interferencias, el


magnetrón de cavidades resonantes, es un tubo empleado típicamente como oscilador de potencia en el
transmisor de los sistemas de radar. En este tubo, el flujo de electrones desde el cátodo al ánodo se
controla por medio de un campo magnético creado por un sistema de bobinas o bien un imán permanente
ubicado en el magnetrón. El comportamiento de un magnetrón se puede analizar con relativa facilidad
mediante procedimientos gráficos que, en esencia, se reducen a dos tipos: diagrama que relaciona
mutuamente la intensidad de campo magnético, la corriente en el magnetrón, la variación de frecuencia, y
la tensión entre ánodo y cátodo, así como el rendimiento; y diagrama de Rieke, que proporciona la
relación existente entre la impedancia de carga y la frecuencia, por un lado, y el rendimiento, por otro

Estos magnetrones de hornos de microondas son equipos de pequeña potencia en comparación con los
magnetrones utilizados en radar. Tipicamente, la potencia de salida de un magnetrón de horno de
microondas está comprendida aproximadamente entre 650 y 3000 watios. Los hornos de microondas
pueden emitir legalmente niveles significativos de fugas en las bandas ISM dentro de los límites
establecidos por las normas de seguridad internacionales.

Cualquier utilización de sistemas de radio en estas bandas se debe basar, por tanto, en acuerdos adhoc con
la industria de las comunicaciones. Un aspecto clave del tema de las interferencias en este contexto viene
dado por el hecho de que magnetrones y hornos de microondas se diseñan para que funcionen en la región
del diagrama de Rieke, donde tiene lugar la intersección de todas las lineas de frecuencia.

Un ejemplo es el consorcio Bluetooth, que es un grupo de interés especial y promotor que agrupa a
fabricantes en estos campos. Bluetooth es una tecnología desarrollada por Ericsson, que se aplica a todos
los dispositivos que conforman el escenario inalámbrico, para usuarios: ordenadores portátiles, teléfonos
y dispositivos de mano, como por ejemplo PDA (asistentes digitales personales).

El usuario, en el futuro, ya no utilizará un teléfono, un ordenador portátil o alguno de los dispositivos


presentes en el mercado, sino un equipo comunicador, como por ejemplo el nuevo Nokia 96, que incluye
hasta un sistema GPS.

BLUETOOTH

La tecnología Bluetooth se elabora en un chip que se integra en los diferentes equipos


que conforman el entorno inalámbrico actual, como ordenadores portátiles, periféricos
(ratón, impresoras...), PDA (Personal Digital Assistants) o teléfonos móviles, así como el
futuro, en el que se contemplan, además de estos equipos clásicos del ámbito de la
comunicación y la informática, otros del ámbito de la domótica. Se tiene así lo que se
conoce como productos Bluetooth.

El punto clave del chip es el transceptor, que ha de ser de muy pequeño tamaño (para no
aumentar las dimensiones del chip y poder integrarlo con facilidad en los productos) y de
muy baja potencia. Otra parte del chip es el circuito integrado de radiofrecuencia. Este
circuito integrado tiene capacidad de autorregulación, lo que confiere un factor de ahorro
de potencia, característica que es consustancial a las tecnologías inalámbricas en
distancias cortas. En concreto, en el chip Bluetooth el consumo es menor del 3% de la
potencia que consume un teléfono móvil.

8 de 29 18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html

El mecanismo de autorregulación funciona de la siguiente forma: cuando se detecta un


receptor a una distancia corta el transmisor del circuito integrado es capaz de alterar la
potencia de su propia señal para adaptarla al nivel adecuado; cuando se interrumpe la
transmisión o disminuye el tráfico el sistema pasa a un estado de baja potencia. En este
estado la verificación de conexión se realiza mediante una serie de señales cortas, es
decir, se detectan, de forma periódica, los mensajes de búsqueda.

Bluetooth utiliza "spread spectrum", en concreto frequency hopping (salto de frecuencia).


Estos sistemas de salto de frecuencia dividen la banda de frecuencia en varios canales de
salto (hopping). En el transcurso de una conexión se produce una transición brusca o
salto de los transceptores de radio de un canal a otro de modo pseudoaleatorio. En
sistemas FH, el ancho de banda instantáneo es relativamente reducido, si bien, hablando
en términos generales, la dispersión o spread se obtiene a lo largo de la banda de
frecuencias completa. Esto da lugar a transceptores de banda estrecha y de coste reducido
que se pueden considerar óptimos en ley relativo a inmunidad frente a perturbaciones.
Para soslayar este factor se dispone de programas de corrección de errores cuya misión es
el restablecimiento de los bits de error.

Los enlaces en la capa de banda base de la pila de protocolos en Bluetooth, es decir, los
posibles enlaces físicos son SC ("Synchronous Connection Oriented") para voz y ACL
("Asynchronous Connectionless Link") para paquetes de datos. Los paquetes ACL se
utilizan únicamente para información en forma de datos, mientras que SCO utiliza
paquetes que contiene solamente audio o bien una combinación de audio y datos. Los
paquetes en Bluetooth son de formato fijo: contienen un campo de código de acceso con
el que se identifica el paquete, una cabecera dedicada a información de control y un
campo de carga alternativo.

La codificación de voz se realiza mediante la técnica de modulación CVSD (Continuoslv


Variable Slope Delta) o modulación continua de inclinación delta, con lo que se consigue
un buen nivel de inmunidad a errores de hit, que aparecen como un ruido de fondo. Los
mecanismos de seguridad consisten en esquemas de autenticación (el proceso de probar
la identidad de un cliente/usuario) basados en un mecanismo de exigencia-respuesta y de
encriptación hasacla en cifrado el nivel básico.

Bluetooth funciona en una topología de varias picorredes (redes de corto alcance) con las
que se pueden obtener conexiones punto a punto y punto a multipunto. De momento, se
ha conseguido crear y enlazar de forma ad-hoc hasta 10 picorredes, donde todos los
equipos que se encuentran en una misma picorred aparecen sincronizados.

El concepto de picorred es clave en Bluetooth: se define como la red formada por dos o
más unidades o equipos que compraten un canal. Una unidad controla el tráfico y las
otras funcionan como elementos subordinados. Las picorredes pueden, a su vez,
enlazarse siguiendo una arquitectura tipica del escenario inalámbrico que se utiliza
habitualmente para generar flujos de comunicación mutua entre equipos inalámbricos y
que normalmente se crea de forma espontánea sin necesitar un punto de acceso como
parte integrante de la red. Un grupo de picorredes enlazadas constituye una red de
dispersión. El ancho de banda asociado a Bluetooth, que es de un Mbps, puede llegar a
extenderse hasta incluso más de seis Mbps con una topología de 10 picorredes enlazadas.
El enlace de radio físico entre las diferentes unidades que forman una picorred se realiza
mediante los protocolos que conforman las capas de banda base y de enlace.

Modems

9 de 29 18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html

Un modem convierte señales digitales a analógicas (audio) y viceversa, mediante la modulación y


demodulación de una frecuencia portadora. Se usan para transmitir las señales a través de líneas
telefónicas. Las prestaciones de velocidad se han ido mejorando paulatinamente, hasta los actuales 56
kbaudios. Una tecnología que soporta velocidades superiores y gran calidad es la denominada ISDN o
RDSI (Red Digital de Servicios Integrados), que como su nombre indica usa líneas telefónicas digitales.
La desventaja es su precio más elevado. Este sistema consta de dos líneas de 64 k de velocidad que se
pueden, mediante software, usar como una de 128 k, aunque como es lógico se paga la transmisión por las
dos líneas (es decir cuesta el doble). Es una tecnología que cada vez se usa menos.

Una variante es la conocida como ADSL, (Asymmetrical Digital Subscriber Line), útil para el acceso a
Internet, pues permite la transmisión de información con una velocidad de hasta 8 Mbps, y es
interoperativa con el sistema RDSI. Algunas variantes recientes como ADSL2+ transmiten con velocidad
teórca de hasta 20 Gigas.

Enlaces recomendados:
Conexion internet con banda ancha, ADSL,ADSL2
Ahorrar en la factura telefónica gracias a la banda ancha (cable y ADSL)
Derechos del usuario de telecomunicaciones

Para líneas xDSL hay cuatro tipos de posibilidades:

- DSL asimétrico (ADSL), en el que las velocidades de transmisión son distintas según el
sentido.

- DSL simétrico (SDSL), en el que las velocidades en ambos sentidos son análogas

- DSL de elevada relación de bits, (HDSL) es como el simétrico, pero con más velocidad
(HDSL2)

- DSL de muy elevada relación de bits, (VDSL) es análogo a ADSL; pero al velocidad
está en función de la red. Se alcanzan velocidades de hasta 60 Mbit/s

Enlaces recomendados: Banda ancha para todos (2004)

Topología de una red

Por topología de una red se entiende la forma en la que se conectan electrónicamente los puntos de dicha
red. Las topologías existentes son: bus, árbol y estrella.

Se han de tener en cuenta una serie de factores al seleccionar como más adecuada una topología, se
describen seguidamente:

Complejidad. Este factor afecta a la instalación y mantenimiento de todo el cableado


Respuesta. El tráfico que puede soportar el sistema
Vulnerabilidad. La susceptibilidad de la topología a fallos o averías
Aplicación. El tipo de instalación en el que es más apropiada la topología

10 de 29 18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html

Expansión. La facilidad de ampliar la red y añadir dispositivos para cubrir grandes distancias.

A) Topología en BUS

Todas las estaciones (nodos) comparten un mismo canal de transmisión mediante un cable
(frecuentemente coaxial). Las estaciones usan este canal para comunicarse con el resto.

Los factores de evaluación respecto a esta red son:


Aplicación. Se usan en pequeñas redes y de poco tráfico
Complejidad. Suelen ser relativamente sencillas
Respuesta. Al aumentar la carga la respuesta se deteriora rápidamente.
Vulnerabilidad. El fallo de una estación no afecta a la red. Los problemas en el bus son
difíciles de localizar, aunque fáciles de subsanar.
Expansión. Es muy sencilla.

Análisis comparativo

Ventajas
El medio de transmisión es totalmente pasivo
Es sencillo conectar nuevos dispositivos
Se puede utilizar toda la capacidad de transmisión disponible
Es fácil de instalar

Inconvenientes
El intefaz con el medio de transmisión ha de hacerse con dispositivos inteligentes
A veces los mensajes interfieren entre sí
El sistema no reparte equitativamente los recursos
La longitud del medio de transmisión no supera habitualmente los dos kilómetros

B) Topología en Anillo

Las estaciones se conectan formando un anillo. Ningún nodo controla totalmente el acceso a la red.

11 de 29 18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html

Los factores de evaluación respecto a esta red son:


Aplicación. Es útil cuando se ha de asignar la capacidad de la red de forma equitativa, o
cuando se precisen velocidades muy altas a distancias cortas, para un pequeño número de
estaciones.
Complejidad. La parte física suele ser complicada.
Respuesta. Con tráfico muy elevado la respuesta permanece bastante estable, sin embargo el
tiempo de espera medio es bastante elevado.
Vulnerabilidad. El fallo de una sola estación o de un canal puede hacer que no sea operativo
el sistema completo. Un fallo es difícil de localizar y no es posible la reparación inmediata.
Expansión. Es bastante sencillo el añadir o suprimir estaciones.

Análisis comparativo

Ventajas

La capacidad de transmisión se reparte equitativamente


La red no depende de un nodo central
Se simplifica al máximo la transmisión de mensajes
Es sencillo enviar un mismo mensaje a todas las estaciones
El tiempo de acceso es aceptable, incluso con mucho tráfico
El índice de errores es muy pequeño.
Se pueden alcanzar velocidades de transmisión elevadas.

Inconvenientes

La fiabilidad de la red depende de los repetidores


La instalación es bastante complicada.

C)Topología en Estrella

Todas las estaciones están conectadas por separado a un nodo central, no estando conectadas
directamente entre sí.

Los factores de evaluación respecto a esta red son:


Aplicación. Es la mejor forma de integrar servicios de datos y voz
Complejidad. Puede ser una configuración bastante complicada. Cada estación a su vez
puede actuar como nodo de otras.
Respuesta. Es bastante buena para una carga moderada del sistema. Afecta mucho la potencia
del nodo central.

12 de 29 18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html

Vulnerabilidad. Si falla el servidor central, se detiene la actividad de la red.. El fallo de una


sola estación no afecta al funcionamiento del sistema
Expansión. Es muy restringida. Es lógico, pues se ha de proteger el nodo central de
sobrecargas.

Análisis comparativo

Ventajas
Es ideal si hay que conectar muchas estaciones a una
Se pueden conectar terminales no inteligentes
Las estaciones pueden tener velocidades de transmisión diferentes
Permite utilizar distintos medios de transmisión
Se puede obtener un elevado nivel de seguridad
Es fácil la detección de averías

Inconvenientes
Es susceptible de averías en el nodo central
Es elevada en precio
La instalación del cableado es cara
La actividad que ha de soportar el servidor, hace que las velocidades de transmisión sean
inferiores a las de las otras topologías.

Principales tipos de redes

Al hablar de "hardware" de red no hay más remedio que hablar de los desarrollos que existen en el
mercado de ciertas normas creadas por el IEEE (Institute of Electrical and Electronics Engineers). Cada
una de estas normas engloba toda una serie de características entre las que destacan la topología,
velocidad de transferencia y tipos de cable. Para no entrar en temas excesivamente técnicos se describen
dos: Ethernet y Token Ring.

ETHERNET: Utiliza topología bus. Como su velocidad de transferencia es alta (las versiones más
modernas alcanzan hasta el Gbit/s) puede ser utilizada en redes medias e incluso grandes. Pero,
debido a su método de acceso, las prestaciones pueden caer si el tráfico es muy intenso. Por ello es
recomendable estudiar el tipo de aplicaciones que se van a utilizar en la red. Fue el primer hardware
de red presentado en el mercado, siendo ahora el más popular. La mayoría de fabricantes de
ordenadores tienen implementaciones sobre Ethernet y gracias a ello, la conectividad con esta red es
muy fácil. Utiliza cable coaxial de dos tipos y en su versión más moderna (10 Base T), cable UTP.
Recomendada para entornos en los que deba convivir con equipos Digital o comunicaciones
TCP/IP Para obtener amplia información sobre esta red se recomienda visitar la página web de
Charles Espurgeons. Si se desea más información se puede acceder al tutorial de la empresa
Lantronix.

TOKEN RING:Hasta hace poco tiempo fue la red IBM por excelencia. Cuenta con versiones de 4
y 16 Mbit/s lo que la hacía hasta hace poco tiempo una de las más utilizada en redes grandes.
Utiliza topología en anillo aunque en realidad el cable se hace en estrella. Ideal para conectividad
con IBM. Actualmente cada vez se usa menos.

Sistemas Operativos de red

Vistos los diversos niveles OSI, se puede concluir que hay una complejidad elevada en las tareas de
control de las comunicaciones en una red. El programa que realiza esta tarea se denomina sistema
operativo de red, y ha de cumplir ciertos requerimientos:

13 de 29 18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html

Multitarea: Para atender las peticiones de muchos usuarios a la vez deben ser capaces de realizar
varias tareas simultáneamente. De esta forma pueden realizar una lectura en disco al mismo tiempo
que reciben otra petición a través de la red o imprimen un texto enviado por una estación de trabajo.

Direccionamiento: Deben ser capaces de controlar grandes capacidades de disco, ya que éstos van a
ser utilizados por más de un usuario. Para controlar gran capacidad de disco duro, necesitaran gran
cantidad de memoria que deben direccionar.

Control de acceso: Si desea que los datos de todos los usuarios no dañados por error de una de
ellos, el sistema operativo de red deberá incorporar un sistema que permita a los usuarios acceder
sólo a los datos imprescindibles para su trabajo en la red.

Seguridad de datos: El disco duro de un servidor de ficheros almacena muchos datos, muchos más
que el de un PC aislado. Preservarlos justifica tener un sistema de seguridad que evite que un fallo
de los componentes cause su perdida. Por ello los sistemas operativos de red tienen sistema de
tolerancia de fallos que funcionan de forma automática y transparente para los usuarios.

Interface de usuario: Los usuarios deben seguir teniendo en su pantalla la misma apariencia que les
ofrecía el entorno local. El acceso a los periféricos de la red debe ser transparente y de la misma
forma que si estuviera conectado en su estación. Sólo con ello se conseguirá facilidad de uso en la
red.

En el mercado existen diversos sistemas operativos para red:

Linux está alcanzando gran difusión, siendo el sistema operativo más seguro. La gran mayoría de
servidores de internet operan bajo él.

NETWARE (de Novell) dispone de diversas modalidades, hace unos años era el más difundido.

VINES (de Banyan) dirigido a entorno más amplios. Utiliza en los servidores el sistema operativo
UNIX y de ahí le viene su compatibilidad casi total.

Windows, se están imponiendo como S.O. de red, dado que tienen entornos fáciles de manejar,
aunque como todos los productos Microsoft, son poco fiables.

9.3 Telefonía

El benedictino francés Dom Gauthey, en 1680, propuso a la Academia de


Ciencias de París, un sistema de transmisión de la voz humana mediante tubos
acústicos. En 1860 el alemán Phillipp Reis (1834-1874) inventó un aparato al
que denominó "Teléfono" (del Griego "hablar a lo lejos") con el cual logró
transmitir sonidos durante breves intervalos de tiempo.

Johann Philipp Reis, Físico alemán

Reis inició su carrera profesional como empleado de una sociedad


dedicada a la fabricación de colorantes. De formación autodidacta, tanto
en el campo de la ciencia como en el de la fisica, llevó a cabo diversos
trabajos experimentales que le condujeron a la conversión de oscilaciones acústicas en
impulsos eléctricos. A la edad de 19 años inició sus estudios de matemáticas y fisíca, a la
vez que desarrollaba sus trabajos. Más tarde ejerció como preceptor en Friedrichsdorf. En
dicha población desarrolló un aparato gracias al cual no sólo fue capaz de transformar las

14 de 29 18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html

ondas electromagnéticas en ondas sonoras sino que también le permitía transmitirlas


hasta distancias de 100 m en forma de señales eléctricas. Bautizó su invento con el
nombre de teléfono. En 1861 lo presentó ante la Sociedad Física de Frankfurt y en 1864
en la Universidad de Giessen. Sin embargo, su invención no despertó ningún interés.

En 1796, Francisco Salva estableció un sistema de comunicación telegráfica entre Madrid y Aranjuez.
Tenía 44 cables que permitían la transmisión de 22 símbolos. Las señales se generaban mediante
máquinas electrostáticas, si bien no fue desarrollado comercialmente debido a problemas técnicos.

El 14 de Febrero de 1876, el americano de origen irlandés, Alexander Graham Bell (1847-1922) presentó
una petición de patente de un teléfono, dos horas antes de que lo hiciera Elisha Gray (1835-1901) con un
aparato similar. La realidad es que el teléfono fue inventado por el italiano Antonio Meucci, aunque no
dispuso de medios para su lanzamiento al mercado.

El receptor no presentó problemas, aunque sí el emisor. La razón es que


el teléfono se basa en el principio de que una corriente contínua puede
variarse por una resistencia que lohaga en función de las ondas
acústicas que reciba (micrófono) lo que a su vez da lugar a la
producción de las mismas en el receptor (un electroimán con una
lámina fina). Fueron muchos los experimentos para lograr un micrófono
eficaz, en 1878 Henry Hummings patentó uno que consistía en una
cavidad parcialmente rellena de carbón que cerraba el circuito eléctrico,
cuya resistencia y por tanto la intensidad que circula por el mismo es proporcional a la presión de las
ondas sonoras, actualmente aún se sigue utilizando. Es de destacar que Tomas A. Edison (1847-1931)
también contribuyó con inventos al desarrollo del teléfono.

Otros elementos básicos del teléfono son el timbre o campanilla y el


marcador. El primero es un electroimán doble, con una armadura
pivotante que soporta a un martillo que al vibrar golpea a una
campana, fue descubierto por T. Watson y aún sigue en uso, el dial se
inventó en el año 1896, por unos asociados de Strowger.

Los primeros teléfonos incluían su propia batería para alimentar el


circuito, pero en 1894 se impuso la batería central con un voltaje de 48 V, en uso desde entonces. Al
descolgar el auricular se produce el cierre del circuito y pasa por él una corriente continua, indicando a la
central que se requiere servicio.

En España se estableció el teléfono en el año 1877 en Barcelona,


traídos desde Cuba, allí se importaban directamente de EE.UU.. En
1884 el estado se hace cargo del monopolio, en 1924 se creó
la Compañía Telefónica Nacional de España, actualmente
denominada Telefónica de España.

En las primeras centrales telefónicas las conexiones entre usuarios se realizaban directamente por los
operarios de la central, lo cual era muy limitado, pues en cuanto crecía el número de abonados el número
de conexiones era inmanejable. En 1889 Almon B. Strowger, un enterrador de la ciudad de Kansas, al
creer que las llamadas eran desviadas hacia la competencia, por parte de los operadores, inventó un
sistema automático para la selección del destinatario. Este principio se ha utilizado muchos años, hasta la
aparición de las centrales electrónicas.

SISTEMA IBERCOM

15 de 29 18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html

Como ejemplo de un servicio avanzado de comunicaciones se puede citar el sistema


Ibercom de Telefónica de España. Es un sistema de transmisión de voz y datos dirigido al
sector institucional y empresarial, soportado por tecnología enteramente digital. Permite
a los usuarios disponer de su propia red dentro del sistema Ibercom, haciendo uso
exclusivo de ciertos elementos de transmisión y conmutación, creándose una red privada
virtual (RPV).

La infraestructura básica de Ibercom está compuesta por dos partes, una es la de acceso
cuya función es la de proporcionar las líneas de voz y datos a sus usuarios, denominada
Red de Acceso Ibercom (RAI), pudiendo estar compuesta de varios Módulos de Red de
Accesos Ibercom (MRAI) distribuidos, a los que se conectan todos los terminales
correspondientes a los servicios de telecomunicación con los que se desee dotar cada
dependencia, y otra, la de interconexión, que está incorporada en la porción de tránsito en
las redes públicas, y a la cual se accede a través de un Centro Frontal (CF), que realiza el
tránsito entre las RAI a él conectadas.

La central telefónica de la empresa que tenga este servicio, es una Ericson MD110, que
consta básicamente de unos módulos denominados Módulos de Interface de Línea (LIM)
controlados por un microprocesador equipado con todos los elementos necesarios para el
tratamiento de las llamadas pudiéndose conectar directamente dos de ellos o a través del
Selector de Grupo (GS) en caso de sistemas mayores. Cada LIM puede funcionar como
un sistema autónomo o como integrante de otro mayor, realizando la conmutación a un
ritmo de 64.5 Mbps, y albergando unas 250 extensiones de voz y datos.

La conexión entre los RAI y el CF se realiza mediante uno o más enlaces MIC, a 2 Mbps,
con cables trenzados, coaxiales, fibra óptica o radioenlaces.

Los servicios ofrecidos por Ibercom son:

- Plan privado de numeración (Abreviado)


- Rutas privadas
- Marcación directa entrante
- Función de operadora
- Gestión de red
- Tarificación especial
- Servicios de voz (Analógica y Digital)
- Servicio de datos
- Servicios de valor añadido
- Aplicaciones especiales

Actualmente hay cerca del millón de líneas Ibercom instaladas

Algunas empresas de telefonía ofrecen servicios de voz a través de líneas dedicadas a internet, por
ejemplo la telefonía en la universidad de Murcia funciona bajo la red de la operadora de cable Ono, es lo
que se denomina (voz a través de IP). Las tarifas son muy baratas, aunque en algunas la calidad no suele
estar al nivel de las líneas convencionales de telefonía. Recientemente el Gobierno reguló esta nueva
modalidad de telefonía.

Telefonía móvil celular

A) Introducción

16 de 29 18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html

En la evolución de las redes de telecomunicación, una estrategia actual es dotar a los usuarios de
movilidad, de forma que puedan establecer una comunicación desde cualquier lugar. Ello es posible
mediante el empleo de la radio para establecer el enlace entre los elementos a comunicarse. Como
ejemplos usuales se pueden consider los sistemas GSM y DECT. Seguidamente se describe el
concepto celular por ser la base de la mayoría de los sistemas de telefonía vía radio.

Los sistemas celulares fueron creados por los laboratorios Bell (AT&T) hace más de cincuenta
años. Un sistema celular se forma al dividir el territorio al que se pretende dar servicio, en áreas
pequeñas o celdas (normalmente hexagonales), de menor o mayor tamaño, cada una de las cuales
está atendida por una estación de radio. A su vez las células se agrupan en "clusters" o racimos, de
forma que el espectro de frecuencias se pueda utilizar en cada célula nueva, teniendo cuidado de
evitar las interferencias.

Las estructuras que permiten, de forma ininterrumpida, la cobertura de una zona determinada son
configuraciones a modo de panal de abejas basadas en 4, 7, 12 o 21 células. El número total de
canales por célula se obtiene por la fórmula siguiente, N=(Nº total de canales)/(Claustro (4, 7, 12,
21)). Al ser menor el tamaño de las células mayor será el número de canales que soporte el sistema.

La siguiente tabla muestra la primera generación de sistemas celulares analógicos

Nº Espaciado
País
Sistema Canales (kHz)
AMPS EE.UU. 832 30
C-450 Alemania 573 10
ETACS Reino Unido 1240 25
JTACS Japón 800 12.5
NMT-900 Escandinavia 1999 12.5
NMT-450 Escandinavia 180 25
NTT Japón 2400 6.25
Radiocom-2000 Francia 560 12.5
RTMS Italia 200 25
TACS Reino Unido 1000 125

Respecto a los sistemas digitales, los más difundidos son:

UMTS, GSM y DCS-1800, en Europa, IS-54 e IS-95 en EE.UU. y PDC en Japón

B) Sistema NMT

Las primeras generaciones de este tipo de comunicaciones eran sistemas analógicos, tales como
NMT, TACS, AMPS, etc., con una amplia difusión. Actualmente han surgido sistemas digitales,
como GSM y UMTS en Europa, el DAMPS en EE.UU. y JDC y PHP en Japón.

En España la telefonía móvil automática o TMA apareció en el año 1982 en la modalidad de 450
MHz, tomando como referencia el modelo nórdico NMT. Debido al éxito del mismo y a la
saturación del espectro, Telefónica implantó la modalidad de 900 MHz.

El sistema NMT (Nordic Mobile Telephony) surgió en los países escandinavos en 1981, es ideal
para cubrir la mayor extensión de terreno con la menor inversión. La versión NMT 900 permite un
mayor número de canales.

17 de 29 18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html

C) Sistema TACS

El sistema TACS 900 adaptado en Inglaterra el año 1985, deriva del sistema analógico AMPS
americano desarrollado por los laboratorios Bell y comercializado en EE.UU en 1984. Con este
sistema se obtiene unamejor calidad del servicio, al mismo tiempo que mejora la relación
señal/ruido por tener una mayor anchura de canal. Además precisa de equipos más pequeños y
baratos.

El sistema TACS (Total Access Communications System) 900 conocido como TMA 900, es del
mismo tipo que el anterior, analógico multiplexado en frecuencia, pero diferente por utilizar una
tecnología mucho más avanzada y barata, dando mejor calidad de audio, así como una mejor
conmutación al pasar de una a otra célula, ya que la señalización se realiza fuera de banda, al
contrario que NMT, que lo hace dentro de ella, resultando casi imperceptible el ruido para el
usuario, sin embargo sus estaciones base cubren un rango menor. Emplea la banda de frecuencia de
los 900 MHz y cada MHz se divide en 40 semicanales de 25 kHz, por lo que resulta
extremadamente útil, por su gran disponibilidad de canales, para cubrir áreas urbanas. Dispone de
1320 canales duplex, de los que 21 se dedican exclusivamente a control (señal digital) y el resto
para voz (señal analógica)

D) Sistema GSM

El GSM (Groupe Spécial Mobile), surge del intento europeo de unificar los 10 sistemas diferentes
existentes, en uno solo, el CEPT (año 1982). La principal ventaja de este sistema es que permite
realizar o recibir llamadas en cualquier país europeo, aún estando en tránsito por ellos, el teléfono
se registra automáticamente en la siguiente red GSM al cambiar de un país a otro, quedando
disponible para su utilización. Al ser criptografiadas todas las conversaciones, da una gran ventaja,
la mayor seguridad frente a escuchas. Otras ventajas son su menor consumo de energía, las células
más pequeñas y la utilización del espectro de forma más eficiente. A continuación se muestra un
mapa de cobertura de Vodafone.

La existencia de competencia por parte de otras operadoras, Vodafone, Orange y Yoigo,


aparte de las operadores móviles virtuales (OMV) como Carrefour y EroskiMovil, ha
dado lugar a que las tarifas hayan bajado bastante.

E) Otras tecnologías

Respecto a la tecnología más reciente, UMTS, en España la ofrecen las operadoras Vodafone,
Orange, Movistar y Yoigo. El siguiente enlace es al Libro Blanco sobre UMTS.

A la red GSM se le añadieron otras funcionalidades, antes de la implantación completa de UMTS.


Nuevas tecnologías como HSCSD, GPRS y EDGE

HSCSD (High Speed Circuit Switched Data) se basa en circuitos conmutados de alta velocidad,
proporciona una velocidad de 58 kbit/s. Permite acceder a varios servicios simultáneamente. Es
parecida a la actual RDSI.

GPRS (General Packet Radio Service) puede llegar a velocidades de 115 kbit/s. Al contrario que
HSCSD que para su implantación requiere únicamente de actualización software, GPRS necesita de
un hardware específico para el enrutamiento a través de una red de datos.

EDGE (Enhaced Data rates for GSM Evolution) nos acerca a las capacidades que otorga 3G en la
comunicación. En combinación con GPRS puede alcanzar velocidades de 384 kbit/s

18 de 29 18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html

En la transición se emplean terminales capaces de acceder a ambas redes.

Las empresas de desarrollo y creadoras de contenidos están volcadas en desarrollo de aplicaciones


WAP (páginas web accesibles desde la red celular) aunque la expansión es mucho menor de la
esperada, posiblemente por las tarifas tan elevadas de la telefonía móvil. Además que la aparición
de teléfonos GPRS y UMTS ha restado muchos usuarios a WAP.

WAP acerca a los usuarios a la utilización de servicios de internet, el posicionemiento en esta


tecnología ayudará al éxito en el desarrollo de proyectos UMTS. Por lo tanto no hay que ver
únicamente a WAP como una tecnología pasarela a UMTS sino que además es una introducción de
todas las partes (usuarios, operadoras, empresas, etc..) a servicios móviles en redes.

Nuevos negocios se podrán implementar para esta tecnología, que van desde los propios fabricantes
de dispositivos, que desarrollan los nuevos teléfonos y dispositivos capaces de aprovechar el nuevo
método de comunicación a los propios desarrolladores que se les abrirán nuevas posibilidades que
hasta ahora son inpensables de creación de contenidos, aplicaciones. En España proximamente
habrá una regulación para la televisión a través de los móviles celulares UMTS.

Actualmente se está implantando la tecnología HSDPA (High Speed Downlink Packet Access) es la
optimización de la tecnología espectral UMTS/WCDMA, incluida en las especificaciones de 3GPP
5 y consiste en un nuevo canal compartido en el enlace descendente que mejora significativamente
la capacidad máxima de transferencia de información hasta alcanzar tasas de 14 Mbps. Soporta
tasas de throughput promedio cercanas a 1 Mbps. Es la evolución de la tercera generación (3G) de
tecnología móvil, llamada 3.5G, y se considera el paso previo antes de la cuarta generación (4G), la
futura integración de redes.

La gran difusión de los teléfonos móviles, ha dado lugar a innovaciones, por ejemplo, mediante un
conjunto de "Chips" se puede convertir un móvil en un control remoto universal para aparatos
electrodomésticos. Proximamente se comercializarán móviles con esta capacidad. Y otras dirigidas
al mundo multimedia, actualmente son habituales los teléfonos con sistema deposicionamiento
global (GPS) cámara fotográfica y prestaciones musicles avanzadas. Como consecuencia
recientemente se han empezado a comercializar teléfonos con disco duro de 1.5 Goctetos, que
además incluyen transmisor de radio FM, salida de televisión, altavoces duales y pantalla de cristal
líquido dual, (TFT en el interior y OLED en el exterior).

F) Antenas y salud

Respecto a la alarma creada por grupos ecologistas, sin ninguna base científica, sobre la rediación
dañina y supuestamente productora de cáncer, no hay ninguna base científica que la soporte. La
radiación de la telefonía móvil celular es no ionizante, por lo tanto no puede romper los enlaces del
ADN. En los siguientes enlaces se tiene información seria:

Joseba Zubia, físico de la UPV, habla de Ondas electromagnéticas y salud. (Fuente Magonia)

19 de 29 18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html

El 19 de julio de 2007 la Unión Europea sacó su informe sobre radiación electromagnética por parte
del comité de salud humana. Puede acceder a dicho informe en:

http://ec.europa.eu/health/ph_risk/committees/04_scenihr/docs/scenihr_o_006.pdf

En la web de ARP SAPC, hay un estupendo monográfico denominado Antenas y Salud:

http://www.arp-sapc.org/articulos/antenasindex.html

Por otra parte, Ferrán Tarrasa dió una estupenda conferencia el 4 de mayo de 2007 denominada
"Telefonía móvil, desmontando mitos". Se puede acceder a su presentación en:

http://www.slideshare.net/giskard/telefona-mvil-y-salud-desmontando-mitos

Enlace recomendado: Teléfonos móviles como pluviómetros

9.4 Sistema de posicionamiento global

Introducción histórica

Cuando la Unión Soviética puso en órbita el primer satélite artificial de la Tierra, se observaba
como un punto brillante, que se movía lentamente entre los astros que servían de referencia para los
navegantes. Pronto surgió una idea,pasar de la navegación estelar a la por satélite. Un grupo de
científicos soviéticos, dirigidos por el académico V. Kotélnikov, ofrecieron utilizar el método
Doppler para determinar los parámetros de las órbitas de los satélites.

El tres de marzo de 1978, la URSS puso en marcha el satélite


Cosmos 1000, dando inicio al sistema de navegación cósmica
nacional, "Tsikada", destinado a localizar a los barcos en cualquier
lugar del océano. Actualmente hay varios satélites con esta misión.

20 de 29 18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html

Con este esquema de satélites, se pueden obtener datos, en el


ecuador cada 72 minutos y en latitudes altas más a menudo, y en
las latitudes norteñas, donde las órbitas se cruzan,
ininterrumpidamente. En los barcos se instala un microprocesador,
que se conecta al sistema de radionavegación tradicional El uso de
este sistema, proporcionaba, hace unos años, el ahorro del orden de
unos 25000 rublos al año, por barco, en la extinta URSS. Posteriormente se implantó en la URSS el
Sistema de Satélite de Navegación Global (SSNG), para la localización exacta de barcos,
automóviles y otros objetivos.

En el año 1986, la URSS y los EE.UU., declararon a la Organización Marítima Internacional, que
se podían explotar estos sistemas con fines pacíficos. De forma que EE.UU. ha desarrollado desde
entonces, un sistema análogo al soviético, quedando completo el año 1995. Consta de 24 satélites,
de los que tres son de reserva, situados en tres planos orbitales, a 20200 km de altura, con un ángulo
de 120 grados, uno respecto al otro. Las señales de navegación se emiten en una banda de 1602.2 a
1615 MHz. Además estos satélites pueden servir a una cantidad ilimitada de usuarios. Actualmente
este sistema está gestionado por el Ministerio de Defensa de EE.UU.

Este es el origen del Sistema de Posicionamiento Global "GPS", en amplio desarrollo actualmente,
cuyo predecesor, el SSNG, puede seguir usándose, mediante un módulo adicional.

A muchos navegantes y topógrafos acostumbrados a trabajar con los métodos tradicionales, la


obtención de la posición con sólo pulsar un botón, les debe de parecer sorprendente. Existe
actualmente una forma más avanzada del GPS, que optimiza aún más los límites de la precisión.
Este avance se conoce como GPS diferencial "DGPS", y con él se puede medir fiablemente una
posición hasta cuestión de metros, y en cualquier lugar del planeta. Actulamente Europa está
desarrollando el sistema europeo Galileo, libre de cualquier interferncia militar.

GPS Básico

Se basa en 24 satélites en órbita a 20000 km de distancia. Éstos actúan como puntos de referencia a
partir de los cuales "triangulan" su posición unos receptores en la Tierra. En cierto sentido es como
una versión en alta tecnología de la vieja técnica, consistente en tomar marcaciones mediante una
brújula desde las cumbres de los montes cercanos para situar un punto en el mapa.

Los satélites actúan como puntos de referencia al ser supervisadas sus órbitas con gran precisión
desde estaciones terrestres. Mediante una medición del tiempo de
viaje de las señales trasmitidas desde los satélites, un receptor GPS
en la tierra determina su distancia desde cada satélite. Con la
medición de la distancia desde cuatro satélites y la aplicación de
cálculos, el receptor obtiene, latitud, longitud, altitud, derrota y
velocidad. Los buenos receptores tienen una precisión menor que
100 m, y efectúan más de una medida por segundo.

Los receptores pueden hacerse con antenas muy pequeñas, de hecho


son de tal tamaño, que caben en la mano.

Otra ventaja es que las señales GPS (código C/A) están al alcance de
todos, gratuitamente sin necesidad de pagar tasas de licencia ni uso,

21 de 29 18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html

pues los satélites son de EE.UU y de Rusia, con lo cual no tiene ninguna opción de sacar dinero a
costa de este tipo de usuarios.

GPS en tres pasos básicos

Paso 1 Los satélites son puntos de referencia. Sus posiciones en el espacio se conocen con
mucha precisión, constituyendo la base de todos los cálculos GPS.

Paso 2 El tiempo de viaje de la señal da la distancia. Mediante una serie de mensajes


codificados, un receptor en tierra determina el momento en que la marca de tiempo partió del
satélite, así como el momento de llegada a su antena. La diferencia es el tiempo de viaje de
cada señal. La distancia es el producto del tiempo por la velocidad de la luz. En este proceso
es donde hay errores.

Paso 3 Tres distancias fijan la posición. Se supone un receptor a 23000 km de un satélite.


Esta medición restringe el lugar del universo en que puede encontrarse el receptor. Indica que
ha de estar en algún lugar de una superficie esférica imaginaria, centrada en ese satélite y con
un radio de 23000 km. Si por ejemplo el receptor se encuentra a 26000 km de un segundo
satélite, eso restringe aún más el lugar, a la intersección entre dos esferas, que es una
circunferencia.

Una tercera medición, añade otra esfera, que interceptal círculo determinado por las otras dos.
La intersección ocurre en dos puntos, y así con tres mediciones, el receptor restringe su
posición a sólo dos puntos en todo el universo.

Una cuarta medición seleccionaría uno de estos dos puntos, pero no es necesario, pues de los
dos puntos del paso anterior, uno está a miles de km de la Tierra, por lo que no tiene sentido.
Aunque a veces es realizada esta cuarta medición, para proporcionar una forma de asegurar
que el reloj del receptor está sincronizado con la hora universal.

GPS diferencial (DGPS)

Es una forma de hacer más preciso al GPS. El DGPS proporciona mediciones precisas hasta un par
de metros en aplicaciones móviles, e incluso mejores en sistemas estacionarios. Esto implica el que
sea un sistema universal de medición, capaz de posicionar objetos en una escala muy precisa.

El DGPS opera mediante la cancelación de la mayoría de los errores naturales y causados por el
hombre, que se infiltran en las mediciones normales con el GPS. Las imprecisiones provienen de
diversas fuentes, como los relojes de los satélites, órbitas imperfectas y, especialmente, del viaje de
la señal a través de la atmósfera terrestre. Dado que son variables es difícil predecir cuales actúan
en cada momento. Lo que se necesita es una forma de corregir los errores reales conforme se
producen. Aquí es donde entra el segundo receptor, se sitúa en un lugar cuya posición se conozca
exactamente. Calcula su posición a través de los datos de los satélites y luego compara la respuesta
con su posición conocida. La diferencia es el error de la señal GPS.

No es posible calcular el error en un momento y que valga para mediciones sucesivas, ya que los
receptores de los satélites cambian continuamente. Para realizar esta tarea es necesario tener dos
receptores operando simultáneamente. El de referencia permanece en su estación y supervisa
continuamente los errores a fin de que el segundo receptor (el itinerante) pueda aplicar las
correcciones a sus mediciones, bien sea en tiempo real o en algún momento futuro.

El concepto ya está funcionando algún tiempo y se ha utilizado ampliamente en la ciencia e


industria. Hay una norma internacional para la transmisión y recepción de correcciones,
denominada "Protocolo RTCM SC-104".

22 de 29 18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html

¿Por qué se necesita el DGPS?

Si el mundo fuera como un laboratorio, el GPS sería mucho más preciso. Dado que el mundo
parece una jungla, hay multitud de oportunidades para que resulte perturbado un sistema basado en
la radio. A continuación se describen los errores a los que hay que enfrentarse:

Errores de los satélites

Los satélites llevan relojes atómicos muy precisos, pero no perfectos. La posición de los
satélites en el espacio es también importante, estos se ubican en órbitas altas, por lo que están
relativamente libres de los efectos perturbadores de la capa superior de la atmósfera terrestre,
pero aún así se desvían ligeramente de las órbitas predichas.

La atmósfera

La información se transmite por señales de radio y esto constituye otra fuente de error. La
física puede llevarnos a creer que las señales de radio viajan a la velocidad de la luz, que es
constante, pero eso sólo es en el vacío. Las ondas de radio disminuyen su velocidad en
función del medio en que se propagan, así pues, conforme una señal GPS pasa a través de las
partículas cargadas de la ionosfera y luego a través del vapor de agua de la troposfera, se
retrasa un poco, lo cual implica un valor erróneo de la distancia del satélite.

Error multisenda

Cuando la señal GPS llega a la Tierra se puede reflejar en obstrucciones locales antes de
llegar al receptor. La señal llega la antena por múltiples sendas, primero la antena recibe la
señal directa y algo más tarde llegan las desplazadas, produciendo ruido. Un ejemplo es en el
caso de la TV cuando se ven imágenes múltiples solapadas.

Error del receptor

Los receptores tampoco son perfectos y pueden introducir sus propios errores, que surgen de
sus relojes o de ruido interno.

Disponibilidad selectiva

Mucho peor que las fuentes naturales de error es el que aporta intencionadamente el
Departamento de Defensa de EE.UU., con la finalidad de asegurarse de que ninguna fuerza
hostil utiliza la posición de GPS contra los EE.UU. Se introduce ruido en los relojes de los
satélites, lo cual reduce su precisión, aunque también pueden dar datos orbitales erróneos.
Los receptores militares disponen de una llave física que desencripta los errores introducidos
para así eliminarlos. De esta forma se pueden llegar a precisiones de 15 m.

El DGPS obtiene mejores precisiones que las conseguidas con las codificadas para usos
militares.

DGPS también proporciona una forma de verificar la fiabilidad de las mediciones momento a
momento.

Magnitud típica Precisión


de los errores (en por satélite DGPS
m) GPS

23 de 29 18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html

Relojes de
1.5 0
satélites
Errores de
2.5 0
órbitas
Ionosfera 5 0.4
Troposfera 0.5 0.2
Ruido receptor 0 .3
Multisenda 0 .6
Dep. Defensa 30 0

Precisión de
GPS DGPS
posición

Horizontal 50 1.3
Vertical 78 2
3D 93 2.8

¿Cómo funciona el DGPS?

Un receptor GPS puede desplazarse a cualquier sitio y realizar mediciones por sí mismo,
empleando como referencia los satélites GPS. Mientras que el DGPS implica otro receptor añadido,
es decir uno que se desplaza y otro estacionario.

Previamente se han comentado las diversas fuentes de error. A su vez las distancias entre los dos
receptores son muy pequeñas comparadas con las distancias a las que se encuentran los satélites,
esto quiere decir que recorrerán la atmósfera con retrasos análogos, de forma que una de las
estaciones puede dedicarse a medir esos errores y facilitárselo a la otra.

Se ha de ubicar el receptor de referencia en un punto cuya posición se haya determinado con


exactitud, al recibir las señales GPS realiza los cálculos en sentido inverso al de un receptor.
Emplea su posición para calcular el tiempo y así obtiene el error entre el teórico y el real. Todos los
receptores de referencia han de facilitar esta información de errores a todos los receptores
itinerantes de su zona con objeto de que corrijan sus mediciones. El receptor de referencia reconoce
todos los satélites visibles y calcula los errores instantáneos. Luego codifica esta información en un
formato estándar y lo transmite a los receptores itinerantes.

Algunos trabajos no requieren correcciones en tiempo real, en este caso se conoce como GPS
posprocesado.

También existe el DGPS invertido, por ejemplo, en una flota de camiones que informan
periódicamente de su posición a una estación base. En lugar de enviar a los camiones las
correcciones diferenciales, la corrección se realiza en la estación base. Los camiones sólo conocen
su posición de una manera aproximada, pero el controlador sabría la posición exacta, hasta el punto
de poder ubicar el camión en el carril de la calle en que se encuentra.

Aplicaciones de DGPS

24 de 29 18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html

Servicio de guardacostas

El Servicio de Guardacostas de EE.UU. es el responsable de proporcionar todas las ayudas de


navegación. El huracán BOB que azotó la costa este de EE.UU. en 1991 destrozó o desplazó
un gran número de boyas. La situación era peligrosa, pues los barcos iban a puerto confiados
en unas boyas que ya no existían o estaban cambiadas de sitio. El Servicio de Guardacostas
equipó uno de sus barcos de mantenimiento de boyas con un receptor DGPS y reposicionaron
las boyas de nuevo, en tan solo unos días.

Aviación

Algunos experimentos realizados por la NASA y por la aviación de EE.UU. contribuyeron al


aterrizaje de helicópteros y aviones de pasajeros mediante DGPS como único sistema guía,
sin las radiobalizas tradicionales.

En la actualidad los sistemas de aterrizaje con poca visibilidad son tan caros que sólo están
disponibles en los mayores aeropuertos. El DGPS es tan barato que lo puede instalar
cualquier aeropuerto y la mejora de seguridad de vuelo es tremenda. Como referencia se
puede citar Canadá, donde el sistema GPS ha sustituido al habitual, conocido como Omega.

Gestión de los recursos naturales

La gestión del uso y protección de los bosques es una gran tarea. Su estudio topográfico es
difícil, sin embargo hay que medir constantemente parcelas de árboles, ya sea por asunto de
su conservación o por ventas a empresas madereras.

El Servicio Forestal de EE.UU. ha sido uno de los pioneros del DGPS. Hacen medidas con
GPS desde helicópteros.

Otras aplicaciones son: topografía de galerías de minas, de superficies de pantanos y de zonas


para pesca, control de incendios.

Exploración costera

Las empresas petrolíferas gastan mucho dinero en la exploración del fondo de los océanos en
busca de lugares idóneos para perforar. El problema, es que una vez el barco encuentra un
lugar de perforación, su tripulación necesita llevar a ese punto los dispositivos de perforación,
lo cual no es fácil llegar al mismo sitio, al no haber posibilidad de poner marcas de
referencia, y apartarse unos metros significa muchos millones de gasto de más. Para
solucionar este problema usan el GPS.

Otra utilidad es para mantener a los barcos en las rutas exactas y para el levantamiento
topográfico de los puertos.

Gestión transporte y flotas

Con este sistema el controlador de una flota puede llevar la cuenta de cada vehículo, el
resultado es una más estricta adhesión al horario y una mejor supervisión.

A las empresas de transporte (un ejemplo, los autobuses urbanos en Murcia), flotas de
servicios y servicios de seguridad pública les gusta saber la posición de sus vehículos incluso
al extremo de conocer el nombre de la calle. La solución es DGPS. También se usa en los
ferrocarriles

25 de 29 18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/... http://www.um.es/docencia/barzana/II/Ii09.html

Actualmente se ha difundido ampliamente su uso en todo tipo de vehículos, incluso hay


algunos teléfonos móviles Nokia que incluyen GPS.

Agricultura

El GPS está abriendo una nueva era de "agricultura de precisión". Un agricultor puede
analizar las condiciones del suelo en cada parcela, y compilar un mapa de las demandas de
fertilizante. Este mapa se digitaliza y se registra en ordenador. La máquina que adiciona los
productos químicos al terreno, va con un GPS y su posición se correlaciona con los datos
previamente digitalizados, añadiendo en cada punto la cantidad exacta de fertilizante. Se
beneficia el agricultor con menos gasto y el medio ambiente evitando un exceso de productos
químicos.

También se puede aplicar a la fumigación aérea.

Transporte marítimo

En EE.UU. es obligatorio que los barcos petroleros lleven GPS por motivos de seguridad.

Otras aplicaciones costeras son: la verificación de vaciados en barcazas, hasta la


determinación de las zonas de pesca legal.

Seguridad pública

Para los servicios de bomberos y policía el tiempo de respuesta es muy importante. Con
DGPS se pueden guiar los vehículos con gran precisión. Los planos de rutas centralizadas
ofrecen a los controladores un mejor conocimiento de la forma en que están desplegados sus
efectivos.

¿Cómo solucionar la limitación de los 100 m de resolución?

Como se ha comentado previamente, el sistema GPS para usos no militares tiene una limitación
puesta intencionadamente por el ministerio de defensa de EE.UU., con la finalidad, como ya en
normal en ellos de incordiar y no beneficiar a nadie, la limitación a 100 m en la resolución, salvo
que se use el DGPS que como se ha visto requiere más medios y por lo tanto es más costoso.
Debido a las presiones de diversos sectores, el presidente de EE.UU, Clinton. indicó que en el plazo
de 10 años se eliminarían las restricciones militares, pero mientras tanto el error en demasiado
grande para algunas aplicaciones, como el control de flotas de autobuses urbanos. Para resolver esta
falta de resolución, en EE.UU se ha propuesto un sistema aplicable a los autobuses que consta del
siguiente equipamiento en cada autobús, un odómetro o sensor de velocidad del vehículo, y un
giróscopo que nos dará el cambio en acimut del vehículo. Estos sensores ha de estar perfectamente
calibrados y además ha de conocerse la posición inicial y el acimut. Como todos los sensores están
sujetos a error esta no es la solución perfecta. La empresa Andrew Corp., ha creado un sistema que
combina lo mejor del GPS y el sistema de posicionamiento continuo (CPS). El sensor de GPS
calibra los sensores para evitar errores acumulados. El factor más importante en la generación de
errores es la estabilidad del giróscopo, reducidos al mínimo con el sistema Navigator AUTOGIRO,
basado en un giróscopo con fibra óptica, diseñado especialmente para sistemas de navegación. El
sistema propuesto por esta empresa está aplicándose en diversas empresas de transporte urbano de
EE.UU.

El siguiente enlace es una página dedicada a GPS.

26 de 29 18/04/2008 19:49

You might also like