El Primer Computador
Cada diez años, el gobierno de Estados Unidos hace un censo. En 1880, el gobierno empezó uno, pero había tanta gente en Estados Unidos, que tardaron 8 años en contarlos a todos y en poner información sobre dónde vivían y a qué se dedicaban. Ocho años era demasiado tiempo, así que el gobierno celebró un concurso para encontrar una manera mejor de contar gente. Herman Hollerith inventó una máquina denominada máquina tabuladora. Esta máquina ganó el concurso, y el gobierno la usó en el censo de 1890.
La máquina de Herman usaba tarjetas perforadas, y cada agujero significaba algo. Un agujero significaba que la persona estaba casada, otro, que no lo estaba. Un agujero significaba que era de sexo masculino, otro, de sexo femenino. La electricidad pasaba a través de los agujeros y encendía los motores, que a su vez activaban los contadores.
En 1890, sólo hicieron falta seis semanas para realizar el primer recuento sencillo. El recuento completo se realizó en sólo dos años y medio.
La nueva máquina tabuladora de Herman se hizo famosa. Se vendieron copias a otros países para que realizasen sus censos. Pero Herman no se paró en este invento. Comenzó una empresa llamada International Business Machines. Hoy en día es una de las empresas informáticas más grande del mundo: IBM. (cfr. Idem. pp. 9 - 10.)
A principios del siglo XX, muchas personas de todo el mundo inventaron computadores que funcionaban de maneras similares a la máquina tabuladora. Hacían experimentos para que funcionaran más rápido, y realizaran más tareas aparte de contar.
Cada diez años, el gobierno de Estados Unidos hace un censo. En 1880, el gobierno empezó uno, pero había tanta gente en Estados Unidos, que tardaron 8 años en contarlos a todos y en poner información sobre dónde vivían y a qué se dedicaban. Ocho años era demasiado tiempo, así que el gobierno celebró un concurso para encontrar una manera mejor de contar gente. Herman Hollerith inventó una máquina denominada máquina tabuladora. Esta máquina ganó el concurso, y el gobierno la usó en el censo de 1890.
La máquina de Herman usaba tarjetas perforadas, y cada agujero significaba algo. Un agujero significaba que la persona estaba casada, otro, que no lo estaba. Un agujero significaba que era de sexo masculino, otro, de sexo femenino. La electricidad pasaba a través de los agujeros y encendía los motores, que a su vez activaban los contadores.
En 1890, sólo hicieron falta seis semanas para realizar el primer recuento sencillo. El recuento completo se realizó en sólo dos años y medio.
La nueva máquina tabuladora de Herman se hizo famosa. Se vendieron copias a otros países para que realizasen sus censos. Pero Herman no se paró en este invento. Comenzó una empresa llamada International Business Machines. Hoy en día es una de las empresas informáticas más grande del mundo: IBM. (cfr. Idem. pp. 9 - 10.)
A principios del siglo XX, muchas personas de todo el mundo inventaron computadores que funcionaban de maneras similares a la máquina tabuladora. Hacían experimentos para que funcionaran más rápido, y realizaran más tareas aparte de contar.
La Primera Generación de Computadores
Alan Turing, en 1937, desarrolló el primer auténtico proyecto de un computador. En 1944, en la Universidad de Harvard, crearon el primer calculador electromecánico, el Mark1. Era lento y poco fiable.
En 1945, John von Neumann concibió la idea de un computador que se manejaba mediante instrucciones almacenadas en una memoria. Este concepto moderno de computador se plasmó, en 1946, en un prototipo llamado ENIAC, en los Estados Unidos, a partir de una iniciativa de las fuerzas armadas de ese país. Medía 30 metros de longitud, una altura de 3 y una profundidad de 1. Utilizaba 18.000 válvulas, conectados a 70.000 resistencias, 10.000 condensadores y 6.000 interruptores. (cfr. Pentiraro, E. Op. cit., p. 2.)
En 1951, la compañía Sperry Univac, comenzó la producción en serie del primer computador electrónico, el UNIVAC I. Sperry introdujo dentro del UNIVAC la información sobre las elecciones presidenciales estadounidenses de 1952. Antes de que se anunciasen los resultados, UNIVAC ya había predicho que Dwight D. Eisenhower ganaría las elecciones.
A partir de ese momento todos los computadores funcionarán según los principios de Von Neumann.
La Segunda Generación de Computadores
En 1948, un grupo de personas que trabajaban en el laboratorio Bell dieron el primer paso hacia un computador pequeño y fácil de usar, al crear el transistor. Un transistor controla la cantidad de energía eléctrica que entra y sale por un cable.
Sólo en 1958 se comenzaron a producir en serie los primeros computadores que utilizaban este pequeño bloque de silicio. Este mineral es un material semiconductor que contiene impurezas que alteran su conductividad eléctrica. Así, el computador se vuelve más económico, más rápido y más compacto.
La Tercera Generación de Computadores
Entre finales de los años sesenta y principios de los setenta se prepara otro importante cambio: el circuito integrado. Sobre una pieza de silicio monocristalino de reducido tamaño se encajan piezas semiconductoras. (cfr. Ídem, p. 6.) Se reducen los tamaños, aumentando la velocidad de proceso ya que se requiere una menor cantidad de tiempo para abrir y cerrar los circuitos.
Entre finales de los años sesenta y principios de los setenta se prepara otro importante cambio: el circuito integrado. Sobre una pieza de silicio monocristalino de reducido tamaño se encajan piezas semiconductoras. (cfr. Ídem, p. 6.) Se reducen los tamaños, aumentando la velocidad de proceso ya que se requiere una menor cantidad de tiempo para abrir y cerrar los circuitos.
La Cuarta Generación de Computadores
El circuito integrado se utilizó en los computadores hasta mediados de los setenta. En 1971, una empresa norteamericana llamada Intel desarrolló un proyecto de circuito integrado distinto, cuya característica fundamental era la posibilidad de programarlo como un auténtico computador. De esta forma nace el microprocesador.
A partir de 1975 se produce una verdadera revolución con este dispositivo de un par de centímetros de longitud. Las diferentes empresas construyen computadores basándose en el chip de Intel. Cada vez más instituciones adquieren computadores para optimizar sus procesos.
El chip de silicio es más pequeño que una moneda, pero contiene toda la información que el computador necesita para funcionar. Esto hace que los computadores sean mucho más rápidos y que gasten menos energía.
El circuito integrado se utilizó en los computadores hasta mediados de los setenta. En 1971, una empresa norteamericana llamada Intel desarrolló un proyecto de circuito integrado distinto, cuya característica fundamental era la posibilidad de programarlo como un auténtico computador. De esta forma nace el microprocesador.
A partir de 1975 se produce una verdadera revolución con este dispositivo de un par de centímetros de longitud. Las diferentes empresas construyen computadores basándose en el chip de Intel. Cada vez más instituciones adquieren computadores para optimizar sus procesos.
El chip de silicio es más pequeño que una moneda, pero contiene toda la información que el computador necesita para funcionar. Esto hace que los computadores sean mucho más rápidos y que gasten menos energía.
Evolución histórica de las telecomunicaciones
1. Aparición de las redes de telecomunicación
La comunicación de información entre dos personas distantes, ya sea oral, escrita o
gestual precisa que al menos una de ellas se desplace a un punto de encuentro con
la otra. Dependiendo de la distancia puede ser preciso contar con unas vías
adecuadas y un sistema de desplazamiento lo bastante eficiente para que se cumpla
una de las premisas básicas de la comunicación: que sea rápida y eficaz. No tiene
sentido que un mensajero nos informe de que un ciclón está avanzando sobre nuestra
ciudad tres días después de que el ciclón haga estragos en ella.
Podríamos considerar el origen de las telecomunicaciones en tiempos muy remotos,
cuando la información a transmitir se enviaba a través de mensajeros, que a pie o a
caballo recorrían grandes distancias. El uso de mensajero es poco eficiente pues los
mensajes pueden perderse, ser interceptados, y, en cualquier caso, el retraso que
sufren los hace poco válidos en ciertas situaciones.
Las redes de telecomunicación tratan de crear medios dedicados que ahorren tiempo
evitando el desplazamiento físico del mensajero a lo largo de todo el recorrido,
proporcionando así una comunicación eficiente. Cualquier sistema de
telecomunicación estable necesita de una infraestructura y unos gastos que sólo
pueden ser sufragados por una entidad poderosa. Por ello los primeros sistemas de
telecomunicación eran siempre por y para el servicio del estado. En el pasado los
primeros sistemas de telecomunicación aparecen pronto en aquellos pueblos que por
su expansión guerrera se vieron obligados a contar con algún medio de envío rápido
de noticias: señales luminosas, de humo, sonidos de tambor, ... Los cartagineses
utilizaron las antorchas para comunicarse en la larga marcha a través de los Alpes de
Aníbal contra Roma. Los romanos llegaron a tener un sistema de señales de fuego
combinado con columnas de humo que permitía comunicar sus diferentes
campamentos. En 1340 la Marina castellana adoptó la telegrafía de señales mediante
gallardetes de diferentes colores que comunicaban órdenes y noticias codificados a
las naves que luchaban contra el reino de Aragón.
2. La telegrafía eléctrica
El telégrafo eléctrico fue uno de los primeros inventos que surgieron como aplicación
de los descubrimientos de Ampere y Faraday. Consiste en un aparato que transmite
mensajes codificados a larga distancia mediante impulsos eléctricos que circulan a
través de un cable conductor. Fue Joseph Henry quién, en 1829, construyó el primer
telégrafo eléctrico. Sin embargo, la persona que le dio el gran impulso fue el
estadounidense Samuel Morse, quién el 1844 llevó a cabo la primera transmisión
telegráfica entre Washinton y Baltimore.
El telégrafo consiste básicamente en una batería con un extremo conectado a un
manipulador o conmutador. Cuando éste es accionado se cierra el circuito eléctrico
que tiene conectado un electroimán en la estación receptora. Al cerrar el circuito, el
electroimán atrae a un estilete que puede imprimir una marca en una hoja de papel
que gira. En lugar del estilete se puede colocar algún dispositivo que produzca sonido.
De esta forma se logra transmitir la señal de un extremo a otro. Morse completó su
invento con un alfabeto que permitía representar las letras y números basándose en
tres símbolos: el punto, una pulsación corta de manipulador, la raya o una pulsación
larga y el silencio, para diferenciar las letras y las palabras.
En 1866 se instaló el primer cable trasatlántico que unía América con Europa,
permitiendo así la interconexión de ambas redes telegráficas. La telegrafía eléctrica se
había impuesto ya por esta época en otros países de Europa desarrollada al amparo
del ferrocarril, donde las compañías tenían su propia red que coincidía con el trazado
de la línea. En España la primera línea ferroviaria en funcionamiento, de Mataró a
Barcelona, contó sorprendentemente con un servicio de telegrafía óptica, lo que
constituyó una excepción pues las posteriores líneas se sirvieron de la telegrafía
eléctrica para sus comunicaciones.
3. El invento del teléfono y las redes de telefonía
En febrero de 1876, Alexander Graham Bell registra la patente de su teléfono basado
en el principio de la resistencia variable. Este teléfono, en esencia, consta de un
transmisor y un receptor unidos por un hilo metálico a través del cual pasa la
electricidad. Las vibraciones en la membrana del transmisor originan variaciones
eléctricas en el circuito gracias a un electroimán (originalmente se conseguía con una
solución ácida líquida). Al actuar sobre el electroimán del equipo receptor, estas
variaciones eléctricas producen vibraciones mecánicas en una membrana que son
réplica de las vibraciones sufridas en la membrana del transmisor. En principio se podía
hablar y escuchar por un solo tubo, pero para mayor comodidad se separó en dos
piezas.
El teléfono pasó a evolucionar rápidamente, lo que permitió incrementar la calidad de
la voz transmitida y la distancia de alcance.
UNIDADES DE MEDIDA EMPLEADAS EN INFORMATICA.
Las unidades de medida en Informática a veces pueden resultar algo confusas. Vamos a tratar de aclarar algunos conceptos viendo a que se refieren.
Podemos agrupar estas medidas en tres grupos: Almacenamiento, procesamiento y transmisión de datos.
ALMACENAMIENTO:
Con estas unidades medimos la capacidad de guardar información de un elemento de nuestro PC.
Los medios de almacenamiento pueden ser muy diferentes (ver tutorial sobre Medios de almacenamiento.).
Precisamente es en este tipo de medidas donde se puede crear una mayor confusión.
La unidad básica en Informática es el bit. Un bit o Binary Digit es un dígito en sistema binario (0 o 1) con el que se forma toda la información. Evidentemente esta unidad es demasiado pequeña para poder contener una información diferente a una dualidad (abierto/cerrado, si/no), por lo que se emplea un conjunto de bits (en español el plural de bit NO es bites, sino bits).
Para poder almacenar una información más detallado se emplea como unidad básica el byte u octeto, que es un conjunto de 8 bits. Con esto podemos representar hasta un total de 256 combinaciones diferentes por cada byte.
Aquí hay que especificar un punto. Hay una diferencia entre octeto y byte. Mientras que un octeto tiene siempre 8 bits un byte no siempre es así, y si bien normalmente si que tiene 8 bits, puede tener entre 6 y 9 bits.
Precisamente el estar basado en octetos y no en el sistema internacional de medidas hace que las subsiguientes medidas no tengan un escalonamiento basado el este sistema (el SI o sistema internacional de medidas).
Veamos los más utilizados:
byte.- Formado normalmente por un octeto (8 bits), aunque pueden ser entre 6 y 9 bits.
La progresión de esta medida es del tipo B=Ax2, siendo esta del tipo 8, 16, 32, 64, 128, 256, 512.
Se pueden usar capacidades intermedias, pero siempre basadas en esta progresión y siendo mezcla de ellas (24 bytes=16+8).
Kilobyte (K o KB).- Aunque se utilizan las acepciones utilizadas en el SI, un Kilobyte no son 1.000 bytes. Debido a lo anteriormente expuesto, un KB (Kilobyte) son 1.024 bytes. Debido al mal uso de este prefijo (Kilo, proveniente del griego, que significa mil), se está utilizando cada vez más el término definido por el IEC (Comisión Internacional de Electrónica) Kibi o KiB para designar esta unidad.
Megabyte (MB).- El MB es la unidad de capacidad más utilizada en Informática. Un MB NO son 1.000 KB, sino 1.024 KB, por lo que un MB son 1.048.576 bytes. Al igual que ocurre con el KB, dado el mal uso del término, cada vez se está empleando más el término MiB.
Gigabyte (GB).- Un GB son 1.024 MB (o MiB), por lo tanto 1.048.576 KB. Cada vez se emplea más el término Gibibyte o GiB.
Llegados a este punto en el que las diferencias si que son grandes, hay que tener muy en cuenta (sobre todo en las capacidades de los discos duros) que es lo que realmente estamos comprando. Algunos fabricantes utilizan el termino GB refiriéndose no a 1.024 MB, sino a 1.000 MB (SI), lo que representa una pérdida de capacidad en la compra. Otros fabricantes si que están ya utilizando el término GiB. Para que nos hagamos un poco la idea de la diferencia entre ambos, un disco duro de 250 GB (SI) en realidad tiene 232.50 GiB.
Terabyte (TB).- Aunque es aun una medida poco utilizada, pronto nos tendremos que acostumbrar a ella, ya que por poner un ejemplo la capacidad de los discos duros ya se está aproximando a esta medida.
Un Terabyte son 1.024 GB. Aunque poco utilizada aun, al igual que en los casos anteriores se está empezando a utilizar la acepción Tebibyte
Las unidades de medida en Informática a veces pueden resultar algo confusas. Vamos a tratar de aclarar algunos conceptos viendo a que se refieren.
Podemos agrupar estas medidas en tres grupos: Almacenamiento, procesamiento y transmisión de datos.
ALMACENAMIENTO:
Con estas unidades medimos la capacidad de guardar información de un elemento de nuestro PC.
Los medios de almacenamiento pueden ser muy diferentes (ver tutorial sobre Medios de almacenamiento.).
Precisamente es en este tipo de medidas donde se puede crear una mayor confusión.
La unidad básica en Informática es el bit. Un bit o Binary Digit es un dígito en sistema binario (0 o 1) con el que se forma toda la información. Evidentemente esta unidad es demasiado pequeña para poder contener una información diferente a una dualidad (abierto/cerrado, si/no), por lo que se emplea un conjunto de bits (en español el plural de bit NO es bites, sino bits).
Para poder almacenar una información más detallado se emplea como unidad básica el byte u octeto, que es un conjunto de 8 bits. Con esto podemos representar hasta un total de 256 combinaciones diferentes por cada byte.
Aquí hay que especificar un punto. Hay una diferencia entre octeto y byte. Mientras que un octeto tiene siempre 8 bits un byte no siempre es así, y si bien normalmente si que tiene 8 bits, puede tener entre 6 y 9 bits.
Precisamente el estar basado en octetos y no en el sistema internacional de medidas hace que las subsiguientes medidas no tengan un escalonamiento basado el este sistema (el SI o sistema internacional de medidas).
Veamos los más utilizados:
byte.- Formado normalmente por un octeto (8 bits), aunque pueden ser entre 6 y 9 bits.
La progresión de esta medida es del tipo B=Ax2, siendo esta del tipo 8, 16, 32, 64, 128, 256, 512.
Se pueden usar capacidades intermedias, pero siempre basadas en esta progresión y siendo mezcla de ellas (24 bytes=16+8).
Kilobyte (K o KB).- Aunque se utilizan las acepciones utilizadas en el SI, un Kilobyte no son 1.000 bytes. Debido a lo anteriormente expuesto, un KB (Kilobyte) son 1.024 bytes. Debido al mal uso de este prefijo (Kilo, proveniente del griego, que significa mil), se está utilizando cada vez más el término definido por el IEC (Comisión Internacional de Electrónica) Kibi o KiB para designar esta unidad.
Megabyte (MB).- El MB es la unidad de capacidad más utilizada en Informática. Un MB NO son 1.000 KB, sino 1.024 KB, por lo que un MB son 1.048.576 bytes. Al igual que ocurre con el KB, dado el mal uso del término, cada vez se está empleando más el término MiB.
Gigabyte (GB).- Un GB son 1.024 MB (o MiB), por lo tanto 1.048.576 KB. Cada vez se emplea más el término Gibibyte o GiB.
Llegados a este punto en el que las diferencias si que son grandes, hay que tener muy en cuenta (sobre todo en las capacidades de los discos duros) que es lo que realmente estamos comprando. Algunos fabricantes utilizan el termino GB refiriéndose no a 1.024 MB, sino a 1.000 MB (SI), lo que representa una pérdida de capacidad en la compra. Otros fabricantes si que están ya utilizando el término GiB. Para que nos hagamos un poco la idea de la diferencia entre ambos, un disco duro de 250 GB (SI) en realidad tiene 232.50 GiB.
Terabyte (TB).- Aunque es aun una medida poco utilizada, pronto nos tendremos que acostumbrar a ella, ya que por poner un ejemplo la capacidad de los discos duros ya se está aproximando a esta medida.
Un Terabyte son 1.024 GB. Aunque poco utilizada aun, al igual que en los casos anteriores se está empezando a utilizar la acepción Tebibyte
PROCESAMIENTO FRECUENCIA DE TRANSMISION:
La velocidad de procesamiento de un procesador se mide en megahercios.
Un megahercio es igual a un millón de hercios.
Un hercio (o herzio o herz) es una unidad de frecuencia que equivale a un ciclo o repetición de un evento por segundo. Esto, en palabras simples, significa que un procesador que trabaje a una velocidad de 500 megahercios es capaz de repetir 500 millones de ciclos por segundo.
En la actualidad, dada la gran velocidad de los procesadores, la unidad más frecuente es el gigahercio, que corresponde a 1.000 millones de hercios por segundo.
La velocidad de procesamiento de un procesador se mide en megahercios.
Un megahercio es igual a un millón de hercios.
Un hercio (o herzio o herz) es una unidad de frecuencia que equivale a un ciclo o repetición de un evento por segundo. Esto, en palabras simples, significa que un procesador que trabaje a una velocidad de 500 megahercios es capaz de repetir 500 millones de ciclos por segundo.
En la actualidad, dada la gran velocidad de los procesadores, la unidad más frecuente es el gigahercio, que corresponde a 1.000 millones de hercios por segundo.
VELOCIDAD TRANSMISION DE DATOS:
En el caso de definir las velocidades de transmisión se suele usar como base el bit, y más concretamente el bit por segundo, o bps
Los múltiplos de estos si que utilizan el SI o Sistema Internacional de medidas.
Los más utilizados sin el Kilobit, Megabit y Gigabit, siempre expresado en el término por segundo (ps).
Las abreviaturas se diferencian de los términos de almacenamiento en que se expresan con b minúscula.
Estas abreviaturas son:
Kbps.- = 1.000 bits por segundo.
Mbps.- = 1.000 Kbits por segundo.
Gbps.- = 1.000 Mbits por segundo.
En el caso de definir las velocidades de transmisión se suele usar como base el bit, y más concretamente el bit por segundo, o bps
Los múltiplos de estos si que utilizan el SI o Sistema Internacional de medidas.
Los más utilizados sin el Kilobit, Megabit y Gigabit, siempre expresado en el término por segundo (ps).
Las abreviaturas se diferencian de los términos de almacenamiento en que se expresan con b minúscula.
Estas abreviaturas son:
Kbps.- = 1.000 bits por segundo.
Mbps.- = 1.000 Kbits por segundo.
Gbps.- = 1.000 Mbits por segundo.
No hay comentarios:
Publicar un comentario