la historia de la computacion

la historia de la computación comienza con la necesidad de crear sistemas que faciliten y aceleren procesos que tardaban mucho en tener un resultado tal como una operación matemática. las computadoras de hoy no se comparan para nada a las computadoras de hace 40 o 50 años atrás ,debido a la evolución de estas, ya que hasta esa época las computadoras estaban programadas solo para hacer cálculos simples en cambio las maquinas de ahora pueden resolver cálculos y problemas complejos, generar realidades virtuales y un sin fin de cosas que nos facilitan la vida. la primera generación de computadoras (1938-1958 aproximadamente) fue connotada por el colossus, el mark I,el eniac , entre otros, son los modelos mas sobresalientes de esta generación ,y esta se le es conocida por usar tubos al vació ,reles ,circuitos electrónicos y condensadores


primera generación :tubos al vacío



colossus


                                 
se le es considerada la primera maquina electrónica ,su función primordial  era descifrar los mensajes de los alemanes en la segunda guerra mundial para los ingleses La primera Colossus se puso en funcionamiento en 1943, se basaba en la idea de universalidad de la máquina de Turing,estaba compuesta por más de 1500 tubos de vacío, la entrada de datos era por medio de tarjetas perforadas y los resultados se almacenaban en relés temporalmente hasta que se les daba salida a través de una máquina de escribir. Era totalmente automática, medía 2.25 metros de alto, 3 metros de largo y 1.20 metros de ancho.


Con el comienzo de la Segunda Guerra Mundial, en 1939, el Gobierno británico reclutó en BletchleyPark (cerca de Londres) a sus mejores científicos para que descifraran los mensajes de los alemanes, entre ellos estaba  Alan Turing,uno de los mayores impulsores del proyecto, que se encargó, entre otras cosas, de las funciones lógicas de la máquina. Otra de las personas importantes en el proyecto fue Thomas H. Flowersun brillante ingeniero, que rediseñó el contador de la máquina proponiendo que los datos se almacenaran en tubos de vacío.


El resultado que proporcionaba Colossus no era el texto de un mensaje descifrado, sino un paso intermedio, que luego se tenía que terminar de descifrar a mano. Se incorporaron mejoras en el sistema con lo que se conseguía que la máquina descifrara totalmente los mensajes, así nació en 1944 la segunda versión del Colossus: la Mark II Colossus, que era cinco veces más rápida que su antecesora operando en paralelo, este modelo estaba compuesto por unos 2400 tubos de vacío.
El proyecto siempre fue ultra-secreto, ni siquiera los propios creadores pudieron ver todas las partes de la máquina. Nunca hubo manuales ni registros sobre su funcionamiento, e incluso su montaje se efectuó por etapas, usando personal distinto para que nadie conociera los detalles de la máquina al completo.
Tarjeta perforada con el código que descifraba Colossus

Tuvo un papel muy relevante para el desarrollo de la Guerra, el 1 de junio de 1944 interceptó y descifró un mensaje en el que Hitler y el alto mando alemán indicaban que esperaban un ataque aliado en Calais. Con el conocimiento de esta información, el general Eisenhower decidió el 6 de junio dirigir sus tropas a la costa de Normandía, produciéndose así el famoso desembarco de Normandia. El principio del fin de la Segunda Guerra Mundial.



mark I 

su nombre original es ascc el cual significa Automatic Sequence Controlled Calculator o en español calculadora automática de secuencias controlada era una máquina automática eléctrica, aunque tenía componentes electromecánicos, podía realizar 5 operaciones aritméticas: suma, resta, multiplicación, división y referencia a resultados anteriores. esta media 2 metros y medio de alto y 17 de largo ,pesaba 31500 kg, contenía 800 km de cable aproximadamente y tenía más de 3000000 de conexiones.Se programaba a través de una cinta de papel en la que había perforadas las instrucciones codificadas, la salida podía ser tanto por tarjetas perforadas como en papel ya que a la salida se podía conectar una máquina de escribir eléctrica. La máquina llamaba la atención porque tenía elegantes cubiertas de cristal muy llamativas.

Una vez programada el ASCC podía ser manejada por personas con un pequeño conocimiento. Realizaba las multiplicaciones en 6 segundos y las divisiones en 12 segundos. En 1943, cuando se terminó su construcción, IBM cedió el ASCC a la universidad de Harvard y fue entonces cuando se rebautizó como MARK I.

Cuando fue puesta en pleno funcionamiento en 1944 se usó para el cálculo de tablas de balística durante el final de la Segunda Guerra Mundial. Fue entonces cuando Aiken contó con la colaboración con un personaje importante en la historia de la informática: Grace Murray Hopper. A pesar de que era una computadora más lenta en comparación con las coexistentes con ella , como la ENIAC, se usó hasta 1959, año en el que se la desmanteló, dejado partes en la universidad de Harvard y partes en el Instituto Smith Sonianen Washington (EE.UU).



eniac

(Electronic Numerical Integrator And Calculator) computadora totalmente electrónica que se terminó de construir en el año 1947 con la incorporación del matemático John Von Neumann(1903 -1957) como consultor.
Esta computadora es construida utilizando la tecnología de la época. Se usaron las válvulas de vacío para fabricarla. Podía ejecutar 5000 sumas por segundo. El equipo de diseño fue encabezado por los ingenieros John Mauchly y John Eckert de la universidad de ingeniería eléctrica Pennsylvania que diseñaron esta computadora principalmente para el ejército.
La ENIAC ocupaba todo un sótano de la Universidad y consumía 200.000 W de electricidad. Necesitaba un sistema de aire acondicionado para disipar el alto calor que generaban sus 18.000 Válvulas que la formaban, además de otros elementos electrónicos tales como resistencias, capacitores, etc. La temperatura de la habitación se elevaba pese al aire acondicionado a unos 50 ºC en ocasiones. Lo que ocasionaba, que estas válvulas se quemen frecuentemente. El encontrar la válvula averiada era toda una tarea técnica.
Esta gigante computadora fue todo un éxito en la época y, pese a que tenía una pequeña capacidad de cálculo comparada a las “pequeñas” computadoras actuales de uso domestico que la superan ampliamente, podían realizar cálculos que de no poseer esta enorme computadora se tardarían demasiado en realizarlos.
La programación de la ENIAC, era muy complicada se debían cambiarse válvulas y hacer cambios de puentes cada vez que se la reprogramaba ya que el programa formaba parte física de la máquina.

Estas computadoras podían almacenar datos, ser programadas, realizar secuencias de cálculos, etc. pero su uso era muy difícil, al igual que su programación, solo las utilizaban verdaderos expertos. Todo esto empezó a cambiar a partir de la computadora UnivacI que poseían una Memoria de 1.000 palabras y podían leer cintas magnéticas. Esto gracias a distintos diseñadores, matemáticos y grupos de trabajo entre ellas el destacado John Von Neumann(1903 -1957) que poseía ideas utilizadas hasta hoy en día en la informática.



válvula de vacío


válvula de vació o válvula termoiónica, es un componente electrónico utilizado para amplificar, conmutar, o modificar una señal eléctrica mediante el control del movimiento de los electrones en un espacio "vacío" a muy baja presión, o en presencia de gases especialmente seleccionados. La válvula originaria fue el componente crítico que posibilitó el desarrollo de la electrónica durante la primera mitad del siglo XX, incluyendo la expansión y comercialización de la radiodifusión, televisión, radar, audio, redes telefónicas, computadoras analógicas y digitales, control industrial, etc. Algunas de estas aplicaciones son anteriores a la válvula, pero vivieron un crecimiento explosivo gracias a ella.








segunda generación : transistores(1958- 1963)



La invención del transistor tuvo lugar en 1948 en los laboratorios Bell por 
W.B. Shockley, J. Bardeen y W.H. Brattain. Poco a poco la industria de 
semiconductores fue creciendo y los productos industriales y comerciales 
sustituían los dispositivos de válvulas de vacío por implementaciones basadas 
en semiconductores.



La nueva tecnología permite aumentar el rendimiento y la fiabilidad, y 
reducir de forma drástica el tamaño de los computadores, dando lugar a la 
Segunda Generación de computadores. La velocidad de ejecución de la CPU se 
incrementó enormemente, hasta alcanzar 200.000 operaciones por segundo. La 
disminución de tamaño de los módulos permitió introducir unidades lógicas y 
aritméticas y unidades de control más complejas. 
Por otra parte, el tamaño de la memoria principal de ferritas creció de 2 
Kpalabras a 32 Kpalabras, y el tiempo de aproximación cayó de 30 ms a 1,4 ms.


ibm 7030 


En 1961 aparece el IBM 7030 o Stretch, el primer computador que usa 
segmentación. También tiene memoria entrelazada y predicción de saltos. No 
tuvo éxito comercial debido, entre otras causas, a que no alcanzó el 
rendimiento esperado porque el tiempo para recuperarse de un error de 
predicción era muy largo. 

Entre las innovaciones arquitectónicas más importantes de esta generación 
puede destacarse la utilización de memoria virtual, para facilitar la tarea del 
programador a la hora de escribir programas demasiado largos para residir 
completamente en memoria principal. Estos programas debían estar formados 
por varios segmentos que se cargaban alternativamente desde la memoria 
secundaria hasta la memoria principal, bajo la supervisión del programa 
principal. La memoria virtual intentaba aliviar a los programadores de este 
peso, gestionando automáticamente los dos niveles de la jerarquía de memoria, 
formada por la memoria principal y la secundaria [HePa02]. La memoria virtual,y la utilización de interrupciones para la E/S se utilizaron por primera vez en el 
sistema ATLAS (1962), desarrollado por Ferranti en la Universidad de 
Manchester, que también usaba segmentación. 

la cdc 6600



la computadora CDC 6600 de la Control Data Corporation, fundada y diseñada por Seymour Cray. Esta computadora ejecutaba a una velocidad de 9 Mflops (es decir, un orden de magnitud más que la IBM 7094), y es la primera supercomputadora comercial. El secreto de su velocidad es que era una computadora altamente paralela. Tenía varias unidades funcionales haciendo sumas, otras haciendo multiplicaciones, y otra haciendo divisiones, todas ejecutando en paralelo (podía haber hasta 10 instrucciones ejecutándose a la vez).



tercera generacion :circuitos impresos o integrados (1964-1971)

Un circuito integrado (CI), también conocido como chip o microchip, es una pastilla pequeña de material semiconductor, de algunos milímetros cuadrados de área, sobre la que se fabrican circuitos electrónicos generalmente mediante fotolitografía y que está protegida dentro de un encapsulado de plástico o cerámica. El encapsulado posee conductores metálicos apropiados para hacer conexión entre la pastilla y un circuito impreso.





principales caracteristicas de las computadoras de tercera generacion

1) Utilización de redes terminales periféricos conectados a la unidad central, una originalidad que le permitía a los usuarios utilizar la computadora desde los lugares menos pensados.
2) A mediados de los años 60 la empresa INTEL logró integrar un procesador completo en un solo chip: así nació el microprocesador.
3) Circuitos integrados, disminución del volumen y agrupación de elementos en una placa de silicio.
4) Ahorro de energía.
5) Reducción de espacio.
6) Utilización de la computadora por varios usuarios al mismo tiempo.
7) Multiprogramación.
8) Renovación y creación de periféricos de entrada y salida.
9) Generalizan y optimizan los lenguajes de alto nivel como el COBOL y FORTRAN.
10) Instrumentación del sistema: se desarrollan hardware que permiten la conectividad de varios dispositivos con el objetivo de formar redes.
11) Micro-computadora

La IBM 360 


                                                                                                                                                             
una de las primeras computadoras comerciales que usó circuitos integrados, podía realizar tanto análisis numéricos como administración ó procesamiento de archivos.

IBM marca el inicio de esta generación, cuando el 7 de abril de 1964 presenta la impresionante IBM 360, con su tecnología SLT (Solid Logic Technology). Esta máquina causó tal impacto en el mundo de la computación que se fabricaron más de30000, al grado que IBM llegó a conocerse como sinónimo de computación.También en ese año, Control Data Corporation presenta la supercomputadora CDC 6600, que se consideró como la más poderosa de las computadoras de la época, ya que tenía la capacidad de ejecutar unos 3 000 000 de instrucciones por segundo (mips).Se empiezan a utilizar los medios magnéticos de almacenamiento, como cintas magnéticas de 9 canales, enormes discos rígidos, etc. Algunos sistemas todavía usan las tarjetas perforadas para la entrada de datos, pero las lectoras de tarjetas ya alcanzan velocidades respetables.




Cuarta Generación (1971-1983):circuitos altamente integrados


Fase caracterizada por la integración sobre los componentes electrónicos, lo que propició la aparición del microprocesador, es decir, un único circuito integrado en el que se reúnen los elementos básicos de la máquina. Se desarrolló el microprocesador. Se colocan más circuitos dentro de un "chip". "LSI - Large Scale Integration circuit". "VLSI - Very Large Scale Integration circuit". Cada "chip" puede hacer diferentes tareas. Un "chip" sencillo actualmente contiene la unidad de control y la unidad de aritmética/lógica. El tercer componente, la memoria primaria, es operado por otros "chips". Se reemplaza la memoria de anillos magnéticos por la memoria de "chips" de silicio. Se desarrollan las microcomputadoras, o sea, computadoras personales o PC. Se desarrollan las supercomputadoras.

Características Principales:

Microprocesador: Desarrollado por Intel Corporation a solicitud de una empresa Japonesa (1971). 

El Microprocesador: Circuito Integrado que reúne en la placa de Silicio las principales funciones de la Computadora y que va montado en una estructura que facilita las múltiples conexiones con los restantes elementos. 

-Se minimizan los circuitos, aumenta la capacidad de almacenamiento. 

-Reducen el tiempo de respuesta. 

-Gran expansión del uso de las Computadoras. 

-Memorias electrónicas más rápidas. 

-Sistemas de tratamiento de bases de datos. 

-Generalización de las aplicaciones: innumerables y afectan prácticamente a todos 
los campos de la actividad humana: Medicina, Hogar, Comercio, Educación, Agricultura, Administración, Diseño, Ingeniería, etc... 


-Multiproceso. 


-Microcomputadora.

Caben mencionar los siguientes hechos cronológicos:
1971: Computer Automation introduce la Alpha-16.

1971: IBM presenta las computadoras mainframes 370/135 y 370/195.

1971: NCR presenta el modelo Century 50.

1971: Sperry-Rand toma la línea de computadoras de la RCA.

1972: La primera calculadora de bolsillo es fabricada por Jack Kilby, Jerry Merryman y Jim VanTassel de Texas Instruments.

1972: Gary Kildall escribe el PL/1, primer lenguaje de programación para el microprocesador Intel 4004.

1973: IBM enfrenta un juicio de Control Data, terminado por vender el Service Bureau Corporation (SBC) a Control Data.

1973: El lenguje PROLOG es desarrollado por Alain Comerauer en la Universidad de Marslla-Luminy, Francia.

1974: Zilog es formada para fabricar microprocesadores.

1975: Se forma el Homebrew Computer Club, considerado el primer grupo de usuarios de computadoras personales.
La Commodore PET 2001 con pantalla incorporada
1976: Commodore International construye la Pet 2001 con nuevo microprocesador 6502. La Pet fué la primera computadora personal con una pantalla incorporada, con 4k de memoria Ram, expandible a 32 K y un programa BASIC en memoria ROM (Read Only memory).
Los programas se almacenaban en cassettes y su precio de venta fué de US $ 595 para el modelo de 4k y US $ 795 para el de 8k. Posteriormenta Commodore International compraría la MOS Technology, que fabricaba los chips 6502. 
La VIC-20 de Commodore International
1980: Commodore Inc. presenta la VIC-20, un modelo de computadora personal muy barata, dirigida a los principiantes y hobbistas.
Usaba el microprocesador 6502 con una memoria de apenas 5k de Ram. El sistema estaba diseñado para ser conectado a un televisor y los programas se almacenaban en una casetera, la cual debía ser conectada a la VIC-20.
La popular COMMODORE 64
1981: La Commodore 64 reemplazó a la VIC-20 y se vendió al igual que su predecesora, a muy bajo precio. Este modelo empleó un microprocesador ligeramente mejorado al 6502 y que costaba US $ 20 al por mayor.
La Commodore 64 usó el chip 6510 que permitía una capacidad de procesamiento de 64k y podía integrarse a un disk drive fabricado por la misma empresa, para ejecutar los programas y el almacenamiento de la información..

1976: NEC System 800 y 900 de propósito general son presentados.

1977: DEC introduce su primera superminicomputadora de 32 bits, la VAX-11/780.

1978: Se celebra la primera feria de COMDEX.

1979: El lenguaje Ada es desarrollado por un equipo dirigido por Jean Ichbiah en CII-Honeywell Bull (Francia).

1980: Control Data Corporation introduce el supercomputador Cyber 205.




quinta generacion: la computadora moderna

La quinta generación de computadoras, también conocida por sus siglas en inglés, FGCS (de Fifth Generation Computer Systems) fue un ambicioso proyecto propuesto por Japón a finales de la década de 1970. Su objetivo era el desarrollo de una nueva clase de computadoras que utilizarían técnicas y tecnologías de inteligencia artificial tanto en el plano del hardware como del software, usando el lenguaje PROLOG2 3 4 al nivel del lenguaje de máquina y serían capaces de resolver problemas complejos, como la traducción automática de una lengua natural a otra (del japonés al inglés, por ejemplo). Como unidad de medida del rendimiento y prestaciones de estas computadoras se empleaba la cantidad de LIPS (Logical Inferences Per Second) capaz de realizar durante la ejecución de las distintas tareas programadas. Para su desarrollo se emplearon diferentes tipos de arquitecturas VLSI (Very Large Scale Integration).
El proyecto duró once años, pero no obtuvo los resultados esperados las computadoras actuales siguieron así, ya que hay muchos casos en los que, o bien es imposible llevar a cabo una paralelización del mismo, o una vez llevado a cabo ésta, no se aprecia mejora alguna, o en el peor de los casos, se produce una pérdida de rendimiento. Hay que tener claro que para realizar un programa paralelo debemos, para empezar, identificar dentro del mismo partes que puedan ser ejecutadas por separado en distintos procesadores. Además, es importante señalar que un programa que se ejecuta de manera secuencial, debe recibir numerosas modificaciones para que pueda ser ejecutado de manera paralela, es decir, primero sería interesante estudiar si realmente el trabajo que esto conlleva se ve compensado con la mejora del rendimiento de la tarea después de paralelizarla.
En 1981 a iniciativa del MITI se celebró una Conferencia Internacional, durante la cual Kazuhiro Fuchi anunció el programa de investigación y el 14 de abril de 1982 el gobierno decidió lanzar oficialmente el proyecto, creando el Institute for New Generation Computer Technology (Instituto para la Nueva Generación de Tecnologías de Computación o ICOT por sus siglas en inglés), bajo la dirección de Fuchi,5 a quien sucedería en el puesto como director del instituto Tohru Moto-Oka, y con la participación de investigadores de diversas empresas japonesas dedicadas al desarrollo de hardware y software, entre ellas Fujitsu, NEC, Matsushita, Oki, Hitachi, Toshiba y Sharp.6
Los campos principales para la investigación de este proyecto inicialmente eran:

Tecnologías para el proceso del conocimiento.
Tecnologías para procesar bases de datos y bases de conocimiento masivo.
Sitios de trabajo del alto rendimiento.
Informáticas funcionales distribuidas.
Supercomputadoras para el cálculo científico.

Principales eventos y finalización del proyecto
1981: se celebra la Conferencia Internacional en la que se perfilan y definen los objetivos y métodos del proyecto.
1982: el proyecto se inicia y recibe subvenciones a partes iguales aportadas por sectores de la industria y por parte del gobierno.
1985: se concluye el primer hardware desarrollado por el proyecto, conocido como Personal Sequential Inference machine (PSI) y la primera versión del sistema operativo Sequentual Inference Machine Programming Operating System (SIMPOS). SIMPOS fue programado en Kernel Language 0 (KL0), una variante concurrente de Prolog con extensiones para laprogramación orientada a objetos, el metalenguaje ESP. Poco después de las máquinas PSI, fueron desarrolladas las máquinas CHI (Co-operative High-performance Inference machine).
1986: se ultima la máquina Delta, basada en bases de datos relacionales.
1987: se construye un primer prototipo del hardware llamado Parallel Inference Machine (PIM) usando varias máquinas PSI conectadas en red. El proyecto recibe subvenciones para cinco años más. Se desarrolla una nueva versión del lenguaje propuesto, Kernel Language 1 (KL1) muy similar al "Flat GDC" (Flat Guarded Definite Clauses), influenciada por desarrollos posteriores del Prolog y orientada a la computación paralela. El sistema operativo SIMPOS es re-escrito en KL1 y rebautizado como Parallel Inference Machine Operating System, o PIMOS.
1991: concluyen los trabajos en torno a las máquinas PIM.
1992: el proyecto es prorrogado un año más a partir del plan original, que concluía este año.
1993: finaliza oficialmente el proyecto de la quinta generación de computadoras, si bien para dar a conocer los resultados se inicia un nuevo proyecto de dos años de duración prevista, llamado FGCS Folow-on Project. El código fuente del sistema operativo PIMOS es lanzado bajo licencia de dominio público y el KL1 es portado a sistemas UNIX, dando como resultado el KLIC (KL1 to C compiler).
1995: finalizan todas las iniciativas institucionales vinculadas con el proyecto.




etapas del Hardware

Primera etapa
Segunda etapa
Tercera etapa
Máquinas secuenciales PSI (Personal Sequential Inference machine) y CHI (Co-operative High-performance Inference machine):
PSI-I: 30 KLIPS (Logical Inference Per Second)
PSI-II: PSI-I + CPU VLSI
CHI-I: 285 KLIPS
Máquinas en paralelo PIM (Parallel Inference Machine):
PIM-D
PIM-R
Máquina de base de datos relacional:
DELTA
Máquinas secuenciales:
PSI-III
CHI-II: 490 KLIPS
Máquinas en paralelo:
Multi-PSI
Máquinas en paralelo:
PIM/p: 512 microprocesadores RISC, 256 MB de memoria
PIM/m: 256 microprocesadores CISC, 80 MB de memoria
PIM/c: 256 microprocesadores CISC, 160 MB de memoria
PIM/k: 16 microprocesadores RISC, 1 GB de memoria
PIM/i: 16 microprocesadores RISC (tipo LIW), 320 MB de memoria




No hay comentarios.:

Publicar un comentario