ElTicus.com

Programación, lenguajes y recursos para programadores

artículo
Breve historia de la computación
Incluyendo las generaciones de las computadoras
Publicado por Bernardo Fecha: 2007-06-09 11:12:45 Idioma: Español Tipo de documento: artículo

Breve historia de las computadoras


La primera generación de computadoras (1941-1948)

Las Válvulas

Las computadoras construidas con válvulas de vacío son la primera generación de lo que en la actualidad se conoce como computadoras.

Las primeras computadoras de válvulas de vacío se distinguían por dos aspectos fundamentales:

• Su gran tamaño.
• El gran consumo de energía que disipaba un fuerte calor.

Ambos efectos eran debidos al gran tamaño de las válvulas con las que estaban construidos y a que éstas necesitaban consumir una gran cantidad de energía para alimentarse, generando una enorme cantidad de calor.

Las válvulas de vacío surgieron a principios del siglo XX, cuando en 1907 Lee De Forest inventó la primera válvula electrónica (triodo) al intentar perfeccionar los receptores telegráficos existentes en la época. La posibilidad de la válvula electrónica de asumir dos estados posibles fue la base fundamental sobre la que se implantó el código binario (0,1) y las modernas computadoras digitales.

En 1941 comenzó a realizarse el diseño y construcción de ENIAC bajo la dirección de J. Eckert y J.W. Mauchly, quienes pertenecían a la Escuela de Ingeniería Eléctrica de Moore en Pennsylvania; ENIAC fue la primera computadora de válvulas electrónicas construida, entró en funcionamiento en 1945 y fue dada de baja en 1955. En ese momento aún permanecía operativa.

Hasta hace poco tiempo ha existido una polémica entre Mauchly y J. Atanasoff debido a que el primero visitó a este cuando Atanasoff estaba trabajando en un prototipo de computadora en su laboratorio de la Universidad de Iowa. Atanasoff manifestó que Mauchly se basó en su computadora para construir posteriormente la ENIAC. En el verano de 1995 parece que, finalmente, se ha confirmado este hecho y el mérito del diseño de la primera computadora moderna corresponde a Atanasoff.

La arquitectura física de ENIAC se componía de 18.000 válvulas, un volumen de alrededor de 111 metros cúbicos (aproximadamente el tamaño de un autobús), unas 30 toneladas de peso y un consumo de 150.000 watios.

El tamaño de la máquina era una exigencia de la tecnología de construcción ya que las válvulas generaban mucho calor y debían separarse lo más posible para poder disipar convenientemente ese calor.

ENIAC no sería exactamente, en su diseño lógico, lo que se entiende ahora por computadora, puesto que no poseía la capacidad de almacenamiento de programas; en efecto, el programa debía ser previamente perforado en tarjetas y posteriormente cargado en la memoria, finalizando con la ejecución del programa y el proceso de los datos a utilizar.

El principal problema que presentaba ENIAC era que el proceso no estaba optimizado en absoluto, la computadora sólo podía efectuar estas tareas secuencialmente. Así, si estaba leyendo las tarjetas perforadas no podía procesar los datos ni escribir la salida por la impresora, con lo cual el tiempo de ejecución se incrementaba considerablemente.

Como el tiempo de reacción de las primeras válvulas era muy alto, comparado con la velocidad de los componentes actuales, puede pensarse que no existía una gran diferencia entre las primeras computadoras electrónicas y las mecánicas. Sin embargo, cuando la computadora estaba plenamente operativa, se mejoraba mucho la rapidez y eficacia con respecto a sus antecesoras.

El mantenimiento, no obstante, era muy arduo, ya que se debían controlar todas las válvulas para evitar que una parte de la computadora quedara inutilizada, las mejores prestaciones que se consiguieron fueron alrededor de dos o tres días sin que se fundiera ninguna válvula. El que se fundiera una válvula significaba que debía pararse la máquina, localizar la avería, resolverla y, posteriormente, realizar el arranque. El arranque implicaba un calentamiento previo de los filamentos de las válvulas, hay que recordar que las antiguas radios y televisiones que funcionaban con esa tecnología tardaban unos momentos en «calentarse« antes de ponerse en marcha.


La segunda generación de computadoras (1948-1962)

Los Transistores

Las computadoras de la segunda generación vieron como algo cambiaba en su interior. En efecto, a finales de la década de los años cuarenta, Schockley, Brattain y Barden inventaron, en los laboratorios Bell, el transistor cuyo nombre procede de la contracción de "transference resistor", es decir, resistencia de transferencia; rápidamente se vieron las grandes posibilidades que el nuevo descubrimiento tenía como sustituto óptimo de las válvulas.

El material con el que se fabricó el primer transistor fue el germanio, material con el que se siguieron fabricando los transistores hasta el año 1954 en que Texas Instruments fabricó el primer transistor de silicio.

En sí los primeros transistores no eran más que dos electrodos en forma de puntas de contacto sobre un trozo de material.

El cambio fundamental que originó la aparición del transistor fue que redujo en gran medida el tamaño de las computadoras, puesto que sobre placas relativamente pequeñas podían instalarse componentes fundamentales para la estructura de la computadora. Asimismo, se redujeron sus labores de mantenimiento debido a que aumentó la fiabilidad de sus componentes.

La velocidad de cálculo se multiplicó, reduciéndose el tiempo de conmutación (tiempo que tarda un componente en pasar de un estado a otro, es decir, en tomar uno de los dos valores del código binario) a velocidades próximas a los milisegundos.

El problema fundamental con el que se encontraron los informáticos en esta época fue que todavía no se había conseguido solucionar completamente el problema de optimización de la gestión de los recursos del sistema informático, las unidades de entrada y salida seguían siendo el cuello de botella de los procesos.

En esta etapa se consigue simultanear el proceso del programa con las operaciones de entrada y salida, pero solamente dentro del mismo programa. Al no poderse realizar más que una ejecución de un programa al mismo tiempo, esto detenía el proceso de otros programas. Todo ello originaba una infrautilización de los elementos más rápidos y, por tanto, más caros, de la máquina y una considerable pérdida de tiempo y dinero.

En este momento se comenzaron a utilizar los procesos por lotes. Estos procesos se denominan así porque en una computadora secundaria, que se encargaba de gestionar las operaciones de entrada y salida, se introducía el lote de trabajos que se iban a procesar en la computadora principal. La computadora secundaria transfería los procesos a la principal, mucho más rápida y potente, quién se encargaba de procesarlos volviendo ésta a enviar los resultados a la computadora secundaria para que ésta se encargara de las operaciones de salida.


La tercera generación de computadoras (1962-1971)

Los Circuitos Integrados

El paso de la segunda a la tercera generación de computadoras se produjo a principios de la década de los sesenta y se debió a la aparición de los circuitos integrados.

Si bien la primera patente comercial de un circuito integrado se concedió en 1959 al ingeniero de la empresa estadounidense Texas Instruments, Jack Kilby, hasta el año 1962 no se presentó comercialmente el primer circuito integrado; éste era de tecnología digital y su estructura era la de un transistor (en realidad estaba compuesto por dos transistores), pero en una superficie de 1 mm2.

Los circuitos integrados tienen un tamaño similar al de un transistor, pero el grado de miniaturización de sus componentes es muchísimo mayor, pudiéndose incluir la potencia de varios transistores en un solo circuito de menor tamaño que el de un transistor. Con los circuitos integrados no sólo se aumentó la miniaturización de los componentes, sino también su fiabilidad y velocidad de proceso, de modo que el tiempo de conmutación pasó a medirse en nanosegundos, esto es, milmillonésimas de segundo.

En esta tercera generación de computadoras se introdujo el concepto de multitarea.

La multitarea es una optimización de la utilización de los componentes del sistema informático. En la multitarea se gestionan de tal forma los recursos del sistema de la computadora que el sistema operativo maneja el entorno hardware de tal forma que, si bien es sólo un programa el que ocupa el procesador central en un momento dado, cuando ese programa principal necesita utilizar un subsistema más lento que el procesador central, el sistema operativo da paso a otro programa para que pueda utilizar los recursos del procesador central mientras el primer programa está utilizando el resto de los subsistemas.

La optimización del entorno hardware permite una multiplicación de la capacidad operativa del procesador.

Tipos de Integración de los Circuitos

A partir de mediados de los años sesenta van sucediéndose los diferentes niveles en la integración de circuitos. En 1964 aparecen los circuitos de Pequeña Escala de Integración (SSI, Small Scale Integration en inglés) que tienen entre 1 y 12 puertas lógicas.

En 1968 surgen los procesadores de Media Escala de Integración (MSI, Middle Scale Integratio en inglés) que se componen de entre 13 y 99 puertas lógicas.

En 1971 se llega a lo que se conoce realmente como microprocesador con la tecnología de Gran Escala de Integración (LSI, Large Scale Integration en inglés), donde ya se superan las 100 puertas lógicas instaladas en el circuito y se llega al umbral de las 1.000.

Finalmente, la cuarta escala de integración surge en 1980, es la tecnología VLSI, (Very Large Scale Integration o de Muy Gran Escala de Integración). Es la tecnología que se está utilizando en la construcción de componentes en estos momentos. Con esta tecnología se están superando en la actualidad las 1.000 puertas lógicas y se están llegando a instalar más de 10.000 puertas lógicas.

La tendencia actual de los fabricantes es seguir aumentando la escala de integración de los circuitos para conseguir mejorar los rendimientos de los sistemas informáticos (en la actualidad se están consiguiendo tiempos de conmutación del orden de un nanosegundo).

Otro factor favorable a la utilización de la tecnología VLSI en la construcción de los circuitos integrados es que estos circuitos, al tener menos componentes, son más fiables y, por lo tanto existe mucho menos riesgo de avería; además, debido a su costo, los componentes se diseñan a medida y deben pasar por unos controles de calidad mucho más estrictos.

Han surgido, sin embargo, problemas subyacentes a la integración de componentes, como puede ser la generación de un excesivo calor (lo que puede afectar muy negativamente a los del circuito) o la imposibilidad de traspasar barreras físicas (como componentes de tamaño tan sumamente pequeño que su manejo se hace muy difícil y hace cada vez más complicados los avances en estas tecnologías).

La cuestión del tamaño es acuciante. Como puede verse en esta breve reseña histórica, desde los años sesenta la industria electrónica se ha visto impulsada a reducir, cada vez más, los componentes de los microcircuitos semiconductores para fabricar memorias mayores y procesadores más rápidos y potentes. En este sentido, de proseguir la tendencia hacia la miniaturización, el tamaño de una puerta lógica será, antes de cuarenta años, el de una molécula. Esto llevaría a desarrollar una nueva «especie», ya no generación, de computadoras: las de base orgánica.

A estos obstáculos técnicos hay que añadir el quizás más determinante, industrialmente hablando, obstáculo económico. Cada vez que se duplica la miniaturización, el coste de fabricación del microcircuito se multiplica por cinco. De este modo, se puede dar el caso de que la búsqueda de circuitos electrónicos cada vez menores se vea limitada más por consideraciones económicas que físicas.


NOMBRE FECHA NÚMERO DE PUERTAS LÓGICAS
SSI 1964 DESDE 1 HASTA 12 PUERTAS
MSI 1968 DESDE 13 HASTA 99 PUERTAS
LSI 1971 DESDE 100 HASTA 1000 PUERTAS
VLSI 1980 DESDE 1.000 HASTA MAS DE 10.000 PUERTAS


La cuarta generación de computadoras (1971 a 1981)

Microprocesador , Chips de memoria, Microminiaturización

Dos mejoras en la tecnología de las computadoras marcan el inicio de la cuarta generación: el reemplazo de las memorias con núcleos magnéticos, por las de chips de silicio y la colocación de Muchos más componentes en un Chip: producto de la microminiaturización de los circuitos electrónicos. El tamaño reducido del microprocesador y de chips hizo posible la creación de las computadoras personales (PC)

En 1971, intel Corporation, que era una pequeña compañía fabricante de semiconductores ubicada en Silicon Valley, presenta el primer microprocesador o Chip de 4 bits, que en un espacio de aproximadamente 4 x 5 mm contenía 2 250 transistores. Este primer microprocesador que se muestra en la figura 1.14, fue bautizado como el 4004.

Silicon Valley (Valle del Silicio) era una región agrícola al sur de la bahía de San Francisco, que por su gran producción de silicio, a partir de 1960 se convierte en una zona totalmente industrializada donde se asienta una gran cantidad de empresas fabricantes de semiconductores y microprocesadores. Actualmente es conocida en todo el mundo como la región más importante para las industrias relativas a la computación: creación de programas y fabricación de componentes.

Actualmente ha surgido una enorme cantidad de fabricantes de microcomputadoras o computadoras personales, que utilizando diferentes estructuras o arquitecturas se pelean literalmente por el mercado de la computación, el cual ha llegado a crecer tanto que es uno de los más grandes a nivel mundial; sobre todo, a partir de 1990, cuando se logran sorprendentes avances en Internet.

Esta generación de computadoras se caracterizó por grandes avances tecnológicos realizados en un tiempo muy corto. En 1977 aparecen las primeras microcomputadoras, entre las cuales, las más famosas fueron las fabricadas por Apple Computer, Radio Shack y Commodore Busíness Machines. IBM se integra al mercado de las microcomputadoras con su Personal Computer (figura 1.15), de donde les ha quedado como sinónimo el nombre de PC, y lo más importante; se incluye un sistema operativo estandarizado, el MS- DOS (MicroSoft Disk Operating System).

Las principales tecnologías que dominan este mercado son:

IBM y sus compatibles llamadas clones, fabricadas por infinidad de compañías con base en los procesadores 8088, 8086, 80286, 80386, 80486, 80586 o Pentium, Pentium II, Pentium III y Celeron de Intel y en segundo término Apple Computer, con sus Macintosh y las Power Macintosh, que tienen gran capacidad de generación de gráficos y sonidos gracias a sus poderosos procesadores Motorola serie 68000 y PowerPC, respectivamente. Este último microprocesador ha sido fabricado utilizando la tecnología RISC (Reduced Instruc tion Set Computing), por Apple Computer Inc., Motorola Inc. e IBM Corporation, conjuntamente.

Los sistemas operativos han alcanzado un notable desarrollo, sobre todo por la posibilidad de generar gráficos a gran des velocidades, lo cual permite utilizar las interfaces gráficas de usuario (Graphic User Interface, GUI), que son pantallas con ventanas, iconos (figuras) y menús desplegables que facilitan las tareas de comunicación entre el usuario y la computadora, tales como la selección de comandos del sistema operativo para realizar operaciones de copiado o formato con una simple pulsación de cualquier botón del ratón (mouse) sobre uno de los iconos o menús.



La quinta generación de computadoras (1982-1989)

La inteligenca artificial

Cada vez se hace más difícil la identificación de las generaciones de computadoras, porque los grandes avances y nuevos descubrimientos ya no nos sorprenden como sucedió a mediados del siglo XX. Hay quienes consideran que la cuarta y quinta generación han terminado, y las ubican entre los años 1971-1984 la cuarta, y entre 1984-1990 la quinta. Ellos consideran que la sexta generación está en desarrollo desde 1990 hasta la fecha.

Siguiendo la pista a los acontecimientos tecnológicos en materia de computación e informática, podemos puntualizar algunas fechas y características de lo que podría ser la quinta generación de computadoras.

Con base en los grandes acontecimientos tecnológicos en materia de microelectrónica y computación (software) como CADI CAM, CAE, CASE, inteligencia artificial, sistemas expertos, redes neuronales, teoría del caos, algoritmos genéticos, fibras ópticas, telecomunicaciones, etc., a de la década de los años ochenta se establecieron las bases de lo que se puede conocer como quinta generación de computadoras.

Hay que mencionar dos grandes avances tecnológicos, que sirvan como parámetro para el inicio de dicha generación: la creación en 1982 de la primera supercomputadora con capacidad de proceso paralelo, diseñada por Seymouy Cray, quien ya experimentaba desde 1968 con supercomputadoras, y que funda en 1976 la Cray Research Inc.; y el anuncio por parte del gobierno japonés del proyecto "quinta generación", que según se estableció en el acuerdo con seis de las más grandes empresas japonesas de computación, debería terminar en 1992.

El proceso paralelo es aquél que se lleva a cabo en computadoras que tienen la capacidad de trabajar simultáneamente con varios microprocesadores. Aunque en teoría el trabajo con varios microprocesadores debería ser mucho más rápido, es necesario llevar a cabo una programación especial que permita asignar diferentes tareas de un mismo proceso a los diversos microprocesadores que intervienen.

También se debe adecuar la memoria para que pueda atender los requerimientos de los procesadores al mismo tiempo. Para solucionar este problema se tuvieron que diseñar módulos de memoria compartida capaces de asignar áreas de caché para cada procesador.

Según este proyecto, al que se sumaron los países tecnológicamente más avanzados para no quedar atrás de Japón, la característica principal sería la aplicación de la inteligencia artificial (Al, Artificial Intelligence). Las computadoras de esta generación contienen una gran cantidad de microprocesadores trabajando en paralelo y pueden reconocer voz e imágenes. También tienen la capacidad de comunicarse con un lenguaje natural e irán adquiriendo la habilidad para tomar decisiones con base en procesos de aprendizaje fundamentados en sistemas expertos e inteligencia artificial.


La sexta generación de computadoras (1990 - )

indefinida todavía

Como supuestamente la sexta generación de computadoras está en marcha desde principios de los años noventas, debemos por lo menos, esbozar las características que deben tener las computadoras de esta generación. También se mencionan algunos de los avances tecnológicos de la última década del siglo XX y lo que se espera lograr en el siglo XXI. Las computadoras de esta generación cuentan con arquitecturas combinadas Paralelo / Vectorial, con cientos de microprocesadores vectoriales trabajando al mismo tiempo; se han creado computadoras capaces de realizar más de un millón de millones de operaciones aritméticas de punto flotante por segundo (teraflops); las redes de área mundial (Wide Area Network, WAN) seguirán creciendo desorbitadamente utilizando medios de comunicación a través de fibras ópticas y satélites, con anchos de banda impresionantes. Las tecnologías de esta generación ya han sido desarrolla das o están en ese proceso. Algunas de ellas son: inteligencia / artificial distribuida; teoría del caos, sistemas difusos, holografía, transistores ópticos, etcétera.





Con información de http://leecolima.com.mx y http://monografias.com




Nadie ha puesto ningún comentario todavía


Haz un comentario sobre este tema
Nombre email (no se muestra)
comentario:
Escribe las 2 letras que ves aquí: Imagen anti-spam =




No hay comentarios

Artículos relacionados:
Recurso no clasificado Examen de informática para No-Informáticos chiste Los 10 mandamientos de los programadores Recurso no clasificado Virus informáticos