TAREA DE INFORMATICA

121
Computadora personal Este artículo trata sobre computadoras personales en general. Para las computadoras personales PC compatibles, véase Compatible IBM PC . Ilustración de una moderna Computadora de Escritorio Una computadora personal u ordenador personal, también conocida como PC (sigla en inglés de personal computer), es una microcomputadora diseñada en principio para ser usada por una sola persona a la vez. (En el habla habitual, las siglas PC se refieren más específicamente a la computadora compatible IBM PC .) Una computadora personal es generalmente de tamaño medio y es usado por un solo usuario (aunque hay sistemas operativos que permiten varios usuarios simultáneamente, lo que es conocido como multiusuario). Una computadora personal suele estar equipada para cumplir tareas comunes de la informática moderna, es decir permite navegar por Internet, escribir textos y realizar otros trabajos de oficina o educativos, como editar textos y bases de datos. Además de actividades de ocio, como escuchar música, ver videos, jugar, estudiar, etc. En cuanto a su movilidad podemos distinguir entre computadora de escritorio y computadora portátil . Dentro del conjunto de las computadoras portátiles están las llamadas computadoras portátiles de escritorio .

Transcript of TAREA DE INFORMATICA

Page 1: TAREA DE INFORMATICA

Computadora personalEste artículo trata sobre computadoras personales en general. Para las computadoras personales PC compatibles, véase Compatible IBM PC.

Ilustración de una moderna Computadora de Escritorio

Una computadora personal u ordenador personal, también conocida como PC (sigla en inglés de personal computer), es una microcomputadora diseñada en principio para ser usada por una sola persona a la vez. (En el habla habitual, las siglas PC se refieren más específicamente a la computadora compatible IBM PC.) Una computadora personal es generalmente de tamaño medio y es usado por un solo usuario (aunque hay sistemas operativos que permiten varios usuarios simultáneamente, lo que es conocido como multiusuario).

Una computadora personal suele estar equipada para cumplir tareas comunes de la informática moderna, es decir permite navegar por Internet, escribir textos y realizar otros trabajos de oficina o educativos, como editar textos y bases de datos. Además de actividades de ocio, como escuchar música, ver videos, jugar, estudiar, etc.

En cuanto a su movilidad podemos distinguir entre computadora de escritorio y computadora portátil. Dentro del conjunto de las computadoras portátiles están las llamadas computadoras portátiles de escritorio.

Page 2: TAREA DE INFORMATICA

Historia

Una PC de IBM.Artículo principal: Historia de los computadores personales

El primer registro que se conoce del término "computadora personal" apareció en la revista New Scientist en 1964, en una serie de artículos llamados «El mundo en 1984». En un artículo titulado The Banishment of Paper Work, Arthur L. Samuel, del Centro de Investigación Watson de IBM escribió: «Hasta que no sea viable obtener una educación en casa, a través de nuestra propia computadora personal, la naturaleza humana no habrá cambiado».

La primera generación que comenzó a fabricarse en los años setenta (véase computadora doméstica), era mucho menos polifacética y potente que las computadoras de las empresas de aquel entonces, y en general eran utilizadas por los aficionados a la informática para jugar. Fue el lanzamiento de la hoja de cálculo VisiCalc, en principio para Apple II y después para el IBM PC, la verdadera aplicación que logró convertir a la microcomputadora en una herramienta de trabajo. El bajo costo de las computadoras personales le hizo adquirir una gran popularidad tanto para las familias como para los trabajadores en los años ochenta.

En los noventa el poder de las computadoras personales aumentó de manera radical, borrando la frontera desfasada que había entre las computadoras personales y las computadoras de varios usuarios como las computadoras centrales. Hoy las computadoras de gama alta se distinguen de las computadoras personales por su mayor fiabilidad o su mayor habilidad para realizar multitareas y no por la potencia de la CPU.

Page 3: TAREA DE INFORMATICA

La mayoría de las computadoras personales utilizan una arquitectura de soporte físico compatible con el PC de IBM, usando procesadores compatibles con x86 realizados por Intel, AMD o Cyrix.

A pesar de la enorme popularidad de la computadora personal, varias microcomputadoras incompatibles con IBM (también llamados de manera general computadoras personales) son todavía populares para determinados usos específicos. La principal alternativa, hasta hace poco, era la computadora con procesador PowerPC, con el sistema operativo Mac OS X de Apple Computer (aunque otros sistemas operativos pueden correr sobre esta arquitectura), que se usa sobre todo para diseño gráfico y usos relacionados, sirviendo también perfectamente para un usuario doméstico. Hay que decir que a partir de 2006 las computadoras de Apple usan microprocesadores de Intel y ya no se fabrican PowerPC. Pese a ello siguen siendo incompatibles (los compatibles utilizan BIOS y los Mac EFI).

La computadora personal es en una palabra consumidor-amistosa para la segunda generación de computadoras de escritorio, que se incorporaron en el mercado a 1977 y llegaron a ser de uso común durante los años 80. También se conocen como computadoras personales.

La computadora personal llegó a ser de fácil adquisición para el público en general debido a la producción en masa del microprocesador basado en el chip de silicio y como el nombre indica, pensada para ser utilizada en el hogar antes que en negocios/contextos industriales. También fueron diseñadas para ser inmediatamente útiles a los clientes no técnicos, en contraste con las microcomputadoras de la primera generación que vinieron como kits y requirieron a menudo habilidades en electrónica. El uso del término “computadora personal” murió en gran parte hacia finales de la década (en los EE.UU.) o en los años 90 tempranos (en Europa). Esto se debió a la aparición de la computadora personal compatible de la PC de IBM, y a la preferencia consiguiente por el término “PC” antes que “la computadora personal”.

Una de las primeras computadoras personales, la Apple II.

Computadoras personales notables

La lista de abajo muestra las computadoras personales más populares e históricamente más significativas de los últimos años 70 y de los años 80. Incluye su año inicial del lanzamiento así también como su región/país de origen. Los lanzamientos más

Page 4: TAREA DE INFORMATICA

significativos en los EE.UU. fueron: Apple II (1977), IBM PC (1981), el Commodore 64 (1982), y el Apple Macintosh (1984). Una plétora de computadoras personales surgió durante este período, pero no pudieron tener un impacto significativo en el mercado de los EE.UU. o la historia de la computación doméstica y como tales no se mencionan (esto incluye las máquinas no vendidas/conocidas en los EE.UU.). Diversos modelos en una línea de computadoras compatibles se enumeran en su totalidad, por ejemplo las familias del Apple II y del TRS-80.

(Para una descripción más completa de las computadoras personales, es decir, no solamente de las más notables dadas abajo, ver la lista de las computadoras personales.)

Junio de 1977: Apple II (Norteamérica) (gráficos en color, ocho ranuras de expansión)

Agosto de 1977: Tandy Radio Shack TRS-80 (N.) (Primera computadora personal de menos de US$600)

Diciembre de 1977: Commodore PET (N.) (Primera computadora completa: teclado/pantalla/cinta)

1979: Atari 400/800 (N.) (Primera computadora con un chipset específico y chip de video programable)

1979: TI-99/4 (primera computadora personal con un procesador de 16 bits)

Los años 80

1980: Commodore VIC-20 (por debajo de US$300; primera computadora en el mundo en pasar la marca de un millón de unidades vendidas)

1980: Computadora en color TRS-80 (Motorola 6809, trabajos múltiples opcionales OS-9)

1980: Osborne Computer Company lanza el Osborne 1 (primera computadora "portátil")

Junio de 1981: Texas Instruments TI-99/4A - basada en el menos exitoso TI-99/4, segunda computadora personal con una CPU de 16 bit, primera en agregar gráficos "sprite"

Agosto de 1981: PC de IBM - versión original de la plataforma de hardware compatible de la PC de IBM. El modelo original fue denominado IBM 5150. Fue creado por un equipo de 12 ingenieros y los diseñadores bajo la dirección de Estridge de la división de los sistemas de la entrada de IBM en Boca Ratón, Florida

1981: Sinclair ZX81 (Europa) - el kit costaba £49,95; £69,95 pre-construido. Fue lanzado como Timex Sinclair 1000 en los EE.UU. en 1982

1981: BBC Micro (Europa) - computadora educativa del Primer Ministro del Reino Unido por una década; BASIC avanzado con el ensamblador integrado del código automático 6502; diseñado con una miríada de puertos de entrada-salida

1982: Kaypro lanza la computadora Kaypro II Abril de 1982: Sinclair ZX Spectrum (Europa) - la computadora personal británica

más vendida; creó la industria británica del software Agosto de 1982: Commodore 64 - El modelo de computadora más vendido de todos

los tiempos: ~ 17 millones vendidos

Page 5: TAREA DE INFORMATICA

1983: Coleco Adam 1983: MSX (Japón) - diseño de referencia de ASCII y Microsoft, fabricado por

varias compañías: ~ 5 millones vendidos) 1983: Laser 200 - computadora de VTech de nivel de entrada dirigida siendo el más

barato en mercado). Enero de 1984: Apple Macintosh (N.) - Primer ratón comercialmente acertado

conducido, hogar/computadora personal completamente GUI-basados; primer 16/32-bit

1984: Amstrad/Schneider CPC y PCW se extiende (Europa) - estándar británico antes de la PC de IBM; Ventas alemanas al lado de C64 y el Macintosh, de Apple

1985: Atari ST (N.) - Primero con la interfaz incorporada de MIDI; también RAM de 1MB por menos de US$1000

Julio de 1985: Commodore Amiga (N.) (chipset de encargo para los gráficos y el sonido; OS de los trabajos múltiple)

1987: Acer Archimedes (Europa) (basada en el microprocesador Acer-en desarrollo de gran alcance del BRAZO de 32 bit; la mayoría de la computadora personal de gran alcance en su clase en su principio)

Videoconsolas notables

Lo siguiente es una lista de las videoconsolas más populares o más importantes que tuvieron que competir con los computadores personales (PC). Aunque los videojuegos no eran el principal fin de los PC, muchas computadoras tuvieron que competir en dicho mercado contra las videoconsolas, ya que éstas les restaban cuota de mercado. En esta lista se muestran únicamente aquellas videoconsolas que supusieron alguna novedad técnica o tuvieron importancia desde el punto de vista de la popularidad.

Magnavox Odyssey (1972) (primera consola, sin el sonido y sin color, todo-análoga)

Canal F (1976) (primera consola con microprocesador, primera con sonido y en color, y primera consola de Fairchild en utilizar cartuchos). Primera consola exitosa de Atari 2600 (también conocida como Atari VCS) (1977)

Magnavox Odyssey2 (1978) (también conocida como Philips Videopac G7000) (primera con teclado QWERTY)

Milton Bradley Microvision (1979) (Primera consola con cartuchos separables de la consola donde iba cargado el juego; pantalla monocromática de LCD)

Mattel Intellivision (1980) (Dirigida a competir con la Atari 2600, pionera en los 16 bits aunque sus gráficos seguían siendo similares a los de la Atari 2600. Fue la primera consola en incorporar un cable-módem para poder descargarse juegos de la compañía de cable contratada, pero no era capaz de conectarse a Internet, puesto que Internet en aquella época aún no existía como tal).

Vectrex (1982) (Videoconsola con la pantalla incorporada, y cuyos gráficos se representaban con vectores en vez de una matriz de bits)

Atari 5200 (1982) (Primera videoconsola basada en una computadora personal) Colecovision (1982) (La videoconsola más popular de la segunda generación, tenía

8 bits; Primera con gráficos de calidad Arcade)

Page 6: TAREA DE INFORMATICA

Nintendo Entertainment System (NES) (1985) de Nintendo (La videconsola más popular de la tercera generación, tenía 8 bits)

Sega Master System (1986) (Vendió más que la NES en algunas partes de Europa y Brasil; A partir de esta consola las consolas empezaron a resultar realmente populares, debido a su más bajo precio)

Sega Mega Drive/Génesis (1988/1989) (primera consola de 16 bit exitosa) Game Boy (1989) de Nintendo (Primera videoconsola portátil, tuvo muchísimo

éxito y se editaron cientos de juegos para ella) Atari Lynx (1989) (Primeros consola portátil con gráficos en color, tenía un LCD

retroiluminado, no obstante fue un rotundo fracaso comercial). Super NES (1991) (La consola gozo de una gran popularidad en los principales

mercados). Nintendo 64 Play Station Game Cube PS2 (2000) (Fue la primera consola en incluir lector de DVD, lo que hizo subir

notablemente el precio de la máquina en un principio; aunque posteriórmente, gracias a sus continuas bajadas de precio y a su gran catálogo de juegos consiguió ser una de las consolas más populares en la historia de los videojuegos)

Nintendo DS Xbox Wii (2006) PS3 (2006) (Su arquitectura es semejante a la de una computadora, gracias a su

procesador central de 7 núcleos. Aparte de ser un sistema videojuegos, puede ser utilizada para actividades informáticas, mediante la instalación del sistema operativo Linux).

Xbox 360 (2005)(segunda consola de sobremesa lanzada por Microsoft. Destaca por su potente procesador de 3 núcleos, sus juegos en línea, y por ser un gran centro multimedia de juegos, además de una fuerte apuesta por la venta del contenido para la consola a través de Internet).

Software

Un Software es un término general que se utiliza para describir una colección de programas informáticos, procedimientos y documentación que realizar algunas tareas en el sistema de un equipo. el término incluye software de aplicación, como los procesadores de texto que realizan tareas productivas para los usuarios, software de sistema, como los sistemas operativos, que la interfaz con el hardware para proporcionar los servicios necesarios para el software de aplicación, y middleware que controlan y coordinan sistemas distribuidos.

Las aplicaciones de software para procesamiento de textos, navegación por Internet, fax, correo electrónico, reproducción multimedia, juego de equipo y programación informática son comunes. El usuario de un moderno equipo de personal puede poseer conocimientos significativos de los programas operativos de medio ambiente y la aplicación, pero no es necesariamente interesados en programación ni siquiera pueden escribir programas para el

Page 7: TAREA DE INFORMATICA

equipo. Por lo tanto, la mayoría del software escrita principalmente para ordenadores personales tiende a ser diseñado con facilidad de uso. Sin embargo, la industria del software continuamente proporcionan una amplia gama de nuevos productos para su uso en

Sistema operativo

Un sistema operativo (OS) administra los recursos de equipo y proporciona a los programadores con una interfaz que se utiliza para acceder a esos recursos. Un sistema operativo procesa los datos del sistema y la entrada del usuario y responde mediante la asignación y administración de tareas y los recursos del sistema interno como un servicio a los usuarios y programas del sistema. Un sistema operativo realiza tareas básicas como la memoria de control y asignación, dar prioridad a las solicitudes de sistema, control de entrada y dispositivos, facilitar la creación de redes de equipo y la administración de archivos de salida.

Sistemas operativos de escritorio contemporáneos común son Microsoft Windows (90.65 % de participación en el mercado), Mac OS X (7 %), (0,95 %) de Linux, Solaris y FreeBSD. Windows, Mac y Linux todos tienen servidor y variantes personales. Con la excepción de Microsoft Windows, los diseños de cada uno de los sistemas operativos antes mencionados fueron inspirados por, o directamente heredados, el sistema operativo UNIX. UNIX fue desarrollado en los laboratorios Bell a finales del decenio de 1960 y propicia el desarrollo de numerosos sistemas operativos libres como propietarios.

Microsoft Windows

Microsoft Windows es el nombre de marca colectivo de varios sistemas operativo de Microsoft. Microsoft introdujo por primera vez un entorno operativo denominado Windows en noviembre de 1985 como un complemento para MS-DOS en respuesta al creciente interés en las interfaces gráficas de usuario (GUI). la versión más reciente de cliente de Windows es Windows 7 y Windows Server 2008 R2, que estaba disponible para la venta el 22 de octubre de 2009

GNU/Linux

Artículo principal: GNU/Linux

GNU/Linux es una familia de sistemas operativos tipo UNIX. Linux es uno de los ejemplos más prominentes de software libre y el desarrollo de código abierto: normalmente todo el código fuente puede ser libremente modificado, utilizado, y redistribuido por cualquier persona. el nombre "Linux" proviene del núcleo de Linux, comenzado en 1991 por Linus Torvalds. Las utilidades y las bibliotecas del sistema generalmente vienen desde el sistema operativo GNU, anunciado en 1983 por Richard Stallman. La contribución de GNU es la base para el nombre alternativo de GNU/Linux.

Mac OS X

Page 8: TAREA DE INFORMATICA

Mac OS X es una línea de sistemas operativos de gráficas desarrollado, comercializados y vendidos por Apple Inc.. Mac OS X es el sucesor de la original Mac OS, que había sido el sistema operativo principal de Apple desde 1984. A diferencia de sus predecesores, Mac OS X es un sistema operativo basado en UNIX. La versión más reciente de Mac OS X es Mac OS X 10,6 "Snow Leopard", y la actual versión del servidor es Mac OS X Server 10.6.

Historia de los computadores personales

Page 9: TAREA DE INFORMATICA

Niños jugando en un computador Amstrad CPC 464 en los años 1980

La historia de los computadores personales comenzó en los años 1970. Un computador personal esta orientado al uso individual y se diferencia de un computador mainframe, donde las peticiones del usuario final son filtradas a través del personal de operación o un sistema de tiempo compartido, en el cual un procesador grande es compartido por muchos individuos. Después del desarrollo del microprocesador, los computadores personales llegaron a ser más económicos y se popularizaron. Los primeros computadores personales, generalmente llamados microcomputadores, fueron vendidos a menudo como kit electrónicos y en números limitados. Fueron de interés principalmente para los aficionados y técnicos.

Etimología

Originalmente el término "computador personal" apareció en un artículo del New York Times el 3 de noviembre de 1962, informando de la visión de John W. Mauchly sobre el futuro de la computación, según lo detallado en una reciente reunión del American Institute of Industrial Engineers. Mauchly indicó, "No hay razón para suponer que un chico o chica promedio, no pueda ser dueño de un de un computador personal".1

Seis años más tarde un fabricante tomó el riesgo de referirse a su producto de esta manera, cuando Hewlett-Packard hizo publicidad de sus "Powerful Computing Genie" como "El nuevo computador personal Hewlett-Packard 9100A".2 Este anuncio fue juzgado como demasiado radical para la audiencia a la que iba destinado, y fue reemplazado por un anuncio mucho más sobrio para la calculadora programable HP 9100A.3 4

Durante los próximos siete años la frase había ganado suficiente reconocimiento, por lo que cuando la revista Byte publicó su primera edición, se refirió a sus lectores como "en el campo de la computación personal",5 y Creative Computing definió el computador personal como un "sistema de (no)tiempo compartido, contando con suficiente potencia de procesamiento, y capacidades de almacenamiento para satisfacer las necesidades de un

Page 10: TAREA DE INFORMATICA

usuario individual".6 Dos años más tarde, ocurrió lo que la revista Byte llamó la "Trinidad de 1977" de los pequeños computadores pre-ensamblados, ya que llegaron al mercado7 el Apple II y el PET 2001, que fueron promocionados como computadores personales,8 9 mientras que el TRS-80 era descrito como un microcomputador usado para las tareas del hogar incluyendo la "gestión financiera personal". En 1979 fueron vendidos sobre medio millón de microcomputadores y los jóvenes de esos días tuvieron un nuevo concepto del computador personal.10

Introducción

Mainframes, minicomputadores, y microcomputadores

Antes del advenimiento del computador personal, Los terminales de computadora fueron usados para acceso en tiempo compartido de los computadores centrales (mainframes)Artículo principal: MainframeArtículo principal: Minicomputador

Antes de la introducción del microprocesador a principios de los años 1970, los computadores generalmente eran sistemas grandes y costosos cuyos dueños eran grandes corporaciones, universidades, agencias gubernamentales, e instituciones de tamaño similar. Los usuarios finales generalmente no interactuaban directamente con la máquina, sino que preparaban tareas para el computador, en equipos fuera de línea como perforadoras de tarjetas. Varias asignaciones para el computador serían recogidas y procesadas en proceso por lotes. Después de que el trabajo hubiera terminado, los usuarios podían recoger los resultados. En algunos casos podría tardar horas o días entre someter un trabajo al centro de computación y la recepción de la salida.

Una forma más interactiva de uso del computador se desarolló comercialmente por mediados de los años 1960. En un sistema de tiempo compartido, múltiples terminales permitieron a mucha gente compartir el uso de un procesador de computador mainframe. Esto era común en aplicaciones empresariales y en ciencia e ingeniería.

Page 11: TAREA DE INFORMATICA

Un modelo diferente del uso del computador fue presagiado en la manera en que fueron usados los tempranos computadores experimentales precomerciales, donde un usuario tenía uso exclusivo de un procesador.11 En lugares como el MIT, los estudiantes con acceso a algunos de los primeros computadores experimentaron con aplicaciones que hoy serían típicas de un computador personal, por ejemplo, el diseño asistido por computadora fue previsto por el T-square, un programa escrito en 1961, y un ancestro de los juegos de computadora de hoy se encontró en el Spacewar! de 1962. Algunos de los primeros computadores que pudieron haberse llamados "personales" eran minicomputadores tempranos tales como el LINC y el PDP-8, y posteriormente el VAX, y minicomputadores más grandes de Digital Equipment Corporation (DEC), Data General, Prime Computer, y otros. Para los estándares de hoy, eran muy grandes (alrededor del tamaño de un refrigerador) y de costo prohibitivo (típicamente decenas de miles de dólares), y por lo tanto raramente fueron comprados por individuos. Sin embargo, eran mucho más pequeños, menos costosos, y generalmente más simples de operar que muchos de los computadores mainframes de ese tiempo, por lo tanto eran asequibles por laboratorios individuales y proyectos de investigación. Los minicomputadores liberaron en gran parte, a estas organizaciones, del procesamiento por lotes, y de la burocracia de un centro de computación comercial o universitario.

Además, los minicomputadores eran relativamente más interactivos que las unidades centrales, y pronto tendrían sus propios sistemas operativos. El minicomputador Xerox Alto (1973) fue un hito en el desarrollo de los computadores personales, debido a su interface gráfica de usuario, pantalla de mapa de bits de alta resolución, gran almacenamiento de memoria interno y externo, ratón, y software especial.12

Ya en 1945, Vannevar Bush, en un ensayo llamado As We May Think (como podemos pensar), esbozó una posible solución al creciente problema del almacenamiento y la recuperación de información. En lo que fue llamado más tarde como The Mother of All Demos (la madre de todas las demostraciones), el investigador Douglas Engelbart del SRI dio en 1968 una vista preliminar de lo que se convertería en las grapas de la vida laboral diaria en el siglo XXI - email, hipertexto, procesamiento de palabras, video conferencia, y el ratón. La demostración era la culminación de la investigación en el laboratorio Augmentation Research Center de Engelbart, que se concentró en la aplicación de la tecnología de computación para facilitar pensamiento humano creativo.

El microprocesador y la reducción de costos

Los minicomputadores, ancestros del moderno computador personal, usaron una temprana tecnología de circuitos integrados (microchip), que redujo el tamaño y el costo, pero no contenía al microprocesador en un chip. Esto significaba que todavía eran grandes y difíciles de fabricar justo como sus predecesores los mainframes. Después de que el "computador en un chip" fuera comercializado, el costo para manufacturar un sistema de computación cayó dramáticamente. La aritmética, lógica, y funciones de control, que previamente ocuparon varias costosas placas de circuitos impresos ahora estaban disponibles en un solo circuito integrado, haciendo posible producirlos en grandes volúmenes. Concurrentemente, los avances en el desarrollo de la memoria de estado sólido

Page 12: TAREA DE INFORMATICA

eliminaron la abultada, costosa y hambrienta de energía memoria de núcleo magnético usada en previas generaciones de computadores.

Había algunos investigadores en lugares tales como SRI y Xerox PARC que estaban trabajando en computadores que una sola persona pudiera usar y pudieran ser conectados por redes rápidas y versátiles: no computadores caseros, sino computadores personales.

El Intel 4004, el primer microprocesador

Después de la introducción en 1972 del Intel 4004, los costos del los microprocesadores declinaron rápidamente. En 1974 la revista de electrónica estadounidense Radio-Electronics describió el kit de computadora Mark-8, basado en el procesador Intel 8008. En enero del siguiente año, la revista Popular Electronics publicó un artículo que describía un kit basado en el Intel 8080, un procesador algo más potente y más fácil de usar. El Altair 8800 se vendió extraordinariamente bien, aunque el tamaño de la memoria inicial estaba limitado a unos pocos cientos de bytes y no había software disponible. Sin embargo, el kit del Altair era mucho menos costoso que un sistema de desarrollo de Intel de ese tiempo, así que fue comprado por compañías interesadas en desarrollar un control de micrprocesador para sus propios productos. Tarjetas de expansión de memoria y periféricos fueron pronto listadas por los manufacturadores originales, y más tarde por manufacturadores de dispositivos enchufables compatibles. El primer producto de Microsoft fue un interpretador BASIC de 4 kilobytes en cinta de papel perforado, el Altair BASIC, que permitió que los usuarios desarrollaran programas en un lenguaje de alto nivel. La alternativa era ensamblar a mano el código de máquina que podía ser cargado directamente en la memoria del microcomputador usando un panel frontal de conmutadores, botones y LEDs. Mientras que el panel frontal del hardware emulaba a los usados por los primeros mainframes y minicomputadores, después de un corto tiempo, la entrada/salida a través de un terminal era la interface humano/máquina preferida, y los paneles frontales llegaron a extinguirse.

Los principios de la industria del computador personal

Page 13: TAREA DE INFORMATICA

Kenbak-1

El Kenbak-1 es considerado por el Computer History Museum como el primer computador personal del mundo. Fue diseñado e inventado por John Blankenbaker de Kenbak Corporation en 1970, y fue vendido por primera vez a principios de 1971. A diferencia de un computador personal moderno, el Kenbak-1 fue construido con circuitos integrados TTL de baja escala de integración, y no usó un microprocesador. El sistema primero de vendió por $750. Solamente alrededor de 40 máquinas fueron construidas y vendidas. En 1973, la producción del Kenbak-1 se detuvo mientras que Kenbak Corporation desapareció.

Con solamente 256 bytes de memoria, un tamaño palabra de 8 bits, y la entrada y la salida restringida a luces e interruptores, el Kenbak-1 era más útil para aprender los principios de la programación, pero no era capaz de correr programas de aplicación.

Datapoint 2200

1970: Datapoint 2200Artículo principal: Datapoint 2200

Un terminal programable llamado Datapoint 2200 es el más temprano dispositivo conocido que lleva una cierta significativa semejanza al del computador personal moderno, con una pantalla, teclado, y almacenamiento para el programa.13 Fue hecho en 1970 por CTC (ahora conocido como Datapoint), y era un sistema completo en una pequeña carcasa que tenía una base aproximada a la de una máquina de escribir IBM Selectric. El CPU del sistema fue construido de una variedad de componentes discretos, aunque la compañía había comisionado a Intel para que desarrollara una unidad central en un chip; Hubo una ruptura entre CTC e Intel, y el microprocesador que Intel había desarrollado no fue usado. Intel pronto lanzó una versión modificada de ese chip como el Intel 8008, el primer microprocesador de 8 bits del mundo.14 Por lo tanto, las necesidades y los requisitos del Datapoint 2200 determinaron la naturaleza del 8008, sobre el cual fueron basados todos los sucesivos procesadores usados en PC compatibles con IBM. Adicionalmente, el diseño del CPU multi-chip de Datapoint 2200 y el diseño final de Intel 8008 eran tan similares que los dos son en gran parte compatibles en el software; por lo tanto, el Datapoint 2200, desde una perspectiva práctica, puede ser considerado como si de hecho fuera accionado por un 8008, lo que también lo hace un fuerte candidato al título del "primer microcomputador".

Micral N

Page 14: TAREA DE INFORMATICA

La compañía francesa R2E fue formada, por dos ingenieros anteriores de la compañía Intertechnique, para vender su diseño de microcomputador basado en el Intel 8008. El sistema fue originalmente desarrollado en el Institut National de la Recherche Agronomique para automatizar midiciones higrométricas. El sistema corrió a 500 kilociclos e incluyó 16 KB de memoria, y se vendió por 8500 francos, (como $1300).

Un bus, llamado Pluribus fue introducido y permitía la conexión de hasta 14 tarjetas. Diferentes tarjetas para entrada/salida digital, entrada/salida análoga, memoria, disco floppy, estaban disponibles por R2E. El sistema operativo de Micral fue llamado inicialmente Sysmic, y fue más tarde renombrado Prologue. R2E fue absorbida por Groupe Bull en 1978. Aunque Groupe Bull continuara la producción de computadoras Micral, no estaba interesado en el mercado del computador personal. y los computadores Micral fueron confinadas sobre todo a las puertas de peaje de las carreteras (donde permanecieron en servicio hasta 1992) y similares nichos de mercado.

Xerox Alto y Xerox Star

1973: Xerox AltoArtículo principal: Xerox AltoArtículo principal: Xerox Star

El Xerox Alto, desarrollado en Xerox PARC en 1973, fue el primer computador en usar un ratón, la metáfora de escritorio, y una interface gráfica de usuario (GUI), conceptos introducidos por primera vez por Douglas Engelbart mientras estaba en SRI international. Fue el primer ejemplo de lo que hoy en día sería reconocido como un computador personal completo.

En 1981, la Xerox Corporation introdujo la estación de trabajo Xerox Star, oficialmente conocida como el "8010 Star Information System". Dibujada sobre su predecesor, el Xerox Alto, era el primer sistema comercial en incorporar varias tecnologías que hoy han llegado a ser corrientes en computadores personales, incluyendo una exhibición de mapa de bits, una interface gráfica de usuario basada en ventanas, íconos, carpetas, ratón, red de Ethernet,

Page 15: TAREA DE INFORMATICA

servidores de archivos, servidores de impresoras y email. También incluyó un lenguaje de programación de sistema llamado Smalltalk.

Mientras que su uso fue limitado a los ingenieros en Xerox PARC, el Alto tenía características años delantado a su tiempo. El Xerox Alto y el Xerox Star inspirarían al Apple Lisa y al Apple Macintosh.

IBM 5100

IBM 5100

El IBM 5100 era una computadora de escritorio introducido en septiembre de 1975, seis años antes del IBM PC. Era la evolución de un prototipo llamado Special Computer APL Machine Portable (SCAMP) que IBM demostró en 1973. En enero de 1978 IBM anunció al IBM 5110, su primo más grande. El 5100 fue retirado en marzo de 1982.

Cuando el IBM PC fue introducido en 1981, fue originalmente designado como el IBM 5150, poniéndolo en la serie del "5100", aunque su arquitectura no descendia directamente del IBM 5100.

Altair 8800

1975: Altair 8800

El desarrollo del microprocesador en un solo chip fue la entrada a la popularización de los verdaderos computadores personales baratos y fáciles de usar. Era solamente una cuestión de tiempo antes de que uno de tales diseños pudiera impactar un punto ideal en términos de

Page 16: TAREA DE INFORMATICA

precio y desempeño, y esa máquina es considerada generalmente como el Altair 8800, de MITS, una empresa pequeña que producía kits electrónicos para los aficionados.

El Altair fue introducido en un artículo de la revista Popular Electronics en la edición de enero de 1975. Similarmente a los proyectos anteriores de MITS, el Altair fue vendido en forma de kit, aunque uno relativamente complejo consistiendo de cuatro placas de circuito y muchas partes. Valorado en solamente $400, el Altair sorprendió a sus creadores cuando generó miles de órdenes en el primer mes. Incapaz de manejar la demanda, MITS eventualmente vendió el diseño después de que cerca que 10.000 kits de equipos fueron despachados.

La introducción del Altair generó una industria entera basada en la diagramación básica y el diseño interno. Nuevas compañías como Cromemco comenzaron para suplir kits adicionales, mientras que Microsoft fue fundado para suministrar un interpretador BASIC para los sistemas. Poco después, un número de diseños completos de clones apareció en el mercado, tipificados por el IMSAI 8080. Esto llevó a una amplia variedad de sistemas basados en el bus S-100 introducido con el Altair, máquinas de un generalmente mejorado desempeño, calidad y facilidad de uso.

El Altair y los clones tempranos, eran relativamente difíciles de usar. Las máquinas no contenían ningún sistema operativo en ROM, así que arrancarla requería un programa en lenguaje de máquina ingresado a mano por medio de los interruptores del panel frontal, una posición a la vez. El programa era típicamente un pequeño driver para un lector de [Cinta perforada|cinta de papel perforado]], que entonces sería usado para leer otro programa "real". Sistemas posteriores añadieron código bootstrapping para mejorar este proceso, y las máquinas llegaron a ser casi universalmente asociadas con el sistema operativo CP/M, cargado desde un disco floppy.

El Altair creó una nueva industria de microcomputadores y de kits de computador, con muchos otras siguiendo, por ejemplo una ola de pequeños computadores de empresa basados en los microprocesadores Intel 8080, Zilog Z80 e Intel 8085 a finales de los años 1970. La mayoría corrían con el sistema operativo CP/M-80 desarrollado por Gary Kildall en Digital Research. El CP/M-80 era el primer sistema operativo popular para microcomputador a ser usado por muchos diferentes vendedores de hardware, y muchos paquetes de software fueron escritos para él, como el WordStar y dBase II.

Homebrew Computer Club

Aunque el Altair generara un negocio entero, otro efecto secundario que tuvo fue demostrar que el microprocesador había reducido tanto el costo y la complejidad de construir un microcomputador que cualquier persona con un interés podría construir su propia máquina. Muchos de tales aficionados se reunieron e intercambiaron notas en las reuniones del Homebrew Computer Club (HCC) en Silicon Valley. Aunque el HCC fuera relativamente de corta vida, su influencia en el desarrollo del moderno PC fue enorme.

Page 17: TAREA DE INFORMATICA

Los miembros del grupo se quejaban de que los microcomputadores nunca llegarían a ser corrientes si todavía tuvieran que ser hechos, de partes como el Altair original, o aún en términos de ensamblar varios add-ons que convirtieran a la máquina en un sistema útil. Lo que ellos sentían necesario era un sistema todo en uno. De este deseo vino el computador Sol-20, que puso un sistema S-100 completo - teclado QWERTY, CPU, tarjeta de video, memoria y puertos - en una sola caja atractiva. Los sistemas fueron empaquetados con un interface de cinta de cassette para el almacenamiento y un monitor de 12" en blanco y negro. Completo con una copia de BASIC, el sistema se vendió por US$2,100. Cerca de 10.000 sistemas Sol-20 fueron vendidos.

Aunque el Sol-20 fuera el primer sistema todo en uno que reconoceríamos hoy, el concepto básico ondulaba ya a través de otros miembros del grupo, y de compañías externas interesadas.

Otras máquinas de la era

Otras máquinas de 1977 que fueron importantes dentro de la comunidad del aficionado en ese entonces incluyeron el Exidy Sorcerer, el NorthStar Horizon, y el Heathkit H8.

1977 y la aparición de la "Trinidad"

Por 1976, habían varias empresas que competían para introducir los primeros verdaderamente exitosos computadores personales comerciales. Tres máquinas, Apple II, TRS-80 y PET 2001 fueron lanzadas en 1977, eventualmente vendiendo millones de máquinas. La revista Byte posteriormente se refirió a su lanzamiento como la "Trinidad de 1977".

Apple II

abril de 1977: Apple II

Steve Wozniak (conocido como "Woz"), visitante regular a las reuniones del Homebrew Computer Club, diseñó el computador de tarjeta única Apple I y lo demostró por primera

Page 18: TAREA DE INFORMATICA

vez allí. Con especificaciones en la mano y un pedido de Byte Shop para 100 máquinas en $500,00 dólares cada uno, Woz y su amigo Steve Jobs fundaron Apple Computer.

Alrededor de 200 de las máquinas se vendieron antes de que la compañía anunciara el Apple II como un computador completo. Tenía gráficos de color, un teclado QWERTY completo, y ranuras internas para la expansión, que fueron montados en una carcasa de plástico estilizado de alta calidad. El monitor y los dispositivos de entrada/salida fueron vendidos por separado. El sistema operativo original del Apple II era solamente el interpretador Integer BASIC contenido en el ROM. El Apple DOS fue añadido para soportar la unidad de diskette; la última versión fue el "Apple DOS 3,3".

Su más alto precio y la falta de un BASIC de punto flotante, junto con una falta de sitios de distribución al por menor, lo hicieron retrasarse en ventas detrás de otras máquinas de la Trinidad hasta 1979, cuando superó al PET. Fue empujada otra vez al 4to lugar cuando Atari introdujo sus populares sistemas Atari de 8 bits.15

A pesar de las lentas ventas iniciales, el tiempo de vida del Apple II fue cerca de ocho años más largo que otras máquinas, y así acumuló las ventas totales más altas. En 1985, 2,1 millones habían sido vendidos y más de 4 millones de Apple II fueron despachados al final de su producción en 1993.16

TRS-80

Noviembre de 1977: TRS-80 Modelo I

Tandy Corporation introdujo el TRS-80, conocido retroactivamente como el Model I (Modelo I) cuando fueron introducidos modelos mejorados. El Modelo I combinó la tarjeta madre y el teclado en una sola unidad con un monitor y una fuente de alimentación separados. Aunque el PET y Apple II ofrecieran ciertas características que fueron grandemente avanzadas en comparación, las estanterías de las más de 3000 tiendas Radio Shack de Tandy aseguraron de que tuviera una extensa distribución que ni Apple ni Commodore podían tocar.

El Modelo I usó un procesador Zilog Z80 con un reloj de 1,77 MHz (los modelos posteriores fueron despachados con un procesador Z80A). El modelo básico originalmente

Page 19: TAREA DE INFORMATICA

se despachaba con 4 KB de RAM, y más tarde con 16 KB. Sus otras características fuertes eran su teclado QWERTY completo, tamaño pequeño, bien escrito BASIC de punto flotante e inclusión de un monitor y de un grabador de cassettes todo por $599 dólares, un ahorro de $600 sobre el Apple II.

El Modelo I corrió con un cierto problema cumpliendo las regulaciones de la FCC sobre interferencia de radio debido a su carcasa de plástico y cables exteriores. Apple había resuelto este problema con una hoja metálica interior pero este remiendo no trabajaría en el Modelo I.17 Puesto que el Modelo II y el Modelo III estaban ya en producción, Tandy decidido para de fabricar el Modelo I. Radio Shack había vendido 1,5 millones de Modelo I para su cancelación en 1981.17 Ya que los Model II y Model III ya estaban en producción, Tandy decidió parar la fabricación del Modelo I. Radio Shack había vendido 1,5 millones de modelos I para el momento de la cancelación en 1981.16

PET

Octubre 1977: Commodore PET

Chuck Peddle diseñó el Commodore PET (abreviación de Personal Electronic Transactor) alrededor del procesador MOS 6502. Era esencialmente un computador de tarjeta única con un nuevo chip de exhibición de pantalla (el MOS 6545) que manejaba un pequeño monitor monocromático incorporado con gráficos de caracteres de 40×25. La tarjeta procesadora, el teclado, monitor y unidad de cassette estaban todos montados en una sola caja metálica. En 1982, Byte se refirió al diseño del PET como "el primer computador personal del mundo".18

El PET se despachó en dos modelos; el 2001-4 con 4 KB de RAM, y el 2001-8 con 8 KB. La máquina también incluyó incorporado en el frente de la carcasa un Datassette para el almacenamiento de datos, que dio poco espacio para el teclado. El 2001 fue anunciado en junio de 1977 y las primeras 100 unidades fueron enviadas a mediados de octubre de 1977.19 Sin embargo se mantuvieron órdenes de pedido pendientes por meses, y para facilitar las entregas eventualmente cancelaron la versión de 4 kB a principios del siguiente año.

Aunque la máquina fuera bastante exitosa, había quejas frecuentes sobre el minúsculo teclado tipo calculadora, designado a menudo un "Teclado tipo chiclet" debido a la semejanza de las teclas al popular caramelo de chiclet. Esto fue corregido en las versiones actualizadas del "dash N" y "dash B" del 2001, que pusieron el cassette fuera de la carcasa, e incluían un teclado mucho más grande con un movimiento completo. Internamente fue utilizada una tarjeta madre más nueva y más simple, junto con una mejora en memoria a 8, 16, ó 32 KB, conocidos como el 2001-N-8, 2001-N-16 ó 2001-N-32, respectivamente.

Page 20: TAREA DE INFORMATICA

El PET fue el menos excitoso de las máquinas de la Trinidad de 1977, con menos de 1 millón en ventas.16

Computadores caseros

Aunque el éxito de las máquinas de la Trinidad fuera relativamente limitado en términos globales, a medida que los precios de los componentes continuaron bajando, muchas compañías entraron al negocio de la computación. Esto llevó a una explosión de máquinas de bajo costo conocidas como computadores caseros que vendieron millones de unidades antes de que el mercado implosionara en una guerra de precios a principios de los años 1980.

Atari 400/800

1979: Atari 800

Atari era una marca bien conocida a finales de los años 1970, tanto por sus exitosos juegos de arcade como Pong, así como por la enormemente excitosa videoconsola Atari VCS. Dándose cuenta que el VCS tendría un tiempo de vida limitado en el mercado antes de que viniera un competidor técnicamente avanzado, Atari decidió que ellos serían ese competidor, y comenzó a trabajar sobre un nuevo diseño de consola que era mucho más avanzado.

Mientras estos diseños eran desarrollados, las máquinas de la Trinidad golpearon el mercado con considerable fanfarria. La gestión de Atari decidió cambiar su trabajo de una cónsola de video a un sistema de computador casero. Su conocimiento del mercado casero a través del VCS resultó en máquinas que eran casi indestructibles y tan fáciles de usar como una máquina de juegos - simplemente se enchufaba un cartucho y listo. Las nuevas máquinas fueron introducidas por primera vez en 1978 como los Atari 400 y Atari 800, pero problemas de producción significaron que las ventas extensas no comenzaran hasta el año siguiente.

En ese tiempo, las máquinas ofrecieron lo que entonces era un rendimiento mucho más alto que los diseños contemporáneos y un número de características gráficas y de sonido que ningún otro microcomputador podía igualar. Como consecuencia, llegaron a ser muy populares, rápidamente eclipsando las máquinas de la Trinidad en ventas. A pesar de un comienzo prometedor con cerca de 600.000 vendidas en 1981, la guerra de precios que se avecinaba dejó a Atari en una mala posición. No podían competir efectivamente con

Page 21: TAREA DE INFORMATICA

Commodore, y solamente cerca de 2 millones de máquinas fueron producidas para el final de su producción.16

Texas Instruments TI-99

TI-99: Texas Instruments TI-99/4A

Texas Instruments (TI), en ese entonces el fabricante más grande del mundo de chips, decidió entrar al mercado del computador personal con el Texas Instruments TI-99/4A. Anunciado mucho antes de su llegada, la mayoría de los observadores industriales esperaban que la máquina barriera toda la competencia - en el papel su desempeño era intocable, y TI tenía reservas de efectivo y una capacidad enorme de desarrollo.

Cuando fue lanzado, a finales de 1979, TI llevó un acercamiento algo lento para la introducción, inicialmente enfocándose en las escuelas. Contrario a las predicciones anteriores, las limitaciones del TI-99 significaron que no era el asesino gigante que todo el mundo esperada, y un número de sus características de diseño fueran altamente controversiales. Un total de 2,8 millones de unidades fueron despachadas antes de que el TI-99/4A fuera descontinuado en marzo de 1984.

Commodore VIC-20, Commodore 64 y Commodore Amiga

1982: Commodore 64Artículo principal: Commodore VIC-20Artículo principal: Commodore 64Artículo principal: Commodore Amiga

Dándose cuenta que el PET no podría competir fácilmente con las máquinas de color como Apple II y Atari, Commodore introdujo el VIC-20 para dirigirse el mercado casero. Las limitaciones debido a una minúscula memoria de 4 KB y a su exhibición relativamente limitada en comparación a otras máquinas fueron compensadas por un precio bajo y siempre cayendo. Millones de VIC-20 fueron vendidos.

Page 22: TAREA DE INFORMATICA

El computador personal con mejores ventas de todos los tiempos fue lanzado por Commodore International en 1982: El Commodore 64 (C64) vendió más de 17 millones de unidades antes de su fin.16 20 El nombre C64 era derivado de sus 64KB de RAM y también vino con una ranura lateral de soporte para cartuchos ROM. Usó el microprocesador MOS 6510; MOS Technology, Inc. le pertenecía entonces a Commodore.

Entre 1985 y 1994 Commodore comercializó la serie de ordenadores Amiga como sucesora del C64. Fue introducida con el Amiga 1000, el cual iba equipado con un microprocesador Motorola MC68000 a 7,14 MHz. El modelo más exitoso, debido a sus buenas prestaciones y buen precio, fue el Amiga 500, lanzado en 1987.

BBC Micro

El BBC Micro

La BBC se interesó en hacer una serie en alfabetismo en computadores, y envió una propuesta para que un pequeño computador estandardizado fuera usado con el show. Después de examinar varios participantes, seleccionaron lo que era conocido entonces como el Acorn Proton e hicieron un número de cambios menores para producir el BBC Micro. El Micro era relativamente costoso, lo que limitó su atractivo comercial, pero con un mercadeo extenso, el soporte de la BBC y la gran variedad de programas, eventualmente se vendieron como 1,5 millones de unidades del sistema. Acorn fue rescatada de la oscuridad, y se fue a desarrollar el procesador del ARM (Acorn RISC Machine) para accionar los siguientes diseños. El ARM es ampliamente usado hasta el día de hoy, accionando una amplia variedad de productos como el iPhone.

Guerra de precios y desplome

Anteriormente, Texas Instruments había sacado a Commodore del mercado de las calculadoras bajando el precio de las calculadoras de su propia marca a menos del costo de los chipsets que ellos vendían a terceros para hacer el mismo diseño. El CEO de Commodore, Jack Tramiel, juró que esto no sucedería otra vez, y compró MOS Technology, Inc. para asegurar una fuente de chips. Con su fuente garantizada, y buen control sobre el precio de los componentes, Tramiel deliberadamente puso en marcha una guerra contra TI poco después de la introducción del Commodore 64.

El resultado fueron ventas masivas del Commodore 64, no obstante con casi ningún beneficio. Y mientras que el blanco de Tramiel era TI, todo el mundo en el mercado del computador personal fue dañado por el proceso, muchas compañías yendo a la bancarrota o saliendo del negocio. Al final, incluso las propias finanzas de Commodore fueron lisiadas

Page 23: TAREA DE INFORMATICA

por las demandas de financiar la expansión masiva del edificio necesaria para despachar las máquinas, y Tramiel fue sacado de la compañía.

Atari y Commodore fueron las únicos dos grandes actores que quedaron en el mercado por 1984, y ambas tenían un piso financiero tambalenate. Además, los compradores de sistemas encontraron que la inutilidad real de los computadores en los hogares era algo limitante. Aparte de jugar juegos, había pocos usos que podía soportar el mercado. Las telecomunicaciones era una afición popular, pero todavía era un esfuerzo altamente técnico en el mundo previo a la era del World Wide Web. Las aplicaciones de negocio podían correr bien en estas máquinas, pero la posibilidad de vender una máquina con el nombre Atari en ella, a los negocios era cercana a cero.

El IBM PC

1981: IBM 5150 (el IBM PC)

IBM respondió al éxito del Apple II con el IBM PC, lanzado en agosto de 1981. Como el Apple II y los sistemas S-100, estaba basado en una arquitectura abierta basada en tarjetas, que permitía a terceros desarrollar en ella. Usaba el CPU Intel 8088 corriendo a 4,77 MHz, que contenía 29.000 transistores. El primer modelo usaba un cassette de audio para almacenamiento externo, aunque había una costosa opción de disco floppy. La opción del cassette nunca fue popular y fue removida en el IBM XT de 1983.21 El XT añadió un disco duro de 10 MB en el lugar de uno de los dos discos floppy e incrementó el número de slots de 5 a 8. Mientras que el diseño original del PC podía acomodar solo hasta 64 KB en la tarjeta madre, la arquitectura era capaz de acomodar hasta 640 KB de RAM en total, con el resto en tarjetas. Versiones posteriores del diseño incrementaron el límite a 256 KB en la tarjeta madre.

El IBM PC típico venía con el PC-DOS, un sistema operativo basado en el CP/M-80 de Gary Kildall. En 1980, IBM se acercó a Digital Research, la compañía de Kildall, para una versión del CP/M para su próximo IBM PC. La esposa y compañera de negocios de Kildall, Dorothy McEwen, se reunió con los representantes de IBM quienes fueron incapaces de negociar un acuerdo estándar de confidencialidad con ella. IBM se volvió a Bill Gates, quien ya estaba proporcionando el interpretador ROM BASIC para el PC. Gates ofreció proporcionar el 86-DOS, desarrollado por Tim Paterson de Seattle Computer Products. IBM lo renombró como PC-DOS mientras que Microsoft posteriormente vendió variaciones y actualizaciones como MS-DOS.

Page 24: TAREA DE INFORMATICA

El impacto del Apple II y del IBM PC fue completamente demostrado cuando la revista Time nombró al computador casero como la "Máquina del año", o Persona del año de 1982 (3 de enero de 1983, "The Computer Moves In"). Fue la primera vez en la historia de la revista que a un objeto inanimado le fuera otorgado este premio.

Clones del IBM PC

El diseño original del IBM PC fue seguido en 1983 por el IBM XT, que fue un diseño mejorado incrementalmente; Omitió el soporte para el cassette, tenía más slots para tarjetas, y estuvo disponible con un disco duro de 10 MB. Aunque obligatorio al principio, la unidad de disco duro fue posteriormente una opción y fue vendido un XT con dos discos floppy. Mientras que el límite arquitectural de la memoria de 640 KB fue el mismo, versiones posteriores fueron más fácilmente expandibles.

Aunque el PC y el XT incluyeron una versión del lenguaje BASIC en memoria de solo lectura, la mayoría eran comprados con unidades de disco y corrían con un sistema operativo; tres sistemas operativos fueron anunciados inicialmente con el PC. Uno fue el CP/M-86 de Digital Research, el segundo fue el PC-DOS de IBM, y el tercero fue el UCSD p-System (de la Universidad de California en San Diego). El PC-DOS fue la versión de marca de IBM de un sistema operativo de Microsoft, anteriormente mejor conocido por suministrar sistemas de lenguaje BASIC a las compañías de hardware de computadora. Cuando se vendía por Microsoft, el PC-DOS era llamado MS-DOS. El UCSD p-System OS fue hecho alrededor del lenguaje de programación Pascal y no fue mercadeado para el mismo nicho que los clientes de IBM. Ni el p-System ni el CPM-86 fueron éxitos comerciales.

Debido a que el MS-DOS estaba disponible como un producto separado, algunas compañías intentaron hacer computadores disponibles que pudieran correr el MS-DOS y programas. Estas tempranas máquinas, incluyendo el ACT Apricot, el DEC Rainbow 100, el Hewlett-Packard HP-150, el Seequa Chameleon y muchos otros, no fueron especialmente exitosas, pues requerían una versión adaptada del MS-DOS, y no podían correr programas específicamente diseñados para el hardware de IBM. (ver lista de tempranos PCs compatibles del IBM PC). Las primeras máquinas verdaderamente compatibles vinieron de Compaq, aunque otras pronto siguieron.

Debido a que el IBM PC fue basado en circuitos integrados relativamente estándar, y el diseño básico de la ranura de tarjetas no fue patentado, la porción clave del hardware era realmente el software BIOS embebido en la memoria de solo lectura.

En 1984, IBM introdujo el IBM Personal Computer/AT (llamado más frecuentemente el PC/AT o AT) construido alrededor del microprocesador Intel 80286. Este chip fue mucho más rápido y podía direccionar hasta 16 MB de RAM pero solo en un modo que en gran parte rompía la compatibilidad con el anterior 8086 y 8088. En particular, el sistema operativo MS-DOS no fue capaz de tomar ventaja de esta capacidad.

Apple Lisa y Macintosh

Page 25: TAREA DE INFORMATICA

1984: Apple Macintosh

1983: Apple Lisa

En 1983 Apple Computer introdujo el primer microcomputador mercadeado masivamente con una interface gráfica de usuario, el Lisa. El Lisa corría sobre un microprocesador Motorola 68000 y vino equipado con 1 MB de RAM, un monitor de 12 pulgadas en blanco y negro, doble unidad de disco floppy de 5¼ pulgadas y un disco duro Profile de 5 megabytes. Sin embargo, la lenta velocidad del sistema operativo del Lisa y el alto precio ($10.000) llevaron a su fracaso comercial. También llevó a Steve Jobs a la decisión de moverse para el equipo del Apple Macintosh.

Basándose en la experiencia del Lisa, en 1984 Apple lanzó el Macintosh. Su debut fue anunciado en una sola transmisión durante el Super Bowl XVIII de 1984 del, ahora famoso, comercial de televisión "1984" creado por Ridley Scott y basado en la novela 1984 de George Orwell. La intención del comercial fue igualar al Hermano Mayor con el IBM PC y una anónima heroína femenina de acción (retratada por Anya Major), con el Macintosh.

El Mac fue el primer computador exitoso manejado por un ratón con una interface gráfica de usuario o "WIMP" (Windows, Icons, Menus, and Pointers) (Ventanas, Íconos, Menús y Punteros). Basado en el microprocesador Motorola 68000, el Macintosh incluyó muchas de las características del Lisa a un precio de $2,495. El Macintosh fue introducido inicialmente con 128 KB de RAM y más tarde en ese año estuvo disponible el modelo con 512 KB de RAM. Para reducir costos comparado con el Lisa, el un año más joven Macintosh, tuvo un diseño de tarjeta madre simplificado, sin disco duro interno, y una sola unidad de disco floppy de 3.5". Las aplicaciones que vinieron con el Macintosh incluyeron el MacPaint, un

Page 26: TAREA DE INFORMATICA

programa de gráficos de mapa de bits, y MacWrite, que demostró el procesamiento de palabras WYSIWYG.

Aunque no fué un éxito inmediato tras su lanzamiento, El Macintosh fue un computador personal exitoso en años por venir. Esto es debido particularmente a la introducción de la publicación de escritorio en 1985 a través de la asociación de Apple con Adobe. Esta asociación introdujo la impresora LaserWriter y Aldus PageMaker (ahora Adobe PageMaker) a los usuarios de computadores personales. Después Steve Jobs renunció a Apple en 1985 para comenzar con el NeXT. Un número de diferentes modelos de Macintosh, incluyendo el Macintosh Plus y el Macintosh II, fueron lanzados con un alto grado de éxito. La linea entera de los computadorees Macintosh fue la mayor competencia a IBM hasta principios de los años 1990.

Las GUI proliferan

1985: Atari ST

En el mundo de Commodore, el GEOS estaba disponible en el Commodore 64 y el Commodore 128. Mas tarde, una versión estuvo disponible para los PC corriendo DOS. Podía usarse con un ratón o un joystick como dispositivo de apuntar, y vino con una suite de aplicaciones GUI. La última línea de productos Commodore, la plataforma Amiga, corría un sistema operativo con GUI por defecto. El Amiga estableció el plan piloto para el desarrollo futuro de los computadores personales con sus innovadoras capacidades de gráficos y sonidos. Byte lo llamó "el primer computador multimedia... tan adelantado a su tiempo que casi nadie pudo articular completamente de lo que se trataba".22

En 1985, el Atari ST, también basado en el microprocesador Motorola 68000, fue introducido con el primer GUI de color en el Atari TOS. Podía ser modificado para emular el Macintosh usando el dispositivo Spectre GCR de un tercero.

En 1987, Acorn lanzó el Archimedes, un rango de computadores caseros de alto desempeño en Europa y Australia. Basado alrededor de su procesador ARM RISC de 32 bits, los sistemas se despacharon inicialmente con un GUI llamado Arthur. En 1999, Arthur fue sustituido por un sistema operativo multitarea basado en GUI llamado RISC OS. Por defecto, el ratón usado en estos computadores tenía tres botones.

Los clones de PC dominan

Page 27: TAREA DE INFORMATICA

La transición entre el mercado de compatibles de PC siendo liderado por IBM a uno liderado primariamente por un mercado más ámplio comenzó a estar claro en 1986 y 1987; en 1986 fue lanzado el microprocesador Intel 80386 de 32 bits, y el primer computador compatible PC basado en el 386 fue el Compaq Deskpro 386. La respuesta de IBM vino cerca de un año más tarde con el lanzamiento inicial de la serie de computadores IBM Personal System/2, que tenían una arquitectura cerrada y fueron una desviación del emergente "PC estándar". Estos modelos fueron grandemente no exitosos, y las máquinas de estilo clon de PC superaron las ventas de todas las otras máquinas a lo largo de este período. 23 Hacia el final de los 1980, los clones de IBM XT comenzaron a tomar el control del segmento del mercado del computador casero de los fabricantes especializados como Commodore International y Atari que habían dominado previamente. Estos sistemas típicamente se vendieron por justo bajo el "mágico" punto de precio de $1000 (típicamente $999) y fueron vendidos vía pedido por correo en vez de una tradicional red de distribución. Este precio fue logrado al usar tecnología vieja de 8/16 bits, como con el CPU 8088, en vez de los 32 bits de los últimos CPU Intel. Estos CPU eran usualmente hechos por un tercero cono Cyrix o AMD. Dell comenzó como uno de esos fabricantes, bajo su nombre original PC Limited.

Décadas de 1990 y 2000

NeXT

En 1990, el computador estación de trabajo NeXTstation salió a la venta, para computación "interpersonal", como lo describió Steve Jobs. El NeXTstation se pretendía que fuera un computador para los años 1990, y fue una más barata versión que el previo NeXT Computer. El NeXTstation fue un tanto un fracaso comercial, y NeXT cerró sus operaciones de hardware en 1993.

CD-ROM y CD-RW, MP3

Las unidades de CD-ROM y CD-RW se volvieron estándar para la mayoría de los computadores personales

Los principios de los años 1990 vieron el advenimiento del CD-ROM como un estándar de la industria por venir, y a mediados de los años 1990 habia uno incorporado en casi todos los computadores de escritorio y hacia el final de los años 1990, también en laptops. Aunque introducido en 1982, el CD-ROM fue en su mayor parte usado para el audio durante los años 1980, y entonces para los datos de computadora como con los sistemas operativos y aplicaciones en los años 1990. Otro popular uso de los CD-ROM en los años

Page 28: TAREA DE INFORMATICA

1990 fue su uso multimedia, a medida que muchos computadores de escritorio comenzaron a incluir altavoces estéreo incorporados, capaces de reproducir música con calidad de CD y sonidos con la tarjeta de sonido Sound Blaster en los PC.

El ROM en el CD-ROM significa Read Only Memory (memoria de solo lectura). Posteriormente, unidades reescribibles CD-RW fueron incluidas en lugar de las unidades de CD ROM estándar. Esto permitió a los computadores personales la capacidad de "quemar" CD's de audio estándar que eran reproducibles en cualquier reproductor de CD. Mas tarde, a medida que el hardware de computadora fuera más poderoso y el formato mp3 se hizo popular, "ripear" CDs en archivos comprimidos pequeños en el disco duro del computador se volvió habitual. Redes de computadores de intercambio de archivos como Napster y Gnutella surgieron y para muchos individuos supuso la actividad primaria del computador.

ThinkPad

IBM ThinkPad R51

IBM introdujo su exitoso rango ThinkPad en COMDEX 1992 usando la serie de designadores 300,500 y 700 (pretendidamente análogo al rango de coches BMW y usado para indicar el mercado), La serie 300 siendo el "económico", la serie 500 el "rango medio" y la serie 700 el "rango alto". Esta designación continuó hasta finales de los 1990 cuando IBM introdujo a serie "T" como reemplazo de las series 600/700, y los modelos de las series 3, 5 y 7 fueron eliminados y sustituidos por las series A (367) y X (5). La serie A fue más tarde parcialmente reemplazada por la serie R.

Zip drive

En 1994, el Zip drive fue introducido por Iomega como un sistema de almacenamiento de disco renovable de mediana capacidad. Apuntaba a reemplazar el disco floppy estándar de 5,5 pulgadas pero falló en hacerlo. Antes de que el Zip fuera introducido, SyQuest fue una marca popular de medios y unidades renovables, pero eran costosas y grandemente sin éxito debido a problemas de confiabilidad. Para el 2008, Los Zip drives todavía eran vendidos, sin embargo los CD escribibles son más comunes.

Page 29: TAREA DE INFORMATICA

Dell

Por mediados de los años 1990, los sistemas Amiga, Commodore y Atari, ya no estaban en el mercado, sacados por la fuerte competencia y los bajos precios de los clones del IBM PC. Otras competencias previas como el Sinclair y Amstrad ya no estaban en el mercado de los computadores. Con menos competencia que antes, Dell ascendió para tener altas ganancias y éxito, introduciendo sistemas de bajo costo apuntando a mercados de consumidores y de negocios usando un modelo de ventas directas. Dell superó a Compaq como el fabricante de computadores más grande del mundo y mantuvo esa posición hasta octubre de 2006.

Power Macintosh, PowerPC

En 1994, Apple introdujo la serie Power Macintosh de computadores de escritorio de rango alto para la publicación de escritorio y diseñadores gráficos. Estos nuevos computadores hicieron uso de los nuevos procesadores Motorola PowerPC como parte de la AIM alliance, para reemplazar la arquitectura Motorola 68k previamente usada para la línea Macintosh. Durante los 1990, el Macintosh se mantuvo con una reducida cuota de mercado, pero fue la primera opción para los profesionales creativos, particularmente los de las industrias gráficas y de publicación.

Risc PC

También en 1994, Acorn Computers lanzó su serie Risc PC de computadores de escritorio de rango alto. El Risc PC (nombre código Medusa) fue la siguiente generación de computadores RISC OS de Acorn basados en el ARM, que sustituía al Acorn Archimedes.

BeBox

En 1995, Be Inc. lanzó el computador BeBox, un procesador PowerPC 603 dual corriendo a 66 MHz, y posteriormente a 133 Mhz con el sistema operativo BeOS. El BeBox fue grandemente un fracaso, con menos de 2.000 unidades producidas entre octubre de 1995 y enero de 1997, cuando la producción cesó.

Los clones como estándar, resurgimiento de Apple

Page 30: TAREA DE INFORMATICA

El iMac de 1998 trajo a Apple de vuelta a los beneficios

Debido al crecimiento en ventas de los clones de IBM en los años 1990, éstos se convirtieron en el estándar para los usos en los negocios y el hogar. Este crecimiento fue aumentado por la introducción del sistema operativo Microsoft Windows 3.0 en 1990, y seguido por los sistemas operativos Windows 3.1 en 1992 y Windows 95 en 1995. El Macintosh fue enviado a un período de declinación a mediados de los años 1990, y por 1996, Apple casi estaba en bancarrota. Steve Jobs retornó a Apple en 1997 y llevó a Apple de vuelta a la rentabilidad, primeramente con el lanzamiento del Mac OS 8, un nuevo sistema operativo para los computadores Macintosh, y con los computadores PowerMac G3 y el iMac para los mercados profesional y hogareño. El iMac fue notable por su carcasa azul de cuerpo transparente en una forma ergonómica, así como por descartar dispositivos heredados como el disco floppy y los puertos seriales en favor de la conectividad Ethernet y USB. El iMac vendió varios millones de unidades y un modelo subsecuente usando un factor de forma diferente permaneció en producción hasta julio de 2008. El Mac OS X, el iLife y el iBook fueron posteriormente introducidos por Apple.

Rambus RDRAM

Las primeras tarjetas madres en soportar la memoria Rambus RDRAM (Rambus Direct DRAM), un tipo de RAM dinámica sincrónica, fueron lanzadas en 1999. RDRAM también tenía dos a tres veces el precio de una SDRAM PC 133 debido a una combinación de alto costo de fabricación y altas tarifas de licencia. La RDRAM es muy rara hoy en día.

USB, reproductor de DVD

Desde finales de los años 1990, comenzaron a venderse muchos más computadores que incluían puertos Universal Serial Bus (USB) para fácil conectividad Plug and Play con dispositivos como cámaras digitales, cámaras de video, asistentes digitales personales, impresoras, scanners, unidades flash USB, y otros dispositivos periféricos. Hacia principios del siglo XXI, todos los computadores vendidos para el mercado de consumo incluyeron al menos 2 puertos USB. También durante finales de los años 1990, los reproductores DVD comenzaron a aparecer en los computadores de escritorio y laptops de alta gama, y eventualmente en los computadores de consumo en la primera década del siglo XXI.

Hewlett-Packard

Page 31: TAREA DE INFORMATICA

En 2002, Hewlett-Packard (HP) compró a Compaq. Compaq a sí mismo había comprado Tandem Computers en 1997 (que había comenzado con ex empleados de HP), y a Digital Equipment Corporation en 1998. Después de esta estrategia HP se convirtió en un jugador importante en escritorios, laptops y servidores para muchos diferentes mercados. La compra de participaciones hizo a HP el fabricante más grande de computadores personales del mundo, hasta que Dell lo sobrepasara más tarde.

64 bits

En 2003, AMD presentó el Opteron y Athlon 64, su línea de microprocesadores basados en 64 bits para las computadoras de escritorio. También en 2003, IBM lanzó el PowerPC 970 basado en 64 bits para sistemas del alta gama Power Mac G5 de Apple. En 2004, Intel reaccionó al éxito de AMD con procesadores basados en 64 bits, lanzando versiones actualizadas de sus líneas de Xeon y Pentium 4. Los procesadores de 64 bit primero fueron comunes en sistemas de gama alta, servidores y estaciones de trabajo, y entonces gradualmente remplazaron los procesadores de 32 bits de escritorios y laptops del consumidor cerca de 2005.

Lenovo

En 2004, IBM anunció la venta propuesta de su negocio de PC al fabricante de computadores chino Lenovo Group, que es poseído parcialmente por el gobierno chino, por US$650 millones en efectivo y $600 millones en acciones de Lenovo. El trato fue aprobado por el Committee on Foreign Investment in the United States en marzo de 2005, y terminado en mayo de 2005. IBM tendrá 19% de stake??? en Lenovo, quien moverá sus cuarteles generales al Estado de Nueva York y designará a un ejecutivo de IBM como su director general. La compañía conservará el derecho de usar ciertas marcas de fábrica de IBM por un período inicial de cinco años. Como resultado de la compra, Lenovo heredó una línea de productos que ofrecía el ThinkPad, la línea de laptops que habían sido uno de los productos más exitosos de IBM.

Wi-Fi, monitor LCD, procesador mulinúcleo, memoria flash

USB Wi-Fi

A principios del siglo 21, el Wi-Fi comenzó a llegar a ser cada vez más popular a medida que muchos consumidores comenzaron a instalar sus propias redes inalámbricas caseras. Muchos de los laptops de hoy en día y también algunos computadoras de escritorio son vendidos con tarjetas inalámbricas y antenas preinstaladas. También a principios del siglo 21, los monitores LCD se convirtieron en la tecnología más popular para los monitores de computadora, con la producción del CRT disminuyendo. Los monitores del LCD son

Page 32: TAREA DE INFORMATICA

típicamente más nítidos, brillantes, y económicos que los monitores CRT. La primera década del siglo 21 también vió el crecimiento de procesadores multinúcleo y de la memoria Flash. Una vez limitado al uso industrial de gama alta debido al costo, estas tecnologías ahora están en la corriente principal y disponibles ahora para los consumidores. En 2008 fueron lanzados el [[MacBook Air] y el Asus Eee PC, laptops que descartan el disco duro enteramente y confían en la memoria Flash para el almacenamiento.

Servidores y redes basados en microprocesadores

La invención a finales de los años 1970 de las redes de área local (LANs), notablemente Ethernet, permitió a los PC comunicarse unos con otros (peer-to-peer) y con impresoras compartidas.

A medida que la revolución del microcomputador continuó, versiones más robustas de la misma tecnología fueron usadas para producir servidores basados en microprocesador que también podían ser conectados a una LAN. Esto fue facilitado por el desarrollo de sistemas operativos de servidor para correr en la arquitectura Intel, incluyendo varias versiones, tanto de Unix como de Microsoft Windows.

Con el desarrollo de las redes de área de almacenamiento y de las granjas de miles de servidores, por el año 2000 el minicomputador tenía todo, pero desapareció, y los mainframes fueron restringidos en gran parte a usos especializados. La granja de servidores de Google es probablemente la más grande, con un desempeño total tres veces mayor que el Earth Simulator o el Blue Gene, para el 29 de septiembre de 2004.

Mercado

En 2001, 125 millones de computadores personales fueron vendidos, en comparación con los 48 mill. en 1977. Más de 500 millones de PC estaban en uso en 2002 y mil millones de computadores personales habían sido vendidos por todo el mundo desde mediados de los años 1970 hasta este tiempo. De la última figura, el 75 porciento era profesional o tenía un trabajo relacionado, mientras que el resto se vendió para el uso personal o casero. Cerca del 81,5 porciento de los PC enviados había sido computadores de escritorio, 16,4 porciento laptops y 2,1 porciento servidores. Estados Unidos había recibido el 38,8 porciento (394 millones) de los computadores enviados, Europa el 25 porciento y el 11,7 porciento había ido a la región del pacífico asiático, el mercado de crecimiento más rápido desde 2002.24 Casi la mitad de todos los hogares en Europa occidental tenía un computadorr personal y un computador podía ser encontrado en el 40 porciento de hogares en el Reino Unido, comparado con solamente un 13 porciento en 1985.25 El tercer trimestre de 2008 marcó la primera vez en que los laptops se vendieron, en los Estados Unidos, más que los PC de escritorio.26

Por junio de 2008, el número de los computadores personales en uso alrededor del mundo llegó a los mil millones. Los mercados maduros como Estados Unidos, Europa occidental y

Page 33: TAREA DE INFORMATICA

Japón representaron el 58 porciento de las PC instaladas. Se esperaba que cerca de 180 millones de PC (el 16 porciento de la base instalada existente) fueran substituidos y 35 millones deshechados en 2008. La entera base instalada creció el 12 porciento anualmente.27 28

Page 34: TAREA DE INFORMATICA

Historia del hardwareEl hardware ha sido un componente importante del proceso de cálculo y almacenamiento de datos desde que se volvió útil para que los valores numéricos fueran procesados y compartidos. El hardware de computador más primitivo fue probablemente el palillo de cuenta;1 después grabado permitía recordar cierta cantidad de elementos, probablemente ganado o granos, en contenedores. Algo similar se puede encontrar cerca de las excavaciones de Minoan. Estos elementos parecen haber sido usadas por los comerciantes, contadores y los oficiales del gobierno de la época.

Los dispositivos de ayuda provenientes de la computación han cambiado de simples dispositivos de grabación y conteo al ábaco, la regla de cálculo, el computadora analógica y los más recientes, la computadora u ordenador. Hasta hoy, un usuario experimentado del ábaco usando un dispositivo que tiene más de 100 años puede a veces completar operaciones básicas más rápidamente que una persona inexperta en el uso de las calculadoras electrónicas, aunque en el caso de los cálculos más complejos, los computadores son más efectivos que el humano más experimentado.

Los dispositivos más antiguos

La humanidad ha usado dispositivos de cómputo por milenios. Un ejemplo es el dispositivo para establecer la igualdad de peso: las clásicas balanzas. Una máquina más aritmética es el ábaco. Se piensa que la forma más antigua de este dispositivo —el ábaco de polvo— fue inventado en Babilonia. El ábaco egipcio del grano y del alambre datan del año 500 A.C.

En la antigüedad y en la edad media se construyeron algunos computadores analógicos para realizar cálculos de astronomía. Entre ellos estaba: el Mecanismo de Anticitera, un mecanismo de la antigua Grecia (aprox. 150-100 a. C.), el Planisferio; algunas de las invenciones de Al-Biruni (aprox. 1000 d. C.), el Ecuatorio de Azarquiel (alrededor de AD 1015), y otros computadores analógicos de astrónomos e ingenieros musulmanes.

Introducción

Los computadores pueden ser separados en software y hardware. El hardware de computación es la máquina física, que bajo la dirección de un programa, almacena y manipula los datos. Originalmente, los cálculos fueron hechos por seres humanos, quienes fueron llamados computadores, como título del trabajo o profesión. Este artículo cubre los principales desarrollos en la historia del hardware de computación, y procura ponerlos en contexto. Para una detallada línea de tiempo vea el artículo línea de tiempo de la computación. El artículo Historia de la computación trata de los métodos previstos para la pluma y el papel, con o sin la ayuda de tablas. Puesto que las calculadoras digitales confían en el almacenamiento digital, y tienden a estar limitadas por el tamaño y la velocidad de la memoria, la historia del almacenamiento de datos del computador está unido al desarrollo de las computadoras.

Page 35: TAREA DE INFORMATICA

Primeras calculadoras

Suanpan (el número representado en el cuadro es 6.302.715.408)

Durante milenios, la humanidad ha usado dispositivos para ayudar en los cálculos. El dispositivo de contar más temprano fue probablemente una cierta forma de palito de contar. Posteriores ayudas para mantener los registros incluyen la arcilla de Fenicia que representaban conteos de artículos en contenedores, probablemente ganado o granos. Una máquina más orientada hacia la aritmética es el ábaco. La forma más temprana de ábaco, el ábaco de polvo, había sido usado en Babilonia tan temprano como en 2.400 A.C.. Desde entonces, muchas otras formas de tablas de contar han sido inventadas, por ejemplo en una casa de cuenta medieval, un paño a cuadros sería colocado en una mesa, como una ayuda para calcular sumas de dinero, y los marcadores se movían alrededor en ella según ciertas reglas.

Los engranajes están en el corazón de dispositivos mecánicos como la calculadora de Curta.

Un número de computadores análogos fueron construidos en épocas antiguas y medioevales para realizar cálculos astronómicos. Éstos incluyen el mecanismo de Anticitera y el astrolabio de la Grecia antigua (c. 150-100 A.C.). Estos dispositivos son usualmente considerados como las primeras computadoras análogas. Otras versiones tempranas de dispositivos mecánicos usados para realizar ciertos tipos de cálculos incluyen el Planisferio; algunas de las invenciones de Al-Biruni (c. AD 1000); el Equatorium de Azarquiel (c. AD 1015); y los computadores astronómicos análogos de otros astrónomos e ingenieros musulmanes medievales.

John Napier (1550-1617) observó que la multiplicación y la división de números pueden ser realizadas por la adición y la sustracción, respectivamente, de los logaritmos de esos números. Mientras producía las primeras tablas logarítmicas Napier necesitó realizar

Page 36: TAREA DE INFORMATICA

muchas multiplicaciones, y fue en este punto que diseñó los huesos de Napier, un dispositivo similar a un ábaco usado para la multiplicación y la división.

Puesto que los números reales pueden ser representados como distancias o intervalos en una línea, la regla de cálculo fue inventada en los años 1920 para permitir que las operaciones de multiplicación y de división se realizarán perceptiblemente más rápidamente que lo que era posible previamente. Las reglas de cálculo fueron usadas por generaciones de ingenieros y de otros trabajadores profesionales con inclinación matemática, hasta la invención de la calculadora de bolsillo. Los ingenieros del programa Apollo para enviar a un hombre a la Luna, hicieron muchos de sus cálculos en reglas de cálculo, que eran exactas a tres o cuatro dígitos significativos.

La regla de cálculo, una calculadora mecánica básica, facilita la multiplicación y la división.

Calculadora mecánica de 1914.

En 1623, Wilhelm Schickard construyó la primera calculadora mecánica digital y por lo tanto se convirtió en el padre de la era de la computación.2 Puesto que su máquina usó técnicas tales como dientes y engranajes desarrollados primero para los relojes, también fue llamada un 'reloj calculador'. Fue puesto en uso práctico por su amigo Johannes Kepler, quien revolucionó la astronomía.

Una original calculadora de Pascal (1640) es presentada en el museo de Zwinger. Siguieron las máquinas de Blaise Pascal (la Pascalina, 1642) y de Gottfried Wilhelm von Leibniz (1671). Alrededor 1820, Charles Xavier Thomas de Colmar creó la primera calculadora mecánica excitosa producida en serie, El Aritmómetro de Thomas, que podía sumar, restar, multiplicar, y dividir. Estaba basado principalmente en el trabajo de Leibniz. Las calculadoras mecánicas, como el Addiator de base diez, el Comptómetro, la calculadora Monroe, el Curta y el Addo-X permanecieron en uso hasta los años 1970.

Page 37: TAREA DE INFORMATICA

Leibniz también describió el sistema de numeración binario, un ingrediente central de todas las computadoras modernas. Sin embargo, hasta los años 1940, muchos diseños subsecuentes fueron basados en el difícil de implantar sistema decimal, incluyendo las máquinas de Charles Babbage de los años 1800 e incluso el ENIAC de 1945.

1801: Tecnología de tarjeta perforada

Sistema de tarjeta perforada de una máquina de música.

Sistema de tarjeta perforada de un telar del siglo XIX.

Tan temprano como en 1725, Basile Bouchon, quien fue alumno de Carlos Bruné, usó un lazo de papel perforado en un telar para establecer el patrón a ser reproducido en la tela, y en 1726 su compañero de trabajo, Jean-Baptiste Falcon, mejoró su diseño al usar tarjetas perforadas de papel unidas una a la otra para la eficacia en adaptar y cambiar el programa. El telar de Bouchon-Falcon era semiautomático y requería la alimentación manual del programa.

Page 38: TAREA DE INFORMATICA

En 1801, Joseph Marie Jacquard desarrolló un telar en el que el patrón que era tejido era controlado por tarjetas perforadas. La serie de tarjetas podría ser cambiada sin cambiar el diseño mecánico del telar. Esto un hito en programabilidad.

En los años 1890, Herman Hollerith inventó una máquina tabuladora usando tarjetas perforadas.

En 1833, Charles Babbage avanzó desde desarrollar su máquina diferencial a desarrollar un diseño más completo, la máquina analítica, que, para su programación, tomaría prestada directamente las tarjetas perforadas del telar Jacquar. [1].

En 1835 Charles Babbage describió su máquina analítica. Era el plan de una computadora programable de propósito general, empleando tarjetas perforadas para la entrada y un motor de vapor para la energía.

Su idea inicial era usar las tarjetas perforadas para controlar una máquina que podía calcular e imprimir con precisión enorme las tablas logarítmicas (una máquina de propósito específico). La idea de Babbage pronto se desarrolló en una computadora programable de propósito general, su máquina analítica.

A pesar que su diseño era brillante y los planes eran probablemente correctos, o por lo menos depurables, el proyecto fue retardado por varios problemas. Babbage era un hombre difícil para trabajar con él y discutía con cualquier persona que no respetara sus ideas. Todas las partes para su máquina tenían que ser hechas a mano. En una máquina con miles de partes, a veces los pequeños errores en cada elemento pueden acumularse, terminando en grandes discrepancias. Esto requería que estas partes fueran mucho mejores que las tolerancias que podían obtenerse con la tecnología de esa época. El proyecto se disolvió en

Page 39: TAREA DE INFORMATICA

conflictos con el artesano que construyó las partes y fue terminado cuando se agotó el financiamiento del gobierno.

Ada Lovelace, hija de Lord Byron, tradujo y agregó notas al "Sketch of the Analytical Engine" por Federico Luigi, Conte Menabrea. Ella ha sido asociada cercanamente con Babbage. Algunos afirman que ella fue el primer programador de computadoras del mundo, no obstante esta afirmación y el valor de sus otras contribuciones son discutidos por muchos.

Una reconstrucción la Máquina Diferencial II, un diseño anterior, más limitado, ha estado operacional desde 1991 en el Museo de Ciencia de Londres. Con algunos cambios triviales, trabaja como Babbage la diseñó y demuestra que Babbage estaba correcto en teoría.

El museo usó máquinas herramientas operadas por computador para construir las partes necesarias, siguiendo las tolerancias que habría podido alcanzar un maquinista de ese período. Algunos creen que la tecnología de ese tiempo no podía producir partes de suficiente precisión, aunque esto aparece ser falso. La falla de Babbage en terminar la máquina puede ser principalmente atribuida a dificultades no solamente relacionadas con la política y el financiamiento, pero también con su deseo de desarrollar una computadora cada vez más sofisticada. Hoy, muchos en el campo de la computación llaman a esta clase obsesión creeping featuritis (algo así como "caracterititis creciente", es decir, el deseo de agregar cada vez más y más características).

En 1890, la Oficina del Censo de los Estados Unidos usó tarjetas perforadas, las máquinas de ordenamiento, y las máquinas tabuladoras diseñadas por Herman Hollerith para manejar la inundación de datos del censo decenial ordenado por la constitución de Estados Unidos. La compañía de Hollerith eventualmente se convirtió en el núcleo de IBM. La IBM desarrolló la tecnología de la tarjeta perforada en una poderosa herramienta para el procesamiento de datos de negocios y produjo una extensa línea de máquinas tabuladoras especializadas. Por 1950, la tarjeta de IBM había llegado a ser ubicua en la industria y el gobierno. La advertencia impresa en la mayoría de las tarjetas previstas para la circulación como documentos (cheques, por ejemplo), "No doblar, no perforar ni mutilar", se convirtió en un lema para la era posterior a la Segunda Guerra Mundial.3

Siguiendo los pasos de Babbage, aunque ignorante de este anterior trabajo, Percy Ludgate, un contable de Dublín, Irlanda, diseñó independientemente una computadora mecánica programable, que describió en un trabajo que fue publicado en 1909.

Los artículos de Leslie Comrie sobre métodos de tarjetas perforadas, y las publicaciones de Wallace Eckert sobre Métodos de Tarjetas Perforadas en la Computación Científica en 1940, describieron técnicas que fueron suficientemente avanzadas para solucionar ecuaciones diferenciales, realizar multiplicación y división usando representaciones de punto flotante, todo ello hecho con tarjetas perforadas y las máquinas de registro de unidades??. La Oficina de Computación Astronómica Thomas J. Watson, de la Universidad de Columbia realizó cálculos astronómicos representando el estado del arte en la Computación.

Page 40: TAREA DE INFORMATICA

En muchas instalaciones de computación, las tarjetas perforadas fueron usadas hasta (y después) del final de los años 1970. Por ejemplo, en muchas universidades alrededor del mundo los estudiantes de ciencia e ingeniería someterían sus asignaciones de programación al centro de computación local en forma de una pila de tarjetas, una tarjeta por línea de programa, y entonces tenían que esperar que el programa estuviera en cola para ser procesado, compilado, y ejecutado. En espera para la impresión de cualquier resultado, marcado con la identificación de quien lo solicitó, sería puesto en una bandeja de salida fuera del centro de computación. En muchos casos estos resultados serían solamente un listado de mensajes de error con respecto a la sintaxis, etc, del programa, necesitando otro ciclo de edición-compilación-ejecución[2]. Ver también Programación de la computadora en la era de la tarjeta perforada.

Las tarjetas perforadas todavía son usadas y manufacturadas a este día, y sus dimensiones distintivas (y la capacidad de 80 columnas) todavía pueden ser reconocidas en formas, registros, y programas alrededor del mundo.

1930s-1960s: Calculadoras de escritorio

Calculadora de Curta.

Por los años 1900, las primeras calculadoras mecánicas, cajas registradoras, máquinas de contabilidad, etcétera fueron rediseñadas para usar motores eléctricos, con la posición de engranajes como representación para el estado de una variable. Desde los años 1930, compañías como Friden, Marchant Calculator y Monroe hicieron calculadoras mecánicas de escritorio que podían sumar, restar, multiplicar y dividir. La palabra "computador" era un título de trabajo asignado a la gente que usaba estas calculadoras para realizar cálculos matemáticos. Durante el Proyecto Manhattan, el futuro laureado premio Nobel, Richard Feynman, fue el supervisor de un cuarto lleno de computadoras humanas, muchos de ellos eran matemáticos mujeres, que entendían las ecuaciones diferenciales que eran solucionadas para el esfuerzo de la guerra. Después de la guerra, incluso el renombrado

Page 41: TAREA DE INFORMATICA

Stanislaw Ulam fue presionado en servicio para traducir las matemáticas a aproximaciones computables para la bomba de hidrógeno.

En 1948, fue introducido el Curta. Éste era una calculadora mecánica pequeña y portable, que tenía el tamaño aproximado de una amoladora de pimienta. Con el tiempo, durante los años 1950 y los años 1960 aparecieron en el mercado una variedad de diferentes marcas de calculadoras mecánicas.

La primera calculadora de escritorio completamente electrónica fue la ANITA Mk.VII británica, que usaba una pantalla de tubo Nixie y 177 tubos tiratrón subminiatura. En junio de 1963, Friden introdujo la EC-130 de cuatro funciones. Tenía un diseño completamente transistorizado, la capacidad 13 dígitos en un CRT de 5 pulgadas (130 mm), e introdujo la notación polaca inversa (RPN) al mercado de las calculadoras con un precio de $2200. El modelo EC-132 añadió la raíz cuadrada y funciones recíprocas. En 1965, los laboratorios Wang produjeron el LOCI-2, una calculadora de escritorio transistorizada de 10 dígitos que usaba una exhibición de tubo Nixie y podía computar logaritmos.

Con el desarrollo de los circuitos integrados y los microprocesadores, las calculadoras grandes y costosas fueron sustituidas por dispositivos electrónicos más pequeños.

Computadoras análogas avanzadas

Analizador diferencial de Cambridge, 1938.Artículo principal: Computador analógico

Antes de la Segunda Guerra Mundial, las computadoras análogas mecánicas y eléctricas eran consideradas el "estado del arte", y muchos pensaban que eran el futuro de la computación.

Las computadoras análogas toman ventaja de las fuertes similitudes entre las matemáticas de propiedades de pequeña escala -- la posición y el movimiento de ruedas o el voltaje y la corriente de componentes electrónicos -- y las matemáticas de otros fenómenos físicos, ej. trayectorias balísticas, inercia, resonancia, transferencia de energía, momento, etc.

Modelar los fenómenos físicos con las propiedades eléctricas rinde una gran ventaja sobre usar modelos físicos:

Page 42: TAREA DE INFORMATICA

1. los componentes eléctricos son más pequeños y baratos; son más fácilmente construidos y ejercitados.

2. Aunque de otra manera similar, los fenómenos, eléctricos se pueden hacer que ocurran en marcos de tiempo convenientemente cortos.

Centralmente, los sistemas trabajaron creando análogos eléctricos de otros sistemas, permitiendo a los usuarios predecir el comportamiento de los sistemas de interés al observar los análogos eléctricos. La más útil de las analogías fue la manera en que el comportamiento en pequeña escala podía ser representado con ecuaciones integrales y diferenciales, y por lo tanto podía ser usado para solucionar esas ecuaciones. Un ingenioso ejemplo de tal máquina fue el integrador de agua construido en 1928; un ejemplo eléctrico es la máquina de Mallock construida en 1941.

A diferencia de las computadoras digitales modernas, las computadoras análogas no eran muy flexibles, y necesitan ser reconfiguradas (es decir, reprogramadas) manualmente para cambiarlas para trabajar de un problema a otro. Las computadoras análogas tenían una ventaja sobre los primeros computadores digitales en que podían ser usadas para solucionar problemas complejos usando comportamientos análogos mientras que las primeras tentativas en las computadoras digitales eran absolutamente limitadas. Pero a medida que las computadoras digitales han venido siendo más rápidas y usaban memorias más grandes (ej, RAM o almacenamiento interno), han desplazado casi completamente a las computadoras análogas, y la programación de computadores, o codificación ha surgido como otra profesión humana.

Puesto que las computadoras eran raras en esta era, las soluciones eran a menudo hard-coded en las formas de papel como gráficas y nomogramas, que entonces podían producir soluciones análogas a esos problemas, tales como la distribución de presiones y temperaturas en un sistema de calefacción.

Algunas de las computadoras análogas más extensamente desplegadas incluyeron dispositivos para apuntar armas, tales como los sistemas Norden bombsight y Fire-control system para embarcaciones navales. Algunos de éstos permanecieron en uso por décadas después de la segunda guerra mundial. Un ejemplo es el Mark I Fire Control Computer, desplegado por la Armada de los Estados Unidos en una variedad de naves desde los destructores a los acorazados.

Otros ejemplos incluyeron el Heathkit EC-1, y la computadora hidráulica MONIAC.

El arte de la computación anáógica alcanzó su cenit con el Differential analyser, inventado en 1876 por James Thomson y construido por H. W. Nieman y Vannevar Bush en el MIT comenzando en 1927. Fueron construidas menos de una docena de estos dispositivos; el más poderoso fue construido en la Escuela Moore de Ingeniería Eléctrica en la Universidad de Pensilvania, donde también fue construido el ENIAC. Las computadoras electrónicas digitales, como el ENIAC, significaron el fin para la mayoría de las máquinas análogas de computación, pero las computadoras análogas híbridas, controladas por electrónica digital, permanecían en substancial uso en los años 1950 y los años 1960, y más adelante en algunas aplicaciones especializadas.

Page 43: TAREA DE INFORMATICA

Primeros computadores digitales

La era de computar moderno comenzó con un explosivo desarrollo antes y durante la Segunda Guerra Mundial, a medida que los circuitos electrónicos, los relés, los condensadores, y los tubos de vacío reemplazaron los equivalentes mecánicos y los cálculos digitales reemplazaron los cálculos análogos. Las máquinas como el Atanasoff–Berry Computer, Z3, Colossus, y el ENIAC fueron construidas a mano usando circuitos que contenían relés o válvulas (tubos de vacío), y a menudo usaron tarjetas perforadas o cintas perforadas para la entrada y como el medio de almacenamiento principal (no volátil).

En esta era, un número de diferentes máquinas fueron producidas con capacidades que constantemente avanzaban. Al principio de este período, no existió nada que se asemejara remotamente a una computadora moderna, excepto en los planes perdidos por largo tiempo de Charles Babbage y las visiones matemáticas de Alan Turing y otros. Al final de la era, habían sido construidos dispositivos como el EDSAC, y son considerados universalmente como computadores digitales. Definir un solo punto en la serie, como la "primera computadora", pierde muchos sutiles detalles.

El texto escrito por Alan Turing en 1936 probó ser enormemente influyente en la computación y ciencias de la computación de dos maneras. Su principal propósito era probar que había problemas (nombrados el problema de la parada) que no podían ser solucionados por ningún proceso secuencial. Al hacer eso, Turing proporcionó una definición de una computadora universal, una construcción que vino a ser llamada máquina de Turing, un dispositivo puramente teórico que formaliza el concepto de ejecución de algoritmo, reemplazando el engorroso lenguaje universal basado en en aritmética de Kurt Gödel. Excepto por las limitaciones impuestas por sus almacenamientos de memoria finitos, se dice que las computadoras modernas son Turing completo, que es como decir que tienen la capacidad de ejecución de algoritmo equivalente a una máquina universal de Turing. Este tipo limitado de la cualidad de Turing completo es algunas veces visto como la capacidad umbral que separa las computadoras de uso general de sus precursores de propósito específico.

Para que una máquina de computación sea una computadora de propósito general práctica, debe haber algún mecanismo de lectura/escritura conveniente, como por ejemplo la cinta perforada. Para la completa versatilidad, la arquitectura de Von Neumann usa la misma memoria para almacenar tanto los programas como los datos; virtualmente todas las computadoras contemporáneas usan esta arquitectura (o alguna variante). Mientras que es teóricamente posible implementar una computadora completa mecánicamente (como demostró el diseño de Babbage), la electrónica hizo posible la velocidad y más adelante la miniaturización que caracterizan las computadoras modernas.

En la era de la Segunda Guerra Mundial habían tres corrientes paralelas en el desarrollo de la computadora, y dos fueron ignoradas en gran parte o deliberadamente mantenidas en secreto. La primera fue el trabajo alemán de Konrad Zuse. La segunda fue el desarrollo secreto de la computadora Colossus en el Reino Unido. Ninguna de éstas tuvieron mucha influencia en los varios proyectos de computación en los Estados Unidos. La tercera

Page 44: TAREA DE INFORMATICA

corriente de desarrollo de la computadora, el ENIAC y el EDVAC de Eckert y Mauchly, fue publicada extensamente.

Z-series de Konrad Zuse: Las primeras computadoras controladas por programa

Una reproducción de la computadora Z1 de Zuse.

Trabajando aisladamente en Alemania, en 1936 Konrad Zuse comenzó la construcción de sus primeras calculadoras de la Z-series que ofrecían memoria y programabilidad (limitada inicialmente). La Z1 de Zuse, que aunque puramente mecánica ya era binaria, fue finalizada en 1938. Nunca trabajó confiablemente debido a problemas con la precisión de las partes.

La subsecuente máquina de Zuse, el Z3, fue finalizada en 1941. Fue basada en relés telefónicos y trabajó satisfactoriamente. El Z3 se convirtió así en la primera computadora funcional, de todo propósito, controlada por programa. De muchas maneras era muy similar a las máquinas modernas, siendo pionera en numerosos avances, tales como números de punto flotante. El reemplazo del difícil de implementar sistema decimal, usado en el diseño temprano de Charles Babbage, por el más simple sistema binario, significó que las máquinas de Zuse eran más fáciles de construir y potencialmente más confiables, dadas las tecnologías disponibles en aquel tiempo. Esto a veces es visto como la razón principal por la que Zuse tuvo éxito donde Babbage falló.

Los programas fueron alimentados en el Z3 por medio de películas perforadas. Faltaban los saltos condicionales, pero desde los años 1990 se ha probado teóricamente que el Z3 seguía siendo un computador universal (ignorando sus limitaciones de tamaño físico de almacenamiento). En dos aplicaciones de patente de 1936, Konrad Zuse también anticipó que las instrucciones de máquina podían ser almacenadas en el mismo almacenamiento usado para los datos - la idea clave de lo que sería conocido como la arquitectura de Von Neumann y fue implementada por primera vez en el posterior diseño del EDSAC británico (1949). Zuse también decía haber diseñado el primer lenguaje de programación de alto nivel, (Plankalkül), en 1945 (que fue publicado en 1948) aunque fue implementado por primera vez en 2000 por un equipo alrededor de Raúl Rojas en la Universidad Libre de Berlín - cinco años después de que murió Zuse.

Zuse sufrió reveses durante la Segunda Guerra Mundial cuando algunas de sus máquinas fueron destruidas en el curso de las campañas aliadas de bombardeos. Aparentemente su

Page 45: TAREA DE INFORMATICA

trabajo en gran parte siguió siendo desconocido a los ingenieros en el Reino Unido y los E.E.U.U. hasta mucho más tarde, aunque al menos la IBM estaba enterada de ellos pues financiaron a su compañía de lanzamiento de posguerra en 1946 en el retorno por una opción en las patentes de Zuse.

Colossus

El colossus fue usado para romper cifrados alemanes durante la Segunda Guerra Mundial.Artículo principal: Colossus

Durante la Segunda Guerra Mundial, los británicos en Bletchley Park alcanzaron un número de éxitos al romper las comunicaciones militares alemanas cifradas. La máquina de cifrado alemana, Enigma, fue atacada con la ayuda de máquinas electromecánicas llamadas bombes. La bombe, diseñada por Alan Turing y Gordon Welchman, después de la bomba criptográfica polaca (1938), eliminaba ajustes posibles del Enigma al realizar cadenas deducciones lógicas implementadas eléctricamente. La mayoría de las posibilidades conducían a una contradicción, y las pocas restantes se podían probar a mano.

Los alemanes también desarrollaron una serie de sistemas de cifrado de teleimpresora, muy diferentes del Enigma. La máquina Lorenz SZ 40/42 fue usada para las comunicaciones de alto nivel del ejército, llamada "Tunny" por los británicos. Las primeras intercepciones de los mensajes Lorenz comenzaron en 1941. Como parte de un ataque contra los Tunny, el profesor Max Newman y sus colegas ayudaron a especificar el colossus. El Mk I colossus fue construido entre marzo y diciembre de 1943 por Tommy Flowers y sus colegas en el Post Office Research Station en Dollis Hill en Londres y después enviado a Bletchley Park.

El colossus fue el primer dispositivo de computación totalmente electrónico. El colossus usó una gran cantidad de válvulas (|tubos de vacío). Tenía entrada de cinta de papel y era capaz de ser configurado para realizar una variedad de operaciones de lógica booleana en sus datos, pero no era Turing completo. Fueron construidos nueve Mk II Colossi (el Mk I fue convertido en un Mk II haciendo diez máquinas en total). Los detalles de su existencia, diseño, y uso fueron mantenidos secretos bien entrados los años 1970. Winston Churchill personalmente publicó una orden para su destrucción en piezas no más grandes que la mano de un hombre. debido a este secreto los Colossi no fueron incluidos en muchas historias de la computación. Una copia reconstruida de una de las máquinas Colossus está ahora en exhibición en Bletchley Park.

Page 46: TAREA DE INFORMATICA

Desarrollos norteamericanos

En 1937, Claude Shannon produjo su tesis magistral en el MIT que por primera vez en la historia implicaba el álgebra booleana usando relés y conmutadores electrónicos. La tesis de Shannon, intitulada A Symbolic Analysis of Relay and Switching Circuits (Un análisis simbólico de circuitos de conmutación y relés), esencialmente funda el diseño de circuitos digitales prácticos.

En noviembre de 1937, George Stibitz, entonces trabajando en los Laboratorios Bell, terminó una computadora basada en relés que calculaba con la adición binaria y apodó con el nombre de "Modelo K" (por "kitchen" (cocina), donde él la había ensamblado). A finales de 1938, los Laboratorios Bell autorizaron un programa de investigación completo con Stibitz al timón. Su Complex Number Calculator, terminado el 8 de enero de 1940, podía calcular números complejos. En una demostración del 11 de septiembre de 1940 en la conferencia de la American Mathematical Society en el Dartmouth College, Stibitz pudo enviar, al Complex Number Calculator, comandos remotos sobre líneas telefónicas por un teletipo. Fue la primera máquina de computación usada remotamente, en este caso sobre una línea telefónica. Algunos participantes en la conferencia que atestiguaron la demostración eran John Von Neumann, John Mauchly, y Norbert Wiener, quien escribió sobre ello en sus memorias.

En 1939, John Vincent Atanasoff y Clifford E. Berry de Iowa State University desarrollaron el Atanasoff Berry Computer (ABC), una calculadora electrónica digital de propósito especial para solucionar sistemas de ecuaciones lineares. La meta original era solucionar 29 ecuaciones simultáneas de 29 incógnitas cada una, pero debido a errores en el mecanismo del perforador de tarjetas la máquina terminada solamente podía solucionar algunas ecuaciones. El diseño usaba más de 300 tubos de vacío para alta velocidad y empleaba para la memoria condensadores fijados en un tambor que rotaba mecánicamente. Aunque la máquina ABC no era programable, fue la primera en usar circuitos electrónicos. El co-inventor del ENIAC, John Mauchly, examinó el ABC en junio de 1941, y su influencia en el diseño de la posterior máquina ENIAC es una cuestión de controversia entre los historiadores del computador. El ABC fue en gran parte olvidado hasta que se convirtió en el foco del pleito legal Honeywell vs. Sperry Rand, la decisión invalidó la patente de ENIAC (y varias otras), entre muchas razones por haber sido anticipado por el trabajo de Atanasoff.

En 1939, en los laboratorios Endicott de la IBM comenzó el desarrollo del Harvard Mark I. Conocido oficialmente como el Automatic Sequence Controlled Calculator, el Mark I fue una computadora electromecánica de propósitos generales construida con el financiamiento de la IBM y con la asistencia del personal de la IBM, bajo dirección del matemático de Harvard, Howard Aiken. Su diseño fue influenciado por la Máquina Analítica de Babbage, usando ruedas de aritmética y almacenamiento decimal e interruptores rotatorios además de relés electromagnéticos. Era programable vía una cinta de papel perforado, y contenía varias unidades de cálculo trabajando en paralelo. Versiones posteriores contuvieron varios lectores de cinta de papel y la máquina podía cambiar entre los lectores basados en una

Page 47: TAREA DE INFORMATICA

condición. Sin embargo, la máquina no era absolutamente Turing completa. El Mark I fue trasladado a la universidad de Harvard y comenzó la operación en mayo de 1944.

ENIAC

El ENIAC realizó cálculos de la trayectoria balística usando 160 kilovatios de energía.

El ENIAC (Electronic Numerical Integrator and Computer), construido en los Estados Unidos, fue el primer computador electrónico de propósito general. Construido bajo la dirección de John Mauchly y John Presper Eckert en la universidad de Pennsylvania, era 1.000 veces más rápido que sus contemporáneos. El desarrollo y la construcción del ENIAC duró desde 1943 hasta estar operativo completamente al final de 1945.

Cuando su diseño fue propuesto, muchos investigadores creyeron que los millares de delicadas válvulas (es decir tubos de vacío) se quemarían tan frecuentemente que el ENIAC estaría con tanta frecuencia inactivo por reparaciones que sería inútil. Sin embargo, era capaz de miles de operaciones por segundo por horas enteras entre las fallas de válvulas. Validó abiertamente el uso de la electrónica para la computación en gran escala. Esto fue crucial para el desarrollo del cómputo moderno.

El ENIAC era inequívocamente un dispositivo Turing completo. Sin embargo, un "programa" en el ENIAC era definido por los estados de sus cables de remiendo e interruptores, una decepcionante disparidad con las máquinas electrónicas de programa almacenado que se desarrollaron a partir del ENIAC. Programarlo significaba recablearlo. Las mejoras completadas en 1948 hicieron posible ejecutar programas almacenados fijados en memoria de tabla de función, que hizo la programación menos un esfuerzo "único/realizado solo una vez/único en su tipo"??, y más sistemático.

La máquina de von Neumann de primera generación y otros trabajos

Page 48: TAREA DE INFORMATICA

Incluso antes de que el ENIAC estuviera terminado, Eckert y Mauchly reconocieron sus limitaciones y comenzaron el diseño de una nueva computadora, el EDVAC, que debía tener programa almacenado. John von Neumann escribió un reporte de amplia circulación que describía el diseño del EDVAC en el que tanto los programas como los datos de trabajo estaban almacenados en un solo unificado almacén. Este diseño básico, que sería conocido como la arquitectura de von Neumann, serviría como la base para el desarrollo de las primeras computadoras digitales de propósito general realmente flexibles.

En esta generación, el almacenamiento temporal o de trabajo fue proporcionado por líneas de retardo acústico, que usaban el tiempo de propagación del sonido a través de un medio como el mercurio líquido (o a través de un alambre) para almacenar datos brevemente. Una serie de pulsos acústicos eran enviados a lo largo de un tubo; después de un tiempo, en lo que el pulso alcanzaba el extremo del tubo, el circuito detectaba si el pulso representaba un 1 ó un 0 y causaba al oscilador volver a reenviar el pulso. Otros usaron los tubos de Williams, que utilizan la capacidad de un tubo de imagen de televisión para almacenar y de recuperar datos. Por 1954, la memoria de núcleo magnético rápidamente desplazó la mayoría de las otras formas de almacenamiento temporal, y dominó el campo hasta mediados de los años 1970.

El "Bebé" en el Museo de Ciencia e Industria (MSIM), de Mánchester (Inglaterra).

La primera máquina funcional de von Neumann fue el "Baby" ("Bebé") de Manchester o Small-Scale Experimental Machine, construida en la universidad de Mánchester en 1948; fue seguida en 1949 por el computador Manchester Mark I que funcionó como un sistema completo usando el tubo Williams y el tambor magnético para la memoria, y también introdujo los registros de índice. El otro competidor para el título de "primer computador digital de programa almacenado" había sido el EDSAC, diseñado y construido en la Universidad de Cambridge. Operacional en menos de un año después de la Manchester "Baby", también era capaz de abordar problemas reales. EDSAC fue inspirado de hecho por los planes para el EDVAC (Electronic Discrete Variable Automatic Computer), el sucesor del ENIAC; estos planes ya estaban en el lugar correcto para el tiempo en que el ENIAC fue operacional exitosamente. A diferencia del ENIAC, que usaba el procesamiento paralelo, el EDVAC usó una sola unidad de procesamiento. Este diseño era más simple y

Page 49: TAREA DE INFORMATICA

fue el primero en ser implementado en cada exitosa onda de miniaturización, y creciente confiabilidad. Algunos ven al Manchester Mark I/EDSAC/EDVAC como las "Evas" de la cuales casi todas las computadoras actuales derivan su arquitectura.

La primera computadora programable universal en la Unión Soviética fue creada por un equipo de científicos bajo dirección de Sergei Alekseyevich Lebedev del Instituto Kiev de Electrotecnología, Unión Soviética (ahora Ucrania). El computador MESM (МЭСМ, Small Electronic Calculating Machine) estuvo operacional en 1950. Tenía cerca de 6.000 tubos de vacío y consumida 25 kW de energía. Podía realizar aproximadamente 3.000 operaciones por segundo. Otra máquina temprana fue el CSIRAC, un diseño australiano que corrió su primer programa de prueba en 1949. CSIRAC es el computador más viejo todavía en existencia y el primero en haber sido usado para ejecutar música digital.4

En octubre de 1947, los directores de J. Lyons & Company, una compañía británica del famosa por sus tiendas de té (pequeños restaurantes) pero con fuertes intereses en las nuevas técnicas de gerencia de oficinas, decidido a tomar un papel activo en promover el desarrollo comercial de los computadores. Por 1951 el computador LEO I estuvo operacional y corrió el primer job de computador de oficina rutinario regular del mundo.

La máquina de la universidad de Manchester se convirtió en el prototipo para la Ferranti Mark I. La primera máquina Ferranti Mark I fue entregada a la Universidad en febrero de 1951 y por lo menos otras nueve fueron vendidas entre 1951 y 1957.

En junio de 1951, el UNIVAC I (Universal Automatic Computer) fue entregado a la Oficina del Censo de los Estados Unidos. Aunque fue fabricada por Remington Rand, la máquina con frecuencia fue referida equivocadamente como la "IBM UNIVAC". Eventualmente Remington Rand vendió 46 máquinas en más de $1 millón por cada una. El UNIVAC era el primer computador 'producido en masa'; todos los predecesores habían sido unidades 'únicas en su tipo'. Usó 5.200 tubos de vacío y consumía 125 kW de energía. Usó para la memoria una línea de retardo de mercurio capaz de almacenar 1.000 palabras de 11 dígitos decimales más el signo (palabras de 72 bits). A diferencia de las máquinas de la IBM no fue equipado de un lector de tarjetas perforadas sino con una entrada de cinta magnética de metal al estilo de los años 1930, haciéndola incompatible con algunos almacenamientos de datos comerciales existentes. La cinta de papel perforado de alta velocidad y las cintas magnéticas del estilo moderno fueron usados para entrada/salida por otras computadoras de la era.

En noviembre de 1951, la compañía J. Lyons comenzó la operación semanal de un Job de valuaciones de panadería en el LEO (Lyons Electronic Office). Éste fue la primera aplicación de negocio en tener vida en un computador de programa almacenado.

En 1952, la IBM anunció público el IBM 701 Electronic Data Processing Machine, la primera en su excitosa 700/7000 series y su primer computador IBM mainframe. El IBM 704, introducido en 1954, usó la memoria de núcleo magnético, que se convirtió en el estándar para las máquinas grandes. El primer lenguaje de programación de propósitos generales de alto nivel implementado, FORTRAN, también fue desarrollado en la IBM para

Page 50: TAREA DE INFORMATICA

los 704 durante 1955 y 1956 y lanzado a principios de 1957. (El diseño en 1945 del leguaje de alto nivel Plankalkül, de Konrad Zuse, no fue implementado en aquel tiempo).

En 1954 la IBM introdujo un computador más pequeño y más económico que probó ser muy popular. El IBM 650 pesaba más de 900 kg, la fuente de alimentación pesada alrededor 1.350 kg y ambos fueron contenidos en gabinetes separados de más o menos 1,5 x 0,9 x 1,8 metros. Costaba $500.000 o podía ser arrendada por $3.500 al mes. Su memoria de tambor tenía originalmente solamente 2.000 palabras de diez dígitos, y requería una programación arcana para una eficiente computación. Las limitaciones de la memoria tales como ésta iban a dominar la programación por décadas posteriores, hasta la evolución de las capacidades del hardware y un modelo de programación que eran más benévolos al desarrollo del software.

En 1955, Maurice Wilkes inventó la microprogramación, que fue posteriormente ampliamente usada en los CPUs y las unidades de punto flotante de los mainframes y de otras computadoras, tales como las series del IBM 360. La microprogramación permite al conjunto de instrucciones base ser definido o extendido por programas incorporados en el hardware (ahora a veces llamado como firmware, microcódigo, o milicódigo).

En 1956, la IBM vendió su primer sistema de disco magnético, RAMAC (Random Access Method of Accounting and Control). Usó 50 discos de metal de 24 pulgadas (610 mm), con 100 pistas por lado. Podía almacenar 5 megabytes de datos y costaba $10.000 por megabyte. (En 2006, el almacenamiento magnético, en la forma de discos duros, costaba menos de un décimo de un centavo por megabyte).

Segunda generación: Transistores

Inicialmente, se creía que serían producidos o utilizados muy pocos computadores. Esto era debido en parte a su tamaño, al costo, y a la falta de previsión en los tipos de usos a los que podían ser aplicados los computadores.

En 1951 inicia la primera máquina de cálculo hecha en serie y hay un gran desarrollo de estas máquinas, debido a la introducción de nuevas técnicas, de nuevas unidades y métodos de programación. En 1953 el número de máquinas de cálculo en todo el mundo se eleva hasta cerca de 100 unidades.

En 1958 solamente los Estados Unidos tienen cerca de 2.500 modelos en total.

En Italia la primera máquina de cálculo fue colocada en 1954 en la Universidad Politécnico de Milán y solamente en 1957 es usada por una firma. En 1958 es colocada en Italia un décimo de las máquinas de cálculo, que apoyan cerca de 700 empleados meccanográficos. En la conclusión de la Primera Generación, al final de los años 1950, las máquinas electrónicas de cálculo han ganado la confianza de sus usuarios. Al principio eran consideradas, más como instrumentos de cálculo y útiles para la investigación en la universidad, que máquinas útiles por sus capacidades de procesar información, para las corporaciones o las necesidades operativas de las firmas.

Page 51: TAREA DE INFORMATICA

Las máquinas de cálculo superan más y más las restricciones debido a alguna construcción y técnicas de programación no refinadas.

Su uso no representa más una "aventura" para las firmas y las corporaciones que las colocan, sino que responden a la necesidad de solucionar los varios problemas operativos.

Alrededor de finales de los años 1950 los tubos fueron sustituidos por transistores. Esto levanta lo que se conoce como la "segunda generación" de máquinas de cálculo.

Usando los transistores y mejorando las máquinas y los programas, la máquina de cálculo se vuelve más rápida y económica y esto difunde en diez mil modelos en todo el mundo. Por la situación económica general cambiante, el continuo crecimiento de las firmas, la introducción de nuevas técnicas de organización y la gerencia de una firma, pasa de un uso prevalente de contabilidad y estadístico a algunas aplicaciones más complejos que se refieren a todos los sectores de activos.

El transistor fue realizado en 1948 por los norteamericanos John Bardeen, Walter Brattain y William Shockley que compartieron por su invención el Premio Nobel de Física de 1956. El transistor es un dispositivo electrónico hecho de cristal de silicio o germanio en los que diferentes átomos de materiales son oportunamente insertados.

Para algunos valores de tensión eléctrica a la cual es expuesta el transistor, tiene la capacidad de transmitir o no la corriente, así que puede representar el 1 ó el 0 que son reconocidos por la máquina. Comparado a las válvulas, el transistor tiene muchos ventajas: tienen un precio de fabricación más pequeño y una velocidad diez veces mayor, pasando de la posición 1 a 0 en algunas millonésimas de segundo. Los tamaños de un transistor son de algunos milímetros comparado a los muchos centímetros del tubo de vacío. Las direcciones de operación segura son incrementadas porque los transistores, trabajando "en frío", evitan las roturas que eran frecuentes en las válvulas debido al calentamiento. Así, las máquinas son construidas con decenas de miles de circuitos complejos que son incluidos en un pequeño espacio.

Entre los sistemas de la segunda generación marcamos el IBM 1401, que fue instalado desde 1960 hasta 1964 en más de cientos de miles de modelos, monopolizando alrededor de un tercio del mercado mundial. En este período también estuvo la única tentativa italiana: el ELEA de Olivetti, producido en 110 modelos.

El desarrollo notable de las máquinas de cálculo y de sus aplicaciones en este período no es debido solamente a la característica del CPU (Unidad Central de Proceso), pero también a las continuas mejoras hechas en las memorias auxiliares y en las unidades para la toma y emisión de datos.

Las memorias de discos pueden manejar decenas de millones de letras o dígitos. Más unidades puedn ser conectadas al mismo tiempo a la máquina de cálculo, llevando así la capacidad de memoria total a algunos cientos de millones de caracteres.

Page 52: TAREA DE INFORMATICA

Cerca de los discos que están conectados firmemente con la unidad central son introducidas algunas unidades en las cuales las pilas de discos son móviles y pueden ser fácilmente reemplazados por otra pila en pocos segundos.

Incluso si la capacidad de discos móviles es más pequeña comparada a las fijas, su intercambiabilidad garantiza una capacidad ilimitada de datos que están listos para la elaboración.

Las máquinas de cálculo de la segunda generación, a través de un dispositivo particular hecho para ordenar los datos interiores, pueden sobreponer diferentes operaciones, esto significa leer y perforar las tarjetas al mismo tiempo, ejecutar cálculos y tomar decisiones lógicas, escribir y leer la información en cintas magnéticas.

Para garantizar el continuo cambio de información entre el centro y la periferia, surgen las unidades terminales que tienen que transmitir los datos a la máquina de cálculo central que también puede estar a una distancia de cientos de kilómetros gracias a una conexión telefónica.

Post-1960: Tercera generación y más allá

La explosión en el uso de computadores comenzó con los computadores de la 'tercera generación'. Éstos dependían en la invención independiente de Jack St. Clair Kilby y Robert Noyce, el circuito integrado (o microchip), que condujo más adelante a la invención del microprocesador, por Ted Hoff y Federico Faggin en Intel.

Durante los años 1960 había un considerable solapamiento entre las tecnologías de la segunda y la tercera generación. Tan tarde como en 1975, Sperry Univac continuaba la fabricación de máquinas de segunda generación como el UNIVAC 494.

El microprocesador condujo al desarrollo del microcomputador, computadores pequeños, de bajo costo, que podía ser poseído por individuos y pequeñas empresas. Los primeros microcomputadores aparecieron en los años 1970, y llegaron a ser ubicuos en los años 1980 y más allá. Steve Wozniak, cofundador de Apple Computer, es acreditado por desarrollar el primer computador casero comercializado masivamente. Sin embargo, su primera computadora, el Apple I, vino algún tiempo después del KIM-1 y el Altair 8800, y la primera computadora de Apple con capacidades de gráficos y de sonidos salió bien después del Commodore PET. La computación se ha desarrollado con arquitecturas de microcomputador, con características añadidas de sus hermanos más grandes, ahora dominantes en la mayoría de los segmentos de mercado.

Una indicación de la rapidez del desarrollo de este campo puede ser deducido por el artículo seminal de Burks, Goldstein, von Neuman, documentado en la revista Datamation de septiembre-octubre de 1962, que fue escrito, como versión preliminar 15 años más temprano. (ver las referencias abajo). Para el momento en que cualquier persona tuviera tiempo para escribir cualquier cosa, ya era obsoleto.

Page 53: TAREA DE INFORMATICA

Historia del hardware de computador (1960-presente)La historia del hardware de computador comenzando en 1960 está marcada por la conversión desde el tubo de vacío a los dispositivos de estado sólido como el transistor y posteriormente el circuito integrado. Por 1959 los transistores discretos eran considerados suficientemente confiables y económicos que hicieron no competitivos los computadores de tubos de vacío. La memoria principal del computador lentamente se movió lejos de los dispositivos de memoria de núcleo magnético a la memoria de semiconductor estática y dinámica de estado sólido, que redujo grandemente el costo, tamaño y consumo de energía de los dispositivos del computador. Eventualmente, el costo de los dispositivos de circuito integrado fue lo suficientemente bajo que los computadores caseros y los computadores personales llegaron a ser comunes.

Tercera generación

El incremento masivo en el uso de los computadores se aceleró con los computadores de la tercera generación. Éstos generalmente confiaron en la invención de Jack Kilby del circuito integrado (o microchip), comenzando desde alrededor 1965. Sin embargo, el IBM System/360 usó circuitos híbridos, que eran dispositivos de estado sólido interconectados en un substrato con alambres discretos.

El primer circuito integrado fue producido en septiembre de 1958 pero los computadores que los usaban no comenzaron a aparecer hasta 1963. Algunas de sus usos tempranos eran en los sistemas embebidos, notablemente usados por la NASA para el Apollo Guidance Computer y por los militares en el misil balístico intercontinental LGM-30 Minuteman.

Antes de 1971, el supercomputador ILLIAC IV, que fue el computador más rápido del mundo por varios años, usó alrededor de un cuarto de millón de circuitos integrados de puertas lógicas ECL de baja escala de integración para hacer sesenta y cuatro procesadores de datos paralelos.1

Mientras que los grandes computadores mainframes como el System/360 aumentaron las capacidades de almacenaminto y procesamiento, el circuito integrado también permitió el desarrollo de computadores mucho más pequeños. El minicomputador fue una innovación significativa en los años 1960 y 1970. Trajo poder de computación a más gente, no sólo por medio de un tamaño físico más conveniente sino también ampliando el campo del vendedor de computadora. Digital Equipment Corporation se convirtió en la compañía número dos de computadores detrás de IBM con sus populares sistemas de computación PDP y VAX. Un hardware más pequeño, asequible, también provocó el desarrollo de importantes nuevos sistemas operativos como Unix.

Page 54: TAREA DE INFORMATICA

La integración en gran escala de los circuitos condujo al desarrollo de unidades de procesamiento muy pequeñas. Un ejemplo temprano de esto fue el procesador clasificado CADC usado para analizar los datos de vuelo en el avión de combate del F-14 Tomcat de la Armada de los Estados Unidos. Este procesador fue desarrollado por Steve Geller, Ray Holt y un equipo de Garrett AiResearch y American Microsystems.

En 1966, Hewlett-Packard entró en el negocio de computadores de propósito general con su HP-2116, ofreciendo poder de computación antes encontrado solamente en computadores mucho más grandes. Soportó una gran variedad de lenguajes, entre ellos BASIC, ALGOL, y FORTRAN.

1969: Data General Nova

En 1969, Data General despachó un total de 50.000 Novas por $8000 cada uno. El Nova fue uno de los primeros minicomputadores de 16 bits y condujo hacia las longitudes de palabra que eran múltiplos del byte de 8 bits. Era el primero en emplear circuitos de mediana escala de integración (MSI) de Fairchild Semiconductor, con modelos subsecuentes usando circuitos integrados de gran escala de integración (LSI). También fue notable en que la unidad central de proceso entera estaba contenida en una tarjeta de circuito impreso de 15 pulgadas.

En 1973, el TV Typewriter, diseñado por Don Lancaster, proporcionó a los aficionados de la electrónica con una exhibición de información alfanumérica en un televisor ordinario. Usó $120 en componentes electrónicos, como se esquematizaba en la revista Radio Electronics de septiembre de 1973. El diseño original incluyó dos tarjetas de memoria y podía generar y almacenar 512 caracteres como 16 líneas de 32 caracteres. Una cinta de cassette de 90 minutos proporcionó el almacenamiento suplementario para cerca de 100 páginas de texto. Su diseño usó hardware minimalístico para generar la temporización de las varias señales necesarias para crear la señal de TV. Más adelante, Clive Sinclair usó el mismo acercamiento en su legendario Sinclair ZX80.

Cuarta generación

La base de la cuarta generación fue la invención del microprocesador por un equipo en Intel.

Page 55: TAREA DE INFORMATICA

A diferencia de los minicomputadores de la tercera generación, que eran esencialmente versiones reducidas de los computadores mainframes, los orígenes de la cuarta generación son fundamentalmente diferentes. Los computadores basados en microprocesadores originalmente eran muy limitadas en su velocidad y capacidad de cómputo, y no eran, de ninguna manera, un intento de reducir el tamaño del minicomputador. Se dirigían a un mercado enteramente diferente.

Aunque las capacidades de procesamiento y memoria hayan crecido desde los años 1970 más allá de todo reconocimiento, la tecnología subyacente de microchips de alta escala de integración (LSI) o muy alta escala de integración (VLSI) ha continuado siendo básicamente la misma, así que se considera extensamente que la mayor parte de los computadores de hoy todavía pertenecen a la cuarta generación.

Microprocesadores

1971: Intel 4004

El 15 de noviembre de 1971, Intel lanzó el primer microprocesador comercial del mundo, el 4004. Fue desarrollado para una compañía japonesa de calculadoras, Busicom, como una alternativa al circuito cableado (hardwired), pero fueron desarrollados computadores alrededor de él, con mucha de sus capacidades de procesamiento proporcionadas por un pequeño chip microprocesador. Acoplado con uno de los otros productos de Intel - el chip de RAM, basado en una invención por Robert Dennard de IBM, (kilobits de memoria en un chip) - el microprocesador permitió que los computadores de la cuarta generación fueran más pequeños y más rápidos que los anteriores. El 4004 solamente era capaz de 60.000 instrucciones por segundo, pero sus sucesores, los Intel 8008, 8080 (usados en muchas computadoras con el sistema operativo CP/M), y la familia 8086/8088 (el computador personal IBM (PC) y los compatibles usan procesadores todavía compatibles hacia atrás con en 8086) brindaron aún una creciente velocidad y poder a los computadores. Otros productores también hicieron microprocesadores que eran ampliamente usados en microcomputadores.

Supercomputadores

Page 56: TAREA DE INFORMATICA

1976: Supercomputador Cray-1

En el otro extremo del espectro computacional al de los microcomputadores, los poderosos supercomputadores de la era también usaron tecnología del circuito integrado. En 1976 el Cray-1 fue desarrollado por Seymour Cray, quien había dejado Control Data en 1972 para formar su propia compañía. Esta máquina, el primer supercomputador en hacer práctico al processamiento vectorial, tenía una característica forma de herradura, para acelerar el procesamiento acortando las trayectorias de los circuitos. El procesamiento vectorial, que usa una instrucción para realizar la misma operación en muchos argumentos, ha sido desde entonces un método de procesamiento fundamental de los supercomputadores. El Cray-1 podía calcular 150 millones de operaciones de coma flotante por segundo (150 megaflops). 85 Cray-1 fueron despachados a un precio de $5 millones cada uno. El Cray-1 tenía un CPU que fue construido en su mayor parte de circuitos integrados SSI y MSI ECL.

Mainframes y minicomputadores

Los terminales de computadora conectados a computadores centrales de tiempo compartido, tales como el terminal inteligente TeleVideo de modo de caracteres ASCII, a veces fueron usados antes del advenimiento del PC.

Antes de la introducción del microprocesador a principios de los años 1970, los computadores eran generalmente grandes, costosos, sus dueños eran instituciones grandes como corporaciones, universidades, agencias de gobierno, y similares. Los usuarios, eran experimentados especialistas, que usualmente no interactuaban con la máquina en sí misma, sino que preparaban tareas para el computador en equipos fuera de línea, tal como

Page 57: TAREA DE INFORMATICA

perforadoras de tarjetas. Un número de asignaciones para el computador serían recolectadas y procesadas en modalidad de procesamiento por lotes. Después de que los trabajos hubieran terminado, los usuarios podían recoger las salidas en listados impresos y en tarjetas perforadas. En algunas organizaciones podía tardar horas o días entre someter un trabajo al centro de computación y la recepción de la salida.

Una forma más interactiva de uso del computador se desarrolló comercialmente a mediados de los años 1960. En un sistema de tiempo compartido, múltiples terminales de teletipo le permitieron a mucha gente, compartir el uso de un procesador de computador mainframe. Esto fue común en aplicaciones empresariales y en ciencia e ingeniería.

Un diferente modelo del uso del computador fue presagiado por la manera en que los primeros computadores no comerciales fueron usados, donde un usuario tenía uso exclusivo de un procesador.2 Algunos de los primeros computadores que pudieron haberse llamado "personales" fueron tempranos minicomputadores tales como el LINC y el PDP-8, y después el VAX y minicomputadores más grandes de Digital Equipment Corporation (DEC), Data General, Prime Computer, y de otros. Ellos se originaron, como procesadores periféricos para los computadores mainframes, tomando algunas tareas rutinarias y liberando el procesador para el cómputo. Por los estándares de hoy eran físicamente grandes (alrededor del tamaño de un refrigerador) y costosos (típicamente decenas de miles de dólares), y así raramente fueron comprados por individuos. Sin embargo, eran mucho más pequeños, menos costosos, y generalmente más simples de operar que los computadores mainframes de ese tiempo, y así asequibles por laboratorios individuales y proyectos de investigación. Los minicomputadores liberaron en gran parte, a estas organizaciones, del procesamiento por lotes, y de la burocracia de un centro de computación comercial o universitario.

Además, los minicomputadores eran más interactivos que las unidades centrales, y pronto tendrían sus propios sistemas operativos. El minicomputador Xerox Alto (1973) fue un punto destacado en el desarrollo de los computadores personales, debido a su interface gráfica de usuario, pantalla de mapa de bits de alta resolución, grande almacenamiento de memoria interno y externo, ratón, y software especial.3

Page 58: TAREA DE INFORMATICA

El microprocesador y la reducción de costos

El Apple II, uno de los computadores de la "trinidad de 1977". La unidad de disco mostrada es un modelo para el Apple III

Los antepasados (minicomputadores) del moderno computador personal usaban tecnología de circuitos integrados, que redujeron el tamaño y el costo, comparado a los transistores discretos. El proceso fue realizado por circuitos con una gran cantidad de componentes dispuestos en múltiples tarjetas grandes de circuitos impresos. Los minicomputadores eran consecuentemente físicamente grandes y costosos en producir comparado con posteriores sistemas de microprocesadores. Después de que el "computador en un chip" fuera comercializado, el costo de producir un sistema de computación cayó dramáticamente. La aritmética, lógica, y las funciones de control que previamente ocuparon varias costosas tarjetas de circuitos, ahora estaban disponibles en un circuito integrado que era muy costoso de diseñar pero barato de producir en granes cantidades. Concurrentemente, los avances en el desarrollo de la [[memoria de estado sólido]} eliminaron la abultada, costosa, hambrienta de energía memoria de núcleo magnético usada en anteriores generaciones de computadores.

El Altair 8800 y el IMSAI 8080

l desarrollo del microprocesador en un solo chip fue un enorme catalizador en la popularización de verdaderos computadores personales baratos y fáciles de usar. El Altair 8800, introducido en un artículo de la revista Popular Electronics en la edición de enero de 1975, fijó en ese entonces un nuevo punto de bajo precio para una computadora, trayendo la posesión del computador a un mercado ciertamente selecto en los años 1970. Esto fue seguido por el computador IMSAI 8080 (un clon del Altair 8800), con capacidades y limitaciones similares. El Altair y el IMSAI eran esencialmente minicomputadores reducidos y eran incompletos: para conectar un teclado o un teletipo a ellos se requerían "periféricos" pesados y costosos. Ambas máquinas ofrecían un panel delantero con interruptores y luces, que se comunicaban con el operador en binario. Para programar la máquina después encenderla, el programa bootstrap loader (cargador de arranque) tenía que ser entrado, sin errores, en binario, y luego, un interpretador BASIC se cargaba desde un lector de cinta de papel. Teclear el cargador requirió el la configuración hacia arriba o hacia abajo de un banco de ocho interruptores y presionar el botón de "cargar" (load), una vez para cada byte del programa, que típicamente era de cientos de bytes de longitud. La

Page 59: TAREA DE INFORMATICA

computadora podría correr programas escritos en BASIC una vez que el interpretador había sido cargado.

1975: Altair 8800

El MITS Altair 8800, el primer kit de microprocesador comercialmente exitoso, fue ofrecido en la cubierta de la revista Popular Electronics en enero de 1975. Fue el primer kit del mundo, producido en masa, de un computador personal, así como el primer computador en usar un procesador Intel 8080. Fue un éxito comercial con 10.000 Altairs despachados. El Altair también inspiró los esfuerzos de desarrollo de programas de Paul Allen y de su amigo de la universidad, Bill Gates, que desarrollaron un interpretador BASIC para el Altair, y después crearon Microsoft.

El Altair 8800 de MITS efectivamente creó una nueva industria de microcomputadores y de kits de computadores, con muchos otras siguiendo, por ejemplo una onda de pequeños computadores de negocios al final de los años 1970 basados en los microprocesadores Intel 8080, Zilog Z80 e Intel 8085. La mayoría corriendo el sistema operativo CP/M-80 desarrollado por Gary Kildall en Digital Research. CP/M-80 fue el primer sistema operativo de microcomputador popular a ser usado por muchos vendedores diferentes de hardware, y muchos paquetes de softwares fueron escritos para él, tales como WordStar y dBase II.

Por mediados de los años setenta, muchos aficionados diseñaron sus propios sistemas, con varios grados de éxito, y se congregaron juntos para facilitar el trabajo. Fuera de estas reuniones de casa, el Homebrew Computer Club se convirtió en un lugar donde los aficionados se encontraron para hablar de lo que habían hecho, intercambiar diagramas esquemáticos y software, y demuestrar sus sistemas. Mucha gente construyó o ensambó sus propios computadores según diseños publicados. Por ejemplo, muchos miles de personas construyeron el computador casero Galaksija más adelante a principios de los años 1980.

Podría decirse que el computador Altair, generó el desarrollo de las empresas Apple, así como de Microsoft la cual produjo y vendió el interpretador de lenguaje de programación Altair BASIC, primer producto de Microsoft. La segunda generación de microcomputadores, los que aparecieron al final de los años 1970, provocado por la inesperada demanda para los computadores de kit en los clubs de aficionados de la electrónica, eran usualmente conocidos como computadores caseros. Para el uso de negocio, estos sistemas eran menos capaces y en cierto modo menos versátiles que los computadores de negocio grandes de esos días. Fueron diseñados para la diversión y

Page 60: TAREA DE INFORMATICA

propósitos educativos, no tanto para el uso práctico. Y aunque se podían usar en ellos algunas aplicaciones simples de oficina/productividad, fueron generalmente usados por los entusiastas de los computadores para aprender a programar y para correr juegos de computadora, para los cuales los computadores personales del período eran menos convenientes y mucho más costosos. Para los aficionados más técnicos, los computadores caseros también fueron usados para la la interface electrónica, por ejemplo controlar modelos de trenes, y otras actividades del aficionado.

Micral N

En Francia, la compañía Réalisations et Etudes Electroniques (R2E)4 formada por dos ingenieros anteriores de la compañía de Intertechnique, André Truong Trong Thi 5 6 y François Gernelle,7 introdujo en febrero de 1973 un microcomputador, el Micral N basado en el Intel 8008.8 Originalmente, el computador había sido diseñado por Gernelle, Lacombe, Beckmann y Benchitrite para el Institut National de la Recherche Agronomique para automatizar mediciones higrométricas.9 10 El Micral N costó un quinto del precio de un PDP-8, alrededor de 8500FF ($1300). El reloj del Intel 8008 fue fijado en 500kHz, la memoria fue de 16 kilobytes. Un bus, llamado Pluribus fue introducido y permitía la conexión de hasta 14 tarjetas. Diferentes tableros para entrada/salida digital, entrada/salida análoga, memoria, disco floppy, estaban disponibles por R2E. El sistema operativo de Micral fue llamado inicialmente Sysmic, y fue más tarde renombrado Prologue. R2E fue absorbida por Groupe Bull en 1978. Aunque Groupe Bull continuara la producción de computadoras Micral, no estaba interesado en el mercado del computador personal. y los computadores Micral fueron confinadas sobre todo a las puertas de peaje de la carretera (donde permanecieron en servicio hasta 1992) y similares mercados muy especializado.

El microcomputador emerge

El advenimiento del microprocesador y de la memoria de estado sólido hizo la computación casera asequible. Los primeros sistemas de computadores para el aficionadocomo, el Altair 8800 y el Apple I, introducidos alrededor de 1975 marcaron el lanzamiento de los chips de procesador de 8 bits de bajo costo, que tenían suficiente poder de computación para ser de interés para usuarios aficionados y experimentales. Por 1977, sistemas preensamblados como el Apple II, Commodore PET, y el TRS-80 (más adelante denominados como la "Trinidad de 1977" por la revista Byte)11 comenzaron la era de los computadores personales mercadeados en masa; mucho menos esfuerzo fue requerido para obtener una computadora operando, y aplicaciones tales como juegos, procesamiento de palabras, y hojas de cálculo comenzaron a proliferar. A diferencia de los computadores usados en hogares, los pequeños sistemas empresariales fueron típicamente basados en el CP/M, hasta que IBM introdujera el IBM PC, que fue adoptado rápidamente. El PC fue fuertemente clonado, llevando a la producción en masa y a la consiguiente reducción de costos a través de los años 1980. Esto expandió la presencia de los PC en los hogares, reemplazando la categoría del computador casero durante los años 1990 y llevando a la actual monocultura de computadores personales arquitectónicamente idénticos.

Page 61: TAREA DE INFORMATICA

La 'Trinidad de 1977'. Estos fueron los primeros microcomputadores que comenzaron la era del computador personal

Apple II

Trs80 2.jpg

TRS-80 Model I

Commodore PET

Page 62: TAREA DE INFORMATICA

Sistema operativoDe Wikipedia, la enciclopedia libreSaltar a navegación, búsqueda

Interacción entre el SO con el resto de las partes.

Estimación del uso de sistemas operativos según una muestra de computadoras con acceso a Internet en Noviembre de 2009 (Fuente: W3counter).

Un sistema operativo (SO) es el programa o conjunto de programas que efectúan la gestión de los procesos básicos de un sistema informático, y permite la normal ejecución del resto de las operaciones.1

Nótese que es un error común muy extendido denominar al conjunto completo de herramientas sistema operativo, es decir, la inclusión en el mismo término de programas como el explorador de ficheros, el navegador y todo tipo de herramientas que permiten la interacción con el sistema operativo, también llamado núcleo o kernel. Uno de los más prominentes ejemplos de esta diferencia, es el núcleo Linux, que es el núcleo del sistema operativo GNU, del cual existen las llamadas distribuciones GNU. Este error de precisión, se debe a la modernización de la informática llevada a cabo a finales de los 80, cuando la

Page 63: TAREA DE INFORMATICA

filosofía de estructura básica de funcionamiento de los grandes computadores2 se rediseñó a fin de llevarla a los hogares y facilitar su uso, cambiando el concepto de computador multiusuario, (muchos usuarios al mismo tiempo) por un sistema monousuario (únicamente un usuario al mismo tiempo) más sencillo de gestionar.3 (Véase AmigaOS, beOS o MacOS como los pioneros4 de dicha modernización, cuando los Amiga, fueron bautizados con el sobrenombre de Video Toasters5 por su capacidad para la Edición de vídeo en entorno multitarea round robin, con gestión de miles de colores e interfaces intuitivos para diseño en 3D.

Uno de los propósitos del sistema operativo que gestiona el núcleo intermediario consiste en gestionar los recursos de localización y protección de acceso del hardware, hecho que alivia a los programadores de aplicaciones de tener que tratar con estos detalles. Se encuentran en la mayoría de los aparatos electrónicos que utilizan microprocesadores para funcionar. (teléfonos móviles, reproductores de DVD, computadoras, radios, etc.).

Contenido

[ocultar]

1 Perspectiva histórica o 1.1 Problemas de explotación y soluciones iniciales o 1.2 Monitores residentes o 1.3 Sistemas con almacenamiento temporal de E/S o 1.4 Spoolers

2 Perspectiva histórica o 2.1 Sistemas operativos multiprogramados

3 Llamadas al sistema operativo o 3.1 Modos de ejecución en un CPU o 3.2 Llamadas al sistema o 3.3 Bibliotecas de interfaz de llamadas al sistema

4 Interrupciones y excepciones o 4.1 Tratamiento de las interrupciones o 4.2 Importancia de las interrupciones o 4.3 Excepciones

4.3.1 Clases de excepciones 4.3.2 Importancia de las excepciones

5 Componentes de un sistema operativo o 5.1 Gestión de procesos o 5.2 Gestión de la memoria principal o 5.3 Gestión del almacenamiento secundario o 5.4 El sistema de E/S o 5.5 Sistema de archivos o 5.6 Sistemas de protección o 5.7 Sistema de comunicaciones o 5.8 Programas de sistema

Page 64: TAREA DE INFORMATICA

o 5.9 Gestor de recursos 6 Clasificación

o 6.1 Administración de tareas o 6.2 Administración de usuarios o 6.3 Manejo de recursos

7 Véase también 8 Referencias 9 Bibliografía 10 Enlaces externos

[editar] Perspectiva histórica

Los primeros sistemas (1945-1960) eran grandes máquinas operadas desde la consola maestra por los programadores. Durante la década siguiente (1950-1960) se llevaron a cabo avances en el hardware: lectoras de tarjetas, impresoras, cintas magnéticas, etc. Esto a su vez provocó un avance en el software: compiladores, ensambladores, cargadores, manejadores de dispositivos, etc.

A finales de los años 80, una computadora Commodore Amiga equipada con una aceleradora Video Toaster era capaz de producir efectos comparados a sistemas dedicados que costaban el triple. Un Video Toaster junto a Lightwave ayudó a producir muchos programas de televisión y películas, entre las que se incluyen Babylon 5, Seaquest DSV y Terminator II.6

[editar] Problemas de explotación y soluciones iniciales

El problema principal de los primeros sistemas era la baja utilización de los mismos, la primera solución fue poner un operador profesional que lo manejase, con lo que se eliminaron las hojas de reserva, se ahorró tiempo y se aumentó la velocidad.

Para ello, los trabajos se agrupaban de forma manual en lotes mediante lo que se conoce como procesamiento por lotes (batch) sin automatizar.

[editar] Monitores residentes

Page 65: TAREA DE INFORMATICA

Fichas en lenguaje de procesamiento por lotes, con programa y datos, para ejecución secuencial.

Según fue avanzando la complejidad de los programas, fue necesario implementar soluciones que automatizaran la organización de tareas sin necesidad de un operador. Debido a ello se crearon los monitores residentes: programas que residían en memoria y que gestionaban la ejecución de una cola de trabajos.

Un monitor residente estaba compuesto por un cargador, un Intérprete de comandos y un Controlador (drivers) para el manejo de entrada/salida.

[editar] Sistemas con almacenamiento temporal de E/S

Los avances en el hardware crearon el soporte de interrupciones y posteriormente se llevó a cabo un intento de solución más avanzado: solapar la E/S de un trabajo con sus propios cálculos, por lo que se creó el sistema de buffers con el siguiente funcionamiento:

Un programa escribe su salida en un área de memoria (buffer 1). El monitor residente inicia la salida desde el buffer y el programa de aplicación

calcula depositando la salida en el buffer 2. La salida desde el buffer 1 termina y el nuevo cálculo también. Se inicia la salida desde el buffer 2 y otro nuevo cálculo dirige su salida al buffer 1. El proceso se puede repetir de nuevo.

Los problemas surgen si hay muchas más operaciones de cálculo que de E/S (limitado por la CPU) o si por el contrario hay muchas más operaciones de E/S que cálculo (limitado por la E/S).

[editar] Spoolers

[editar] Perspectiva histórica

Los primeros sistemas (1945-1950) eran grandes máquinas operadas desde la consola maestra por los programadores. Durante la década siguiente (1950-1960) se llevaron a cabo avances en el hardware: lectoras de tarjetas, impresoras, cintas magnéticas, etc. Esto a su vez provocó un avance en el software: compiladores, ensambladores, cargadores, manejadores de dispositivos, etc.

Hace aparición el disco magnético con lo que surgen nuevas soluciones a los problemas de rendimiento. Se eliminan las cintas magnéticas para el volcado previo de los datos de dispositivos lentos y se sustituyen por discos (un disco puede simular varias cintas). Debido al solapamiento del cálculo de un trabajo con la E/S de otro trabajo se crean tablas en el disco para diferentes tareas, lo que se conoce como Spool (Simultaneous Peripherial Operation On-Line).

Page 66: TAREA DE INFORMATICA

[editar] Sistemas operativos multiprogramados

Surge un nuevo avance en el hardware: el hardware con protección de memoria. Lo que ofrece nuevas soluciones a los problemas de rendimiento:

Se solapa el cálculo de unos trabajos con la entrada/salida de otros trabajos. Se pueden mantener en memoria varios programas. Se asigna el uso de la CPU a los diferentes programas en memoria.

Debido a los cambios anteriores, se producen cambios en el monitor residente, con lo que éste debe abordar nuevas tareas, naciendo lo que se denomina como Sistemas Operativos multiprogramados, los cuales cumplen con las siguientes funciones:

Administrar la memoria. Gestionar el uso de la CPU (planificación). Administrar el uso de los dispositivos de E/S.

Cuando desempeña esas tareas, el monitor residente se transforma en un sistema operativo multiprogramado.

[editar] Llamadas al sistema operativo

Definición breve: llamadas que ejecutan los programas de aplicación para pedir algún servicio al SO.

Cada SO implementa un conjunto propio de llamadas al sistema. Ese conjunto de llamadas es la interfaz del SO frente a las aplicaciones. Constituyen el lenguaje que deben usar las aplicaciones para comunicarse con el SO. Por ello si cambiamos de SO, y abrimos un programa diseñado para trabajar sobre el anterior, en general el programa no funcionará, a no ser que el nuevo SO tenga la misma interfaz. Para ello:

Las llamadas correspondientes deben tener el mismo formato. Cada llamada al nuevo SO tiene que dar los mismos resultados que la

correspondiente del anterior.

[editar] Modos de ejecución en un CPU

Las aplicaciones no deben poder usar todas las instrucciones de la CPU. No obstante el Sistema Operativo, tiene que poder utilizar todo el juego de instrucciones del CPU. Por ello, una CPU debe tener (al menos) dos modos de operación diferentes:

Modo usuario: el CPU podrá ejecutar sólo las instrucciones del juego restringido de las aplicaciones.

Modo supervisor: la CPU debe poder ejecutar el juego completo de instrucciones.

[editar] Llamadas al sistema

Page 67: TAREA DE INFORMATICA

Una aplicación, normalmente no sabe dónde está situada la rutina de servicio de la llamada. Por lo que si ésta se codifica como una llamada de función, cualquier cambio en el SO haría que hubiera que reconstruir la aplicación.

Pero lo más importante es que una llamada de función no cambia el modo de ejecución de la CPU. Con lo que hay que conseguir llamar a la rutina de servicio, sin tener que conocer su ubicación, y hacer que se fuerce un cambio de modo de operación de la CPU en la llamada (y la recuperación del modo anterior en el retorno).

Esto se hace utilizando instrucciones máquina diseñadas específicamente para este cometido, distintas de las que se usan para las llamadas de función.

[editar] Bibliotecas de interfaz de llamadas al sistema

Las llamadas al sistema no siempre tienen una expresión sencilla en los lenguajes de alto nivel, por ello se crean las bibliotecas de interfaz, que son bibliotecas de funciones que pueden usarse para efectuar llamadas al sistema. Las hay para distintos lenguajes de programación.

La aplicación llama a una función de la biblioteca de interfaz (mediante una llamada normal) y esa función es la que realmente hace la llamada al sistema.

[editar] Interrupciones y excepciones

El SO ocupa una posición intermedia entre los programas de aplicación y el hardware. No se limita a utilizar el hardware a petición de las aplicaciones ya que hay situaciones en las que es el hardware el que necesita que se ejecute código del SO. En tales situaciones el hardware debe poder llamar al sistema, pudiendo deberse estas llamadas a dos condiciones:

Algún dispositivo de E/S necesita atención. Se ha producido una situación de error al intentar ejecutar una instrucción del

programa (normalmente de la aplicación).

En ambos casos, la acción realizada no está ordenada por el programa de aplicación, es decir, no figura en el programa.

Según los dos casos anteriores tenemos las interrupciones y la excepciones:

Interrupción: señal que envía un dispositivo de E/S a la CPU para indicar que la operación de la que se estaba ocupando, ya ha terminado.

Excepción: una situación de error detectada por la CPU mientras ejecutaba una instrucción, que requiere tratamiento por parte del SO.

[editar] Tratamiento de las interrupciones

Page 68: TAREA DE INFORMATICA

Una interrupción se trata en todo caso, después de terminar la ejecución de la instrucción en curso.

El tratamiento depende de cuál sea el dispositivo de E/S que ha causado la interrupción, ante la cual debe poder identificar el dispositivo que la ha causado.

La ventaja de este procedimiento es que no se tiene que perder tiempo ejecutando continuamente rutinas para consultar el estado del periférico. El inconveniente es que el dispositivo debe tener los circuitos electrónicos necesarios para acceder al sistema de interrupciones del computador.

[editar] Importancia de las interrupciones

El mecanismo de tratamiento de las interrupciones permite al SO utilizar la CPU en servicio de una aplicación, mientras otra permanece a la espera de que concluya una operación en un dispositivo de E/S.

El hardware se encarga de avisar al SO cuando el dispositivo de E/S ha terminado y el SO puede intervenir entonces, si es conveniente, para hacer que el programa que estaba esperando por el dispositivo, se continúe ejecutando.

En ciertos intervalos de tiempo puede convenir no aceptar señales de interrupción. Por ello las interrupciones pueden inhibirse por programa (aunque esto no deben poder hacerlo las mismas).

Un ejemplo de sincronismo por interrupción es el almacenamiento de caracteres introducidos mediante el teclado. Cuando se introduce un carácter, se codifica en el registro de datos del dispositivo y además se activa un bit del registro de estado quien crea una interrupción en el hardware. El procesador deja temporalmente la tarea que estaba completando y ejecuta la rutina de atención a la interrupción correspondiente. El teclado almacena el carácter en el vector de memoria intermedia ( también llamado buffer) asociada al teclado y despierta el proceso que había en el estado de espera de la operación de entrada/salida.

[editar] Excepciones

Cuando la CPU intenta ejecutar una instrucción incorrectamente construida, la unidad de control lanza una excepción para permitir al SO ejecutar el tratamiento adecuado. Al contrario que en una interrupción, la instrucción en curso es abortada. Las excepciones al igual que las interrupciones deben estar identificadas.

[editar] Clases de excepciones

Las instrucciones de un programa pueden estar mal construidas por diversas razones:

El código de operación puede ser incorrecto.

Page 69: TAREA DE INFORMATICA

Se intenta realizar alguna operación no definida, como dividir por cero. La instrucción puede no estar permitida en el modo de ejecución actual. La dirección de algún operando puede ser incorrecta o se intenta violar alguno de

sus permisos de uso.

[editar] Importancia de las excepciones

El mecanismo de tratamiento de las excepciones es esencial para impedir, junto a los modos de ejecución de la CPU y los mecanismos de protección de la memoria, que las aplicaciones realicen operaciones que no les están permitidas. En cualquier caso, el tratamiento específico de una excepción lo realiza el SO.

Como en el caso de las interrupciones, el hardware se limita a dejar el control al SO, y éste es el que trata la situación como convenga.

Es bastante frecuente que el tratamiento de una excepción no retorne al programa que se estaba ejecutando cuando se produjo la excepción, sino que el SO aborte la ejecución de ese programa. Este factor depende de la pericia del programador para controlar la excepción adecuadamente.

[editar] Componentes de un sistema operativo

Componentes del Sistema Operativo.

[editar] Gestión de procesos

Un proceso es simplemente, un programa en ejecución que necesita recursos para realizar su tarea: tiempo de CPU, memoria, archivos y dispositivos de E/S. El SO es el responsable de:

Crear y destruir los procesos. Parar y reanudar los procesos. Ofrecer mecanismos para que se comuniquen y sincronicen.

La gestión de procesos podría ser similar al trabajo de oficina. Se puede tener una lista de tareas a realizar y a estas fijarles prioridades alta, media, baja por ejemplo. Debemos comenzar haciendo las tareas de prioridad alta primero y cuando se terminen seguir con las

Page 70: TAREA DE INFORMATICA

de prioridad media y después las de baja. Una vez realizada la tarea se tacha. Esto puede traer un problema que las tareas de baja prioridad pueden que nunca lleguen a ejecutarse. y permanezcan en la lista para siempre. Para solucionar esto, se puede asignar alta prioridad a las tareas más antiguas.

[editar] Gestión de la memoria principal

La Memoria es una gran tabla de palabras o bytes que se referencian cada una mediante una dirección única. Este almacén de datos de rápido accesos es compartido por la CPU y los dispositivos de E/S, es volátil y pierde su contenido en los fallos del sistema. El SO es el responsable de:

Conocer qué partes de la memoria están siendo utilizadas y por quién. Decidir qué procesos se cargarán en memoria cuando haya espacio disponible. Asignar y reclamar espacio de memoria cuando sea necesario.

[editar] Gestión del almacenamiento secundario

Un sistema de almacenamiento secundario es necesario, ya que la memoria principal (almacenamiento primario) es volátil y además muy pequeña para almacenar todos los programas y datos. También es necesario mantener los datos que no convenga mantener en la memoria principal. El SO se encarga de:

Planificar los discos. Gestionar el espacio libre. Asignar el almacenamiento. Verificar que los datos se guarden en orden

[editar] El sistema de E/S

Consiste en un sistema de almacenamiento temporal (caché), una interfaz de manejadores de dispositivos y otra para dispositivos concretos. El sistema operativo debe gestionar el almacenamiento temporal de E/S y servir las interrupciones de los dispositivos de E/S.

[editar] Sistema de archivos

Los archivos son colecciones de información relacionada, definidas por sus creadores. Éstos almacenan programas (en código fuente y objeto) y datos tales como imágenes, textos, información de bases de datos, etc. El SO es responsable de:

Construir y eliminar archivos y directorios. Ofrecer funciones para manipular archivos y directorios. Establecer la correspondencia entre archivos y unidades de almacenamiento. Realizar copias de seguridad de archivos.

Page 71: TAREA DE INFORMATICA

Existen diferentes Sistemas de Archivos, es decir, existen diferentes formas de organizar la información que se almacena en las memorias (normalmente discos) de los ordenadores. Por ejemplo, existen los sistemas de archivos FAT, FAT32, EXT3, NTFS, XFS, etc.

Desde el punto de vista del usuario estas diferencias pueden parecer insignificantes a primera vista, sin embargo, existen diferencias muy importantes. Por ejemplo, los sistemas de ficheros FAT32 y NTFS, que se utilizan fundamentalmente en sistemas operativos de Microsoft, tienen una gran diferencia para un usuario que utilice una base de datos con bastante información ya que el tamaño máximo de un fichero con un Sistema de Archivos FAT32 está limitado a 4 gigabytes, sin embargo, en un sistema NTFS el tamaño es considerablemente mayor.

[editar] Sistemas de protección

Mecanismo que controla el acceso de los programas o los usuarios a los recursos del sistema. El SO se encarga de:

Distinguir entre uso autorizado y no autorizado. Especificar los controles de seguridad a realizar. Forzar el uso de estos mecanismos de protección.

[editar] Sistema de comunicaciones

Para mantener las comunicaciones con otros sistemas es necesario poder controlar el envío y recepción de información a través de las interfaces de red. También hay que crear y mantener puntos de comunicación que sirvan a las aplicaciones para enviar y recibir información, y crear y mantener conexiones virtuales entre aplicaciones que están ejecutándose localmente y otras que lo hacen remotamente.

[editar] Programas de sistema

Son aplicaciones de utilidad que se suministran con el SO pero no forman parte de él. Ofrecen un entorno útil para el desarrollo y ejecución de programas, siendo algunas de las tareas que realizan:

Manipulación y modificación de archivos. Información del estado del sistema. Soporte a lenguajes de programación. Comunicaciones.

[editar] Gestor de recursos

Como gestor de recursos, el Sistema Operativo administra:

La CPU (Unidad Central de Proceso, donde está alojado el microprocesador). Los dispositivos de E/S (entrada y salida)

Page 72: TAREA DE INFORMATICA

La memoria principal (o de acceso directo). Los discos (o memoria secundaria). Los procesos (o programas en ejecución). y en general todos los recursos del sistema.

[editar] Clasificación

[editar] Administración de tareas

Monotarea : Solamente puede ejecutar un proceso (aparte de los procesos del propio S.O.) en un momento dado. Una vez que empieza a ejecutar un proceso, continuará haciéndolo hasta su finalización y/o interrupción.

Multitarea : Es capaz de ejecutar varios procesos al mismo tiempo. Este tipo de S.O. normalmente asigna los recursos disponibles (CPU, memoria, periféricos) de forma alternada a los procesos que los solicitan, de manera que el usuario percibe que todos funcionan a la vez, de forma concurrente.

[editar] Administración de usuarios

Monousuario : Si sólo permite ejecutar los programas de un usuario al mismo tiempo.

Multiusuario : Si permite que varios usuarios ejecuten simultáneamente sus programas, accediendo a la vez a los recursos de la computadora. Normalmente estos sistemas operativos utilizan métodos de protección de datos, de manera que un programa no pueda usar o cambiar los datos de otro usuario.

[editar] Manejo de recursos

Centralizado: Si permite utilizar los recursos de una sola computadora. Distribuido: Si permite utilizar los recursos (memoria, CPU, disco, periféricos... ) de

más de una computadora al mismo tiempo.

Page 73: TAREA DE INFORMATICA

Historia de los sistemas operativosDe Wikipedia, la enciclopedia libre(Redirigido desde Historia y evolución de los sistemas operativos)Saltar a navegación, búsqueda

Este artículo o sección necesita referencias que aparezcan en una publicación acreditada, como revistas especializadas, monografías, prensa diaria o páginas de Internet fidedignas.Puedes añadirlas así o avisar al autor principal del artículo en su página de discusión pegando: {{subst:Aviso referencias|Historia de los sistemas operativos}} ~~~~

Un sistema operativo es un conjunto de programas destinado a permitir el uso apropiado de las partes fisicas del ordenador hardware, y de esta manera interactuar con el usuario. Sin un sistema operativo el usuario seria incapaz de poder trabajar con un computador ya que este no seria mas que una conjunto de piezas electronicas sin objetivo, he ahi su importancia

Es posible encontrar en el tiempo entre la retirada de un trabajo y el montaje del siguiente. Era sumamente complicado, por el hecho de que eran tarjetas perforadas las cuales las tenia que leer el sistema.

1. Almacenamiento temporal == Su objetivo era disminuir el tiempo de carga de los programas, haciendo simultánea la carga del programa o la salida de datos con la ejecución de la siguiente tarea. Para ello se utilizaban dos técnicas, el buffering y el spooling.

En los años 60 se produjeron cambios notorios en varios campos de la informática, con la aparición del circuito integrado la mayoría orientados a seguir incrementando el potencial de los ordenadores. Para ello se utilizaban técnicas de lo más diversas.

Contenido

[ocultar]

1 Multiprogramación 2 Tiempo compartido 3 Tiempo real 4 Multiprocesador 5 Sistemas operativos desarrollados 6 Inconvenientes de los sistemas existentes 7 Características de los nuevos sistemas 8 Sistemas operativos desarrollados 9 Años 80

o 9.1 Mac OS

Page 74: TAREA DE INFORMATICA

o 9.2 MS-DOS o 9.3 Microsoft Windows

10 Años 90 o 10.1 GNU/Linux

[editar] Multiprogramación

En un sistema multiprogramado la memoria principal alberga a más de un programa de usuario. La CPU ejecuta instrucciones de un programa, cuando el que se encuentra en ejecución realiza una operación de E/S; en lugar de esperar a que termine la operación de E/S, se pasa a ejecutar otro programa. Si éste realiza, a su vez, otra operación de E/S, se mandan las órdenes oportunas al controlador, y pasa a ejecutarse otro. De esta forma es posible, teniendo almacenado un conjunto adecuado de tareas en cada momento, utilizar de manera óptima los recursos disponibles.

[editar] Tiempo compartido

Artículo principal: Tiempo compartido

En este punto tenemos un sistema que hace buen uso de la electrónica disponible, pero adolece la falta de interactividad; para conseguirla debe convertirse en un sistema multiusuario, en el cual existen varios usuarios con un terminal en línea, utilizando el modo de operación de tiempo compartido. En estos sistemas los programas de los distintos usuarios residen en memoria. Al realizar una operación de E/S los programas ceden la CPU a otro programa, al igual que en la multiprogramación. Pero, a diferencia de ésta, cuando un programa lleva cierto tiempo ejecutándose el sistema operativo lo detiene para que se ejecute otra aplicación.

[editar] Tiempo real

Estos sistemas se usan en entornos donde se deben aceptar y procesar en tiempos muy breves un gran número de sucesos, en su mayoría externos al ordenador. Si el sistema no respeta las restricciones de tiempo en las que las operaciones deben entregar su resultado se dice que ha fallado. El tiempo de respuesta a su vez debe servir para resolver el problema o hecho planteado. El procesamiento de archivos se hace de una forma continua, pues se procesa el archivo antes de que entre el siguiente, sus primeros usos fueron y siguen siendo en telecomunicaciones.

[editar] Multiprocesador

Diseño que no se encuentran en ordenadores monoprocesador. Estos problemas derivan del hecho de que dos programas pueden ejecutarse simultáneamente y, potencialmente, pueden interferirse entre sí. Concretamente, en lo que se refiere a las lecturas y escrituras en memoria. Existen dos arquitecturas que resuelven estos problemas:

Page 75: TAREA DE INFORMATICA

La arquitectura NUMA, donde cada procesador tiene acceso y control exclusivo a una parte de la memoria. La arquitectura SMP, donde todos los procesadores comparten toda la memoria. Esta última debe lidiar con el problema de la coherencia de caché. Cada microprocesador cuenta con su propia memoria cache local. De manera que cuando un microprocesador escribe en una dirección de memoria, lo hace únicamente sobre su copia local en caché. Si otro microprocesador tiene almacenada la misma dirección de memoria en su caché, resultará que trabaja con una copia obsoleta del dato almacenado.

Para que un multiprocesador opere correctamente necesita un sistema operativo especialmente diseñado para ello. La mayoría de los sistemas operativos actuales poseen esta capacidad.

[editar] Sistemas operativos desarrollados

Además del Atlas Supervisor y el OS/360, los años 70 marcaron el inicio de UNIX, a mediados de los 60 aparece Multics, sistema operativo multiusuario - multitarea desarrollado por los laboratorios Bell de AT&T y Unix, convirtiéndolo en uno de los pocos SO escritos en un lenguaje de alto nivel. En el campo de la programación lógica se dio a luz la primera implementación de Prolog, y en la revolucionaria orientación a objetos, Smalltalk.

[editar] Inconvenientes de los sistemas existentes

Se trataba de sistemas grandes, complejos y costosos, pues antes no se había construido nada similar y muchos de los proyectos desarrollados terminaron con costos muy por encima del presupuesto y mucho después de lo que se marcaba como fecha de finalización. Además, aunque formaban una capa entre el hardware y el usuario, éste debía conocer un complejo lenguaje de control para realizar sus trabajos. Otro de los inconvenientes es el gran consumo de recursos que ocasionaban, debido a los grandes espacios de memoria principal y secundaria ocupados, así como el tiempo de procesador consumido. Es por esto que se intentó hacer hincapié en mejorar las técnicas ya existentes de multiprogramación y tiempo compartido.

[editar] Características de los nuevos sistemas

Para solventar los problemas antes comentados, se realizó un costosísimo trabajo para interponer una amplia capa de software entre el usuario y la máquina, de forma que el primero no tuviese que conocer ningún detalle de la circuitería.

[editar] Sistemas operativos desarrollados

MULTICS (Multiplexed Information and Computing Service): Originalmente era un proyecto cooperativo liderado por Fernando Corbató del MIT, con General Electric y los laboratorios Bell, que comenzó en los 60, pero los laboratorios Bell abandonaron en 1969 para comenzar a crear el sistema UNIX. Se desarrolló

Page 76: TAREA DE INFORMATICA

inicialmente para el mainframe GE-645, un sistema de 36 bits; después fue soportado por la serie de máquinas Honeywell 6180.

Fue uno de los primeros. Además, los traducía a instrucciones de alto nivel destinadas a BDOS.

BDOS (Basic Disk Operating System): Traductor de las instrucciones en llamadas a la BIOS.

El hecho de que, años después, IBM eligiera para sus PC a MS-DOS supuso su mayor fracaso, por lo que acabó desapareciendo.Desde los años 70 han cambiado los sistemas ya que la ciencia ha desarrollado nuevos conocimientos

[editar] Años 80

Con la creación de los circuitos LSI -integración a gran escala-, chips que contenían miles de transistores en un centímetro cuadrado de silicio, empezó el auge de los ordenadores personales. En éstos se dejó un poco de lado el rendimiento y se buscó más que el sistema operativo fuera amigable, surgiendo menús, e interfaces gráficas. Esto reducía la rapidez de las aplicaciones, pero se volvían más prácticos y simples para los usuarios. En esta época, siguieron utilizándose lenguajes ya existentes, como Smalltalk o C, y nacieron otros nuevos, de los cuales se podrían destacar: C++ y Eiffel dentro del paradigma de la orientación a objetos, y Haskell y Miranda en el campo de la programación declarativa. Un avance importante que se estableció a mediados de la década de 1980 fue el desarrollo de redes de computadoras personales que corrían sistemas operativos en red y sistemas operativos distribuidos. En esta escena, dos sistemas operativos eran los mayoritarios: MS-DOS(Micro Soft Disk Operating System), escrito por Microsoft para IBM PC y otras computadoras que utilizaban la CPU Intel 8088 y sus sucesores, y UNIX, que dominaba en los ordenadores personales que hacían uso del Motorola 68000.

[editar] Mac OS

El lanzamiento oficial del ordenador Macintosh en enero de 1984, al precio de US $1,995 (después cambiado a $2,495 dólares)[1]. Incluía su sistema operativo Mac OS cuya características novedosas era una GUI (Graphic User Interface), Multitareas y Mouse. Provocó diferentes reacciones entre los usuarios acostumbrados a la línea de comandos y algunos tachando el uso del Mouse como juguete.

[editar] MS-DOS

En 1981 Microsoft compró un sistema operativo llamado QDOS que, tras realizar unas pocas modificaciones, se convirtió en la primera versión de MS-DOS (MicroSoft Disk Operating System). A partir de aquí se sucedieron una serie de cambios hasta llegar a la versión 7.1, versión 8 en Windows Milenium, a partir de la cual MS-DOS dejó de existir como un componente del Sistema Operativo.

Page 77: TAREA DE INFORMATICA

[editar] Microsoft Windows

A mediados de los años 80 se crea este sistema operativo, pero no es hasta la salida de (Windows 95) que se le puede considerar un sistema operativo, solo era una interfaz gráfica del (MS-DOS)en el cual se disponía de unos diskettes para correr los programas. Hoy en día es el sistema operativo más difundido en el ámbito doméstico aunque también hay versiones para servidores como Windows NT. (Microsoft) ha diseñado también algunas versiones para superordenadores, pero sin mucho éxito. Años después se hizo el (Windows 98) que era el más eficaz de esa época Después se crearía el sistema operativo de (Windows ME) (Windows Millenium Edition) aproximadamente entre el año 1999 y el año 2000. Un año después se crearía el sistema operativo de (Windows 2000) en ese mismo año. Después le seguiría el sistema operativo más utilizado en la actualidad, (Windows XP) y otros sistemas operativos de esta familia especializados en las empresas. Ahora el más reciente es (Windows 7) (Windows Seven) que salio al mercado el 22 de octubre del 2009, dejando atrás al (Windows Vista), que tuvo innumerables criticas durante el poco tiempo que duró en el mercado.

[editar] Años 90

[editar] GNU/Linux

Este sistema es una versión mejorada de Unix, basado en el estándar POSIX , un sistema que en principio trabajaba en modo comandos. Hoy en día dispone de Ventanas, gracias a un servidor gráfico y a gestores de ventanas como KDE, GNOME entre muchos. Recientemente GNU/Linux dispone de un aplicativo que convierte las ventanas en un entorno 3D como por ejemplo Beryl o Compiz. Lo que permite utilizar linux de una forma visual atractiva...

Page 78: TAREA DE INFORMATICA

Sistemas operativos que exixsten

MICROSOFT:

Windows 1.0Windows 2.0Windows 3.0OS/2OS/2.1OS/2 2.0OS/2 3.0 y 4.0Windows 3.1 y Windows 3.11Windows NTWindows NT 3.1Windows NT 3.5/3.51Windows NT 4.0Windows 95Windows 98Windows 98 Second Edition (SE)Windows Millenium Edition (ME)Windows 2000Windows XP (eXPerience)Windows Server 2003Windows VistaWindows Server 2008Windows 7

APPLE

System 6System 7Mac OSMac OSMac os 8.5 Mac OS 9 Mac OS XMac OS X v10.1 (Puma)Mac OS X v10.2 (Jaguar)Mac OS X v10.3 (Panther)Mac OS X v10.4 (Tiger)Mac OS X v10.5 (Leopard)Mac OS X v10.6 (Snow Leopard)

Page 79: TAREA DE INFORMATICA

LINUX

0.010.020.110.951.0.01.1.01.2.01.3.02.0.02.1.02.2.02.3.02.4.02.5.02.6.02.6.25

SYMBIAN OS - es un sistema operativo que fue producto de la alianza de varias empresas de telefonía móvil

UNIX LINUXFreeBSDNetBSDAIXHP-UXOpenBSDSPARC-OSSunOSSolarisXENIXIDRIXSystem VULTRIXSolOSSolinuxSolinuxOSF/1Minix

Page 80: TAREA DE INFORMATICA

Las cinco Generaciones de Computadoras

 

GENERACIONES DE COMPUTADORAS

  1. Primera Generación (1945-1955)

Se llama así a la generación de tubos al vacío y válvulas.

Se caracterizó por maquinas muy grandes y pesadas. Muy lentas en sus procesos, tanto que la resolución de programas largos implicaba varios d/as de espera. Pese a todo fue muy útil pues podía resolver 5.000 cálculos por

segundo.

 

2. Segunda Generación (1955 - 1965)

Se Llamaba de los transistores y sistemas en Lote.

En las computadoras de esta generación se reemplazaron las válvulas por los transistores. Con eso se pudo reducir el tamaño de los ordenadores y

aumentar su velocidad de trabajo. Aunque todavía eran un poco lentas

 

3. Tercera Generación (1965 - 1980)

Se llama de circuitos integrados y de multiprogramación. El gran descubrimiento de este periodo fueron los circuitos integrados denominados

CHIP. El circuito integrado consiste en un gran número de componentes electrónicos (transistores, resistencias, etc.) miniaturizados y encapsulados en un espacio de pocos centímetros. Este descubrimiento produjo grandes

cambios en cuanto al tamaño de las computadoras; en velocidad, en compatibilidad, e introduciendo nuevas técnicas de programación.

 

4. Cuarta Generación (1980-1990)

Se la denomina de computadora personal o de computadora hogareña. 

Se llama así ya que los microprocesadores son chips mucho más pequeños que contienen en un centímetro cuadrado, miles de Si hacen memoria quiere

decir que la computadora ENIAC con 18.000 válvulas, que ocupaba mas de una habitación, hoy se resume en un centímetro cuadrado. 

De esta forma muchas familias comenzaron a tener computadoras en sus casas, como por ejemplo las 

Page 81: TAREA DE INFORMATICA

TEXAS INSTRUMENT 99/4A, 

COMMODORE 64 Y 128, 

SPECTRUM.

 

5. Quinta Generación (1990) Hasta la Fecha

En la actualidad los piases más adelantados, entre los que figuran Japón y Estados Unidos están investigando y produciendo, los primeros prototipos de

nuevos ordenadores que formaran la Quinto Generación. 

(Estos tendrán la capacidad de realizar deducciones empleando el lenguaje del hombre.) 

Esta Quinta generación que recién comienza se denominará: 

Computadora inteligente o inteligencia artificial

 

Computadoras que se destacaron en ésta generación

 

PC AT 80286, 

PC AT 80386,

PC AT 80486.

 PC AT 586 

PENTIUM 

PENTIUM PRO 

PENTIUM II 

PENTIUM III

- Siglo III y IV a.de C.:El primer instrumento que usó el hombre para realizar un cálculo aparte de los dedos fue el ábaco. Consistía en un conjunto de cuentas colocadas en una varilla.

Page 82: TAREA DE INFORMATICA

- Siglo XV: Leonardo da Vinci dio un paso más e hizo una reproducción mecánica del ábaco. - 1621: El sacerdote inglés William Oughtred fue el primero en utilizar dos líneas de números que se desplazasen superpuestas y permitiesen realizar cálculos logarítmicos. - 1623: Coincidiendo con el nacimiento de Pascal, un profesor de lengua de la Universidad de Tübingen y astrónomo, el alemán Schickard diseñó la primera calculadora que se encargaba de sumar y restar. Tuvo tan mala suerte que el modelo fue destruido en un incendio, pero aun así fue considerada como la primera calculadora mecánica. Doce años despues Schickard murió debido a una de las epidemias de peste que asolaron Europa. - 1642: A la edad de 19 años Pascal desarrolla su machina arithmetica. - 1653: No quedan ahí los avances de Pascal que creó la Pascalina, capaz de sumar y restar números utilizando juegos de ruedas dentadas. - 1671: Gottfried Wilhelm Leibniz, padre del sistema binario, construyó la primera calculadora que realizaba las cuatro operaciones. Fue denominada la Calculadora Universal. - 1800: Un mecánico francés, Jacquard inventó un telar automático que, gracias a un sistema de tarjetas perforadas, realizaba copias perfectas. - 1817: En esta fecha, la escritora Mary Shelley publicó su famosa novela Frankenstein. Esta tuvo mucha influencia en cuanto a la interpretación social de las ciencias del maquinismo. - 1822: Babbage, considerado el padre de la informática,inventó la máquina de diferencias. Esta fue abandonada sin acabar a pesar de que el gobierno británico cediese 20.000 libras para su creación. - 1832: Babbage perfeccionó su obra creando la máquina analítica. Es considerada como el primer ordenador mecánico de propósito general. Lady Ada Byron, hija del famoso escritor Lord Byron (también conocida como duquesa de Lovelace) realizó los primeros programas del mundo de la Informática, con idea de aportarlos a la máquina de Babbage. No funcionó porque la tecnología mecánica de la máquina no se adaptaba perfectamente al software. - 1860: Charles Babbage logra aunar todos los conceptos de mecanización conseguidos gracias a la Pascalina con la automatización mediante tarjeta perforadas. - 1874: Fecha esencial para la empresa IBM ya que nace Thomas John Watson, fundador de esta compañía, y líder durante 40 años. - 1886: Herman Hollerit, de procedencia americana y descendencia alemana, crea una tabuladora para la realización del censo de EE.UU. en 1890. Para una población de 65 millones de habitantes tardó 2 años y medio. - 1895: El ya nombrado fundador de IBM, Thomas J. Watson entró en el mundo profesional como vendedor en NCR. Las influencias siempre cuentan, y él conocía al director de esta compañía. - 1896: Hollerit se preocupó en crear su propia empresa para poder explotar sus inventos conforme él deseaba. Fundó así la Tabulating Machine Co. - 1903: John von Neumann nacido en Budapest en este año, emigró a EE.UU. en 1930. Su aportación al campo de la ciencia fue bastante grande, publicó trabajos sobre economía, física nuclear (colaboró en el proyecto de los Alamos sobre la bomba atómica), teoría de juegos, teoría de conjuntos, , análisis matemáticos, cibernética e informática. - 1911: Se fusiona la compañía de Hollerith, Tabulating Machine Co., con: la Dayton Scale Co., la International Time Recording Co., y la Bundy Manufacturing Co. Crean así la Computing-Tabulating-Recording Co. (CTR).

Page 83: TAREA DE INFORMATICA

- 1920: Torres Quevedo, uno de los españoles que más influencia ha tenido en el mundo de la informática mejoró la máquina de Babbage con su sistema de aritmómetros y desarrolló la aritmética de coma flotante. - 1924: Después de 13 años de existencia, y coincidiendo con el día de San Valentín, la CTR cambia su nombre por el de IBM (International Business Machines Corporation). - 1928:El inglés Leslie John Comrie, utilizando medio millón de tarjetas perforadas, calcula las órbitas lunares desde 1935 hasta el año 2000. Esta se considera la primera aplicación científica de la tabuladora. - 1931: Se produce una importante mejora en el campo de las tabuladoras, en las que se pasa a poder imprimir no sólo números, sino también letras. - 1934: La Bull francesa surge como compañía a tener en cuenta. - 1937: Stibiz creó la complex calculator, una máquina programable de números complejos, trabajaba en binario y estaba dotada de un teletipo de entrada. También fue conocida como Model I. - 1938: El alemán Konrad Zuze construyó una calculadora mecánica sin tener conocimientos de los avances de Babbage,la Z1. Su trabajo fue interrumpido por la Segunda Guerra Mundial, con lo cual no tuvo mucha influencia en posteriores investigaciones. - 1939: Un físico de la Universidad de Harvard, Howard Aiken, trabajando en cooperación con IBM comenzó la construcción de la que sería la primera calculadora electromecánica de carácter general. La acabaría en 1944 bautizándola con el nombre de MARK I. - 1941: Se crea la filial de IBM en España bajo el nombre de "Máquinas Watson'". - 1942: Se produce la computadora Atanasoff-Berry- Computer (ABC), comenzada en 1939 y realizada a base de lógica binaria, cálculo serie y memoria regenerativa. - 1943: En la Universidad de Pennsylvania se crea la primera calculadora electrónica de carácter general. La denominaron ENIAC y fue diseñada para calcular tablas balísticas útiles en la Segunda Guerra Mundial. Sus creadores fueron John Mauchly, Presper y Eckert. - 1944: La anteriormente nombrada MARK I se presenta al mercado. - 1946: Mauchly y Eckert continuaron su trabajo con la colaboración de John von Neumann. Crearon así la EDVAC, que pasaría a ser la primera calculadora con programa almacenado. En esta fecha se termina de construir la ENIAC. - 1948: Se crea la empresa Hewlett Packard (HP), para ocuparse de la fabricación de equipos electrónicos. - 1949: La filial en España de IBM, "Máquinas Watson'" decide cambiar de nombre por el de IBM S.A.E, el cual todavía se conserva. En aquel momento sólo 35 personas constituían esta filial, de las cuales 5 eran vendedores. - 1951: Mauchly y Eckert continúan sus andanzas creando una máquina denominada UNIVAC, lo harían desde la empresa Remington Rand. Con este modelo aparecieron las cintas magnéticas como soporte de información. Fue el primer ordenador fabricado en serie destinado a un uso comercial. - 1952: IBM saca al mercado su IBM 705, estos ordenadores al igual que todos los de su generación funcionaban gracias a los tubos de vacío. Grace Murray Hooper desarrolló el primer compilador, creó el lenguaje COBOL. Fue una de las programadoras del MARK I. - 1953: Los ordenadores sufren un cambio importante, utilizando a partir de este momento, como soporte de información para la memoria central, núcleos de ferrita. - 1954: Un empleado de IBM, John Backus, desarrolla el primer lenguaje compilador, el FORTRAN (FORmula TRANslator). Su creación se llevó a cabo en

Page 84: TAREA DE INFORMATICA

el Laboratorio Científico de Cálculo Watson, ubicado en el West Side de Manhattan. - 1955: Por primera vez se incorpora a un ordenador un sistema operativo, escrito por usuarios y distribuido gratuitamente. Este ordenador, el IBM704, sería además el primero que utilizó núcleos de ferrita para la memoria central. - 1956: Surge como líder a partir de ese momento IBM, introduciendo su gama de calculadoras: IBM 650 e IBM 700. Además sacó al mercado el sistema IBM 305 RAMAC (Random Acces Memory Accounting Computer), creando el primer ordenador con memoria auxiliar de discos magnéticos. Se logra uno de los mayores inventos de la historia, el transistor, lo cual revolucionaría el campo de los ordenadores. - 1958: Comienza la segunda generación de ordenadores, diferenciada de la anterior en que se remplazan los tubos de vacío por los transistores. Una de las empresas innovadoras en este campo fue Sperry Rand, la cual había sido constituida por la fusión de Remington Rand y Sperry. - 1960: Se crea la primera minicomputadora, la DEC PDP-1. - 1964: Nace la tercera generación de ordenadores en la que los transistores son sustituidos por circuitos integrados. Con este avance se consiguió una reducción de mil millones en el consumo de energía. IBM introduce una de sus computadoras más famosas, la 360. John Kemeny y Thomas Kurtz, profesores del Darmouth College, diseñan el lenguaje BASIC (Beginners All-purpose Symbolic Instruction Code), éste poseía características del FORTRAN y del ALGOL, con la diferencia de que fue mucho más popular debido a su facilidad de manejo y el pequeño coste que suponía su implantación y uso. - 1966: Texas Instruments presenta la que será la primera calculadora de bolsillo. - 1967: Como acontecimiento anecdótico, se reconstruyó según los esquemas encontrados en manuscritos de Leonardo da Vinci, una calculadora mecánica. Se comercializa el primer ordenador con memoria virtual, el IBM 360/67. - 1968: Tres ingenieros con mucha iniciativa: Gordon Moore, Bob Noyce y Andy Grove, crearon en este año Intel (INTegrated Electronics), que en un principio se dedicaría al desarrollo de tecnología de integración de los transistores de silicio. - 1971: Se da a conocer la supercomputadora Cray-1. Se presenta así el primer microprocesador comercialmente disponible. Thomson y Ritchie generan la primera versión de Unix. Intel saca al mercado el 4004, el primer microprocesador de 4 bits. - 1972: Intel lanza el 8008 de 8 bits. El micral es anunciado por la empresa RE2i. - 1974: Con la innovación que supuso la aparición de los microprocesadores comienza la cuarta generación de ordenadores. Aunque algunos autores comienzan a hablar de la proximidad de la quinta generación, todavia no ha habido un cambio cualitativo que lo determine, por ello aún nos en contramos en esta cuarta fase. - 1975: Bill Gates junto con Paul Allen creó una de las empresas más grandes y populares del mundo de la informática, Microsoft. Se estrenaron vendiendo la obra que completaron, el BASIC, a MIT. Esta empresa fue la que sacó al mercado la primera microcomputadora producida comercialmente, la Altair. - 1976: Stephen Wozniac y Steven Jobs se reunieron en un garaje del que al final saldría el que sería el primero de sus encargos, el Apple I. Con 26 y 21 años respectivamente, tenían un prometedor futuro al que hacer frente. Computerland abre al público su primera tienda especializada en California. Se introduce en el ya amplio mercado de los ordenadores, la empresa Commodore, la cual se dedicaba hasta el momento únicamente a la fabricación de calculadoras.

Page 85: TAREA DE INFORMATICA

- 1977: En enero de este año se constituye Apple como sociedad. Presentan el Apple II, el cual incorporaba teclado y fuente de alimentación. El primer lenguaje de tipografía informática, el TeX, es inventado por Donald Knuth. - 1978: Apple crea el primer lector de 5,25 pulgadas para micro, el Disk II. Intel lanza el 8086. En IBM se comienza elproyecto de creación del PC, el Data Master. Dennis Hayes lanza al mercado el primer módem para micro en tarjeta. IMI produce su primer disco duro para micro. Estando ya cercanos a la década de los 80, aparecen una variada gama de fabricantes de microordenadores: Texas Instruments, Hewlett Packard, Genie, Victor, Epson, Digital, Oric, Dragon, Toshiba, Osborne, Atari, NEC, Olivetti, Sinclair (con sus famosos modelos ZX 80, ZX 81, Spectrum y QL), y tantos otros marcas a los que se podría hacer mención. - 1979: Aparece en el mercado la primera hoja de cálculo electrónica, la VisiCalc, de la mano de Software Arts. Motorola presenta su 68000, el primer procesador de 16/32 bits. - 1981: Se presenta el PC de IBM, un avance sin precedentes en el mundo de la informática. Apple quiso hacerse notar en aquel entonces, lanzando una campaña publicitaria con anuncios a doble página en los que se podía leer: "Welcome IBM!". - 1982: La computadora es designada "Hombre del año" por la revista Time. - 1983: IBM consigue una gran mejora en el PC, con el modelo XT, dotado de disco duro de 10 Mbytes. Apple saca al mercado su ordenador Lisa. Lotus comercializa su hoja de cálculo 1-2-3, con capacidades gráficas. Uno de los grandes del momento, Compaq, lanza su portátil. - 1984: Apple crea el Macintosh, "el ordenador para el resto del mundo". IBM responde con el lanzamiento del portátil, el cual fue considerado copia del de Compaq, y el AT, un PC como no se había conocido hasta la fecha,con procesador de 16 bits, 80286 de Intel y disco duro de 30 Mbytes. - 1985: Aldus saca al mercado el conocido PageMaker. Apple sigue innovando con la creación de las Laser Writer. - 1986: ALR y posteriormente, Compaq, comercializan los primeros 386. - 1987: Cada vez más todas y cada una de las compañías luchan por innovar y destacar en el mercado. IBM crea la nueva arquitectura microchanel de los PS/2, y el OS/2. Apple saca al mercado los modelos SE y II de Macintosh. - 1988: Steve Jobs, creador y personaje fundamental en la historia de Apple, lanza el N1000, se denominó la NeXT Computer. La arquitectura EISA es creada por Compaq y "la banda de los nueve". IBM saca al mercado el 8530-286 PS/2 y anuncia su paso al bus ISA. Intel presenta el i386SX. - 1990: Los modelos anteriores siguen su normal evolución. Nace así el PS/2 Junior de IBM (el cual recibió el nombre de PS/1). Junto con éste, Apple saca al mercado nuevas gamas de Macintosh: los Clasic y los LC. Microsoft, creciendo cada día más, lanza la versión 3.0 de su integrador Windows, al mismo tiempo que comienza a mantener diferencias con IBM. - 1991: No todo debían ser discrepancias, y los grandes se juntan. IBM establece alianzas con otras compañías tales como Apple y Motorola. Borland adquiere Ashton-Tate, mientras que Novell se hace con Digital Research.

- 1993: Según un estudio realizado por DataQuest a finales de este año, el 81% de los ordenadores se basaba en la arquitectura Intel.