generacion de las microcomputadoras

19
La Primera Generación J.P. Eckert y John Mauchly, de la Universidad de Pensilvania, inauguraron el nuevo ordenador el 14 de febrero de 1946. El ENIAC era mil veces más rápido que cualquier máquina anterior, resolviendo 5 mil adiciones y sustracciones, 350 multiplicaciones o 50 divisiones por segundo. Y tenía el doble del tamaño del Mark I: llenó 40 gabinetes con 100 mil componentes, incluyendo cerca de 17 mil válvulas electrónicas. Pesaba 27 toneladas y medía 5,50 x 24,40 m y consumía 150 KW. A pesar de sus incontables ventiladores, la temperatura ambiente llegaba a los 67 grados centígrados. Ejecutaba 300 multiplicaciones por segundo, pero, como fue proyectado para resolver un conjunto particular de problemas, su reprogramación era muy lenta. Tenía cerca de 19.000 válvulas sustituidas por año. En 1943, antes de la entrada en operación del ENIAC Inglaterra ya poseía el Colossus, máquina creada por Turing para descifrar los códigos secretos alemanes. ENIAC En 1945 Von Neumann sugirió que el sistema binario fuera adoptado en todos los ordenadores, y que las instrucciones y datos fueran compilados y almacenados internamente en el ordenador, en la secuencia correcta de utilización. Estas sugerencias sirvieron de base filosófica para los proyectos de ordenadores. (Actualmente se investigan ordenadores "no Von Neumann", que funcionan con fuzzy logic, lógica confusa) A partir de esas ideas, y de la lógica matemática o álgebra de Boole, introducida por Boole en el inicio del siglo XIX, es que Mauchly y Eckert proyectaron y construyeron el EDVAC, Electronic Discrete Variable Automatic Computer, completado en 1952, que fue la primera máquina comercial electrónica de procesamiento de datos del mundo. Ellos habían intentado eso con El BINAC, ordenador automático binario, de 1949, que era compacto (1,40 x 1,60 x 0,30 m) lo suficiente para ser llevado a bordo de un avión, pero que nunca funcionó. El EDVAC utilizaba memorias basadas en líneas de retardo de mercurio, muy caras y más lentas que los CRTs, pero con mayor capacidad de almacenamiento. Wilkes construyó el EDSAC, Electronic Delay Storage Automatic Calculator en 1949, que funcionaba según la técnica de programas almacenados. El primer ordenador comercial de gran escala fue el UNIVAC, Universal Automatic Computer, americano, de 1951, que era programado tocando cerca

Transcript of generacion de las microcomputadoras

Page 1: generacion de las microcomputadoras

La Primera Generación J.P. Eckert y John Mauchly, de la Universidad de Pensilvania, inauguraron el nuevo ordenador el 14 de febrero de 1946. El ENIAC era mil veces más rápido que cualquier máquina anterior, resolviendo 5 mil adiciones y sustracciones, 350 multiplicaciones o 50 divisiones por segundo. Y tenía el doble del tamaño del Mark I: llenó 40 gabinetes con 100 mil componentes, incluyendo cerca de 17 mil válvulas electrónicas. Pesaba 27 toneladas y medía 5,50 x 24,40 m y consumía 150 KW. A pesar de sus incontables ventiladores, la temperatura ambiente llegaba a los 67 grados centígrados. Ejecutaba 300 multiplicaciones por segundo, pero, como fue proyectado para resolver un conjunto particular de problemas, su reprogramación era muy lenta. Tenía cerca de 19.000 válvulas sustituidas por año. En 1943, antes de la entrada en operación del ENIAC Inglaterra ya poseía el Colossus, máquina creada por Turing para descifrar los códigos secretos alemanes.

ENIAC En 1945 Von Neumann sugirió que el sistema binario fuera adoptado en todos los ordenadores, y que las instrucciones y datos fueran compilados y almacenados internamente en el ordenador, en la secuencia correcta de utilización. Estas sugerencias sirvieron de base filosófica para los proyectos de ordenadores. (Actualmente se investigan ordenadores "no Von Neumann", que funcionan con fuzzy logic, lógica confusa) A partir de esas ideas, y de la lógica matemática o álgebra de Boole, introducida por Boole en el inicio del siglo XIX, es que Mauchly y Eckert proyectaron y construyeron el EDVAC, Electronic Discrete Variable Automatic Computer, completado en 1952, que fue la primera máquina comercial electrónica de procesamiento de datos del mundo. Ellos habían intentado eso con El BINAC, ordenador automático binario, de 1949, que era compacto (1,40 x 1,60 x 0,30 m) lo suficiente para ser llevado a bordo de un avión, pero que nunca funcionó. El EDVAC utilizaba memorias basadas en líneas de retardo de mercurio, muy caras y más lentas que los CRTs, pero con mayor capacidad de almacenamiento. Wilkes construyó el EDSAC, Electronic Delay Storage Automatic Calculator en 1949, que funcionaba según la técnica de programas almacenados. El primer ordenador comercial de gran escala fue el UNIVAC, Universal Automatic Computer, americano, de 1951, que era programado tocando cerca

Page 2: generacion de las microcomputadoras

de 6.000 llaves y conectando cables a un panel. La entrada y salida de informacion era realizada por una cinta metálica de 1/2 pulgada de ancho y 400 m de largo. En total, se vendieron 46 unidades del UNIVAC Modelo I, que eran normalmente acompañados de un dispositivo impresor llamado UNIPRINTER, que, solo, consumía 14.000 W. Otro fue el IBM 701, de 1952, que utilizaba cinta plástica, más rápida que la metálica del UNIVAC, y el IBM 704, con la capacidad fenomenal de almacenar 8.192 palabras de 36 bits, ambos de IBM. En Inglaterra surgen el MADAM, Manchester Automatic Digital Machine, el SEC, Simple Electronic Computer, y el APEC, All-Purpose Electronic Computer. Entre 1945 y 1951, el WHIRLWIND, del MIT, fue el primer ordenador que procesaba informacion en tiempo real, con entrada de datos a partir de cintas perforadas y salida en CRT (monitor de vídeo), o en la Flexowriter, una especie de máquina de escribir (Whirlwind quiere decir remolino).En 1947 Bardeen, Schockley y Brattain inventan el transístor, y, en 1953 Jay Forrester construye una memoria magnética. Los ordenadores a transistores surgen en los años 50, pesando 150 kg, con consumo inferior la 1.500 W y mayor capacidad que sus antecesores valvulados. La Segunda Generación Ejemplos de esta época son el IBM 1401 y el BURROUGHS B 200. En 1954 IBM comercializa el 650, de tamaño medio. El primer ordenador totalmente transistorizado fue el TRADIC, del Bell Laboratories. El IBM TX-0, de 1958, tenía un monitor de vídeo de primera calidad, era rápido y relativamente pequeño, poseia dispositivo de salida sonora. El PDP-1, procesador de datos programable, construido por Olsen, fue una sensación en el MIT: los alumnos jugaban Spacewar! y Ratón en el laberinto, a través de un joystick y un lapiz óptico.

BURROUGH En 1957 el matemático Von Neumann colaboró para la construcción de un ordenador avanzado, el cual, como broma, recibió el nombre de MANIAC, Mathematical Analyser Numerator Integrator and Computer. En enero de 1959 Tejas Instruments anuncia al mundo una creación de Jack Kilby: el circuito integrado. Mientras a una persona de nivel medio le llevaría cerca de cinco minutos multiplicar dos números de diez dígitos, MARK I lo hacía en cinco segundos, el ENIAC en dos milésimas de segundo, un ordenador

Page 3: generacion de las microcomputadoras

transistorizado en cerca de cuatro billonésimas de segundo, y, una máquina de tercera generación en menos tiempo aún. La Tercera Generación Esta generación es de la década del 60, con la introducción de los circuitos integrados. El Burroughs B-2500 fue uno de los primeros. Mientras el ENIAC podía almacenar veinte números de diez dígitos, estos podían almacenar millones de números. Surgen conceptos como memoria virtual, multiprogramación y sistemas operacionales complejos. Ejemplos de esta época son el IBM 360 y el BURROUGHS B-3500.

IBM 360 En 1960 existían cerca de 5.000 ordenadores en los EUA. Es de esta época el término software. En 1964, la CSC, Computer Sciences Corporation, creada en 1959 con un capital de 100 dólares, se transformo en la primera compañía de software con acciones negociadas en bolsa. El primer mini computador comercial surgió en 1965, el PDP-5, lanzado por la americana DEC, Digital Equipament Corporation. Dependiendo de su configuración y accesorios él podía ser adquirido por el accesible precio de US$ 18,000.00. Le siguió el PDP-8, de precio más competitivo. Siguiendo su camino otras compañías lanzaron sus modelos, haciendo que a finales de la década ya existieran cerca de 100.000 ordenadores esparcidos por el mundo. En 1970 INTEL Corporation introdujo en el mercado un nuevo tipo de circuito integrado: el microprocesador. El primero fue el 4004, de cuatro bits. Fue seguido por el 8008, en 1972, el difundidísimo 8080, el 8085, etc. A partir de ahí surgen los microcomputadores. Para muchos, la cuarta generación surge con los chips VLSI, de integración a muy larga escala. Las cosas comienzan a desarrollarse con mayor rapidez y frecuencia. En 1972 Bushnell lanza el vídeo game Atari. Kildall lanza el CP/M en 1974. El primer kit de microcomputador, el ALTAIR 8800 en 1974/5. En 1975 Paul Allen y Bill Gates crean Microsoft y el primer software para microcomputador: una adaptación BASIC para el ALTAIR. En 1976 Kildall establece la Digital Research Incorporation, para vender el sistema operacional CP/M. En 1977 Jobs y Wozniak crean el microcomputador Apple, a Radio Shack el TRS-80 y la Commodore el PET. La plantilla Visicalc (calculador visible) de 1978/9, primer programa comercial, de Software Arts. En 1979 Rubinstein comienza a comercializar un software escrito por Barnaby: el Wordstar, y Paul Lutus produce el Apple Writer. El programa de un ingeniero de la NASA, Waine Ratliff, el dBASE II, de 1981. También de 1981 IBM-PC y el

Page 4: generacion de las microcomputadoras

Lotus 1-2-3, de Kapor, que alcanzó la lista de los más vendidos en 1982. El Sinclair ZX81/ZX Spectrum es un ordenador minúsculo concebido por John Sinclair, profesor en la Universidad de Cambrige en U.K.Inicialmente concebido para la utilización de los estudiantes de la Universidad de Cambrige. La CPU tenía un procesador Zilog Z80A de 8 bit a 3,25 MHZ, una memoria compuesta por una ROM y una RAM y una ULA. La ROM, con 8K de capacidad, almacenaba de modo permanente los programas, tablas etc. necesarios para el funcionamiento del sistema y un traductor para el lenguaje de programación BASIC. La RAM tenía un área de trabajo disponible para el usuario de 1 K pero, era expandible hasta 16K. En la caja de plástico se alojaba también un subsistema de comunicaciones para conexión en serie a periféricos denominado SCL (Sinclair Computer Logic), una unidad para entrada y salida de sonido, un codificador de imágenes para TV. En la parte trasera de la caja de plástico tenía un conector donde se podía conectar una impresora minúscula que usaba un rollo de papel especial. El ordenador era suministrado con un cable para la conexión al televisor y otro para la conexión con un grabador de "cassettes" musical (norma Philips). El transformador de corriente eléctrica alterna a continua era adquirido por separado. Los programas y datos eran grabados en un cassette magnético y eran también leídos desde uno.El teclado no tenía teclas. Los caracteres ASCII eran impresos en una membrana. Esta tecnología y la falta de ventilación de la unidad de alimentación eléctrica eran las causas principales de averías que enviaban el ZX81 a la basura. Fue un ordenador muy popular debido a su bajo precio de venta. Osborne1. Fabricado por la Osborne en USA alrededor de año 1982. La CPU tenía una memoria de 64KB, una UAL y un Procesador Zilog Z80A de 8 bit a 4 MHZ. La caja, del tipo maleta attaché con un peso de 11 Kg, albergaba 2 unidades de disquete de 5" 1/4 con 204 KB o con opción a 408 KB de capacidad, un monitor de 5" (24 líneas por 54 columnas) en blanco y negro y un teclado basculante (servía de tapa de la maleta) con dos bloques de teclas, uno alfanumérico con los caracteres ASCII y otro numérico. Disponía de conectores para un monitor externo, ports serie RS-232C y paralelo IEEE-488 o Centronics.El sistema era alimentado por una batería propia recargable con una autonomía de 5 horas, por una batería externa de automóvil o por un transformador de corriente eléctrica alterna a continua.El sistema operativo era el CP/M desarrollada por la Digital Corporation. El software suministrado incluía un Interpretador M BASIC desarrollado por MICROSOFT, un Compilador BASIC desarrollado por la Compyler Systems, una hoja de cálculo SUPERCALC (derivada del Visicalc) y un procesador de texto denominado WORDSTAR. Podía ser programado en BASIC, FORTRAN, COBOL, PASCAL, PL 1, ALGOL, C, FORTH, ADA, ASSEMBLER y CROSS-ASSEMBLER.Última morada conocida: desconocida (fue visto en la FILEME-82 en Lisboa). IBM PC/XT Fabricado por IBM en USA alrededor de año 1980, inició con la versión PC-XT, a la cual le siguió una versión PC-AT.El CPU comprendía una memoria ROM

Page 5: generacion de las microcomputadoras

de 40KB y una memoria RAM de 64KB expandible hasta 640KB, una ULA y un procesador Intel 8088 de 16 bit con una frecuencia de reloj de 4,77 MHZ.Era construido con tres módulos separados: CPU, monitor y teclado. El monitor era blanco y negro con 25 líneas por 80 columnas pudiendo ser substituido por un monitor con 16 colores. La CPU además del procesador albergaba una unidad de disquete de 5" 1/4 con una capacidad de 360KB pudiendo alojar otra unidad de disquete idéntica o un disco rígido con 10MB de capacidad, que era parte integrada en la versión PC-XT. El teclado con 83 teclas, 10 de las cuáles correspondían a funciones pre-programadas, disponía de caracteres acentuados. Poseia una salida para impresora y el PC-XT disponía de un interfaz para comunicaciones assincronas. El sistema operativo era el PC/MS-DOS el cual era un MS-DOS desarrollado por Microsoft para IBM. El lenguaje de programación que utilizada era el BASIC.. Sólo cerca de dos años después, con la presentación de los modelos PS/2-50 y PS/2-60, que eran equipados con un procesador Intel 80286, la IBM recuperó el sector de mercado de los PCS utilizando para el efecto la penetración en las empresas donde tenía instalado mainframes y "pequeños ordenadores".

PC XT La Cuarta Generación (1981-1990) Surgieron en el transcurso del uso de la técnica de los circuitos LSI (LARGE SCALE INTEGRATION) y VLSI (VERY LARGE SCALE INTEGRATION). En ese periodo surgió también el procesamiento distribuido, el disco ótico y la gran difusión del microcomputador, que pasó a ser utilizado para procesamiento de texto, cálculos auxiliados, etc. 1982- Surge el 286 Usando memoria de 30 pines y slots ISA de 16 bits, ya venía equipado con memoria cache, para auxiliar al procesador en sus funciones. Utilizaba monitores CGA, en algunos raros modelos estos monitores eran coloreados pero la gran mayoría era verde, naranja o gris. 1985- El 386 Usaba memoria de 30 pines, pero debido a su velocidad de procesamiento ya era posible correr softwares graficos más avanzados como era el caso del Windows 3.1, su antecesor podía correr sólo la versión 3.0 debido a la baja calidad de los monitores CGA, el 386 ya contaba con placas VGA que podían alcanzar hasta 256 colores si es que el monitor soportara esa configuración.

Page 6: generacion de las microcomputadoras

386 1989- El 486 DX A partir de este momento el coprocessador matemático junto con el propio procesador, hubo también una mejora sensible en la velocidad debido a la aparición de la memoria de 72 pines, mucho más rapida que su antepasada de 30 pines y de las placas PCI de 32 bits dos veces más veloces que las placas ISA . Los equipamientos ya tenían capacidad para las placas SVGA que podrían alcanzar hasta 16 millones de colores, sin embargo esto sería usado comercialmente más adelante con la aparición del Windows 95. La Quinta Generación (1991-hasta hoy) Las aplicaciones exigen cada vez más una mayor capacidad de procesamiento y almacenamiento de datos. Sistemas especiales, sistemas multimedia (combinación de textos, gráficos, imágenes y sonidos), bases de datos distribuidas y redes neutrales, son sólo algunos ejemplos de esas necesidades. Una de las principales características de esta generación es la simplificación y miniaturización del ordenador, además de mejor desempeño y mayor capacidad de almacenamiento. Todo eso, con los precios cada vez más accesibles. La tecnología VLSI está siendo sustituida por la ULSI (ULTRA LARGE SCALE INTEGRATION).El concepto de procesamiento está yendo hacia los procesadores paralelos, o sea, la ejecución de muchas operaciones simultáneamente por las máquinas. La reducción de los costos de producción y del volumen de los componentes permitió la aplicación de estos ordenadores en los llamados sistemas embutidos, que controlan aeronaves, embarcaciones, automóviles y ordenadores de pequeño porte. Son ejemplos de esta generación de ordenadores, los micros que utilizan la línea de procesadores Pentium, de INTEL. 1993- Surge el Pentium Grandes cambios en este periodo se darían debido a las memorias DIMM de 108 pines, a la aparición de las placas de video AGP y a un perfeccionamiento de los slots PCI mejorando aún más su performance. 1997- El Pentium II 1999- El Pentium III 2001- el Pentium 4 No hay grandes novedades después de 1997, ya que los cambios estuvieron

Page 7: generacion de las microcomputadoras

basados en los cada vez más veloces procesadores. El Futuro - Aquí viene el ordenador cuántico IBM anunció la construcción del más avanzado ordenador cuántico del mundo. La novedad representa un gran paso en relación al actual proceso de fabricación de chips con silicio que, de acuerdo con especialistas, debe alcanzar el máximo de su limitación física de procesamiento entre 10 y 20 años.El ordenador cuántico usa, en lugar de los tradicionales microprocesadores de chips de silicio, un dispositivo basado en propiedades físicas de los átomos, como el sentido de giro de ellos, para contar números uno y cero (bits), en vez de cargas eléctricas como en los ordenadores actuales. Otra característica es que los átomos también pueden sobreponerse, lo que permite al equipamiento procesar ecuaciones mucho más rápido.

La sexta generación de computadoras

La última etapa de la quinta generación de computadoras fue anunciada como la de

las "computadoras inteligentes", basadas en Inteligencia Artificial, iniciada por un

famoso proyecto en Japón, y que finalizó en un estrepitoso fracaso; a partir de ahí, la

cuenta de las generaciones de computadoras es un poco confusa.

La sexta generación se podría llamar a la era de las computadoras inteligentes

baseadas en redes neuronales artificiales o "cerebros artificiales". Serían

computadoras que utilizarían superconductores como materia-prima para sus

procesadores, lo cual permitirían no malgastar electricidad en calor debido a su nula

resistencia, ganando performance y economizando energía. La ganancia de

performance sería de aproximadamente 30 veces la de un procesador de misma

frecuencia que utilice metales comunes.

Todo esto está en pleno desarrollo, por el momento las únicas novedades han sido el

uso de procesadores en paralelo, o sea, la división de tareas en múltiples unidades de

procesamiento operando simultáneamente. Otra novedad es la incorporación de chips

de procesadores especializados en las tareas de vídeo y sonido.

Esta manía de enumerar las generaciones de computadoras parece que se ha

perdido. Ya no suceden, como ocurrió en las cuatro primeras generaciones, la

sustitución de una generación de computadoras por las siguientes. Muchas

tecnologías van a sobrevivir juntas, cada una en su sector de mercado.

Es una realidad que los chips son cada vez más chicos, rápidos y eficientes ... será la

característica de la séptima generación de computadoras?

Page 8: generacion de las microcomputadoras

(microcomputer). Una microcomputadora es un tipo de computadora que utiliza un microprocesador como

unidad central de procesamiento (CPU). Generalmente son computadoras que ocupan espacios físicos

pequeños, comparadas a sus predecesoras históricas, las mainframes y las minicomputadoras.

En general la palabra microcomputadora suele asociarse a computadoras viejas, especialmente a las pequeñas

computadoras de 8 bits como la Apple II, la Commodore 64, la BBC Micro y la TRS 80.

De todas maneras dentro del término microcomputadora pueden agruparse computadoras de diferentes tipos y

usos como consolas de videojuegos, notebooks, tablet PCs, dispositivos de mano, teléfonos celulares y las

computadoras personales (PC).

Actualmente el término microcomputadora no es muy utilizado, probablemente por la gran diversidad de

computadoras basadas en un microprocesador.

Breve historia de las microcomputadoras

El término microcomputadora comenzó a ser utilizado popularmente luego de la introducción de las

minicomputadoras. La principal diferencia con su predecesora es que las microcomputadoras reemplazaron

múltiples componentes separados, que fueron integrados en un único chip, el microprocesador.

Las primeras microcomputadoras no tenían dispositivos de entrada/salida, venían con mínimas cantidades de

memoria (por ejemplo, 256 bytes de memoria RAM), e incluso eran vendidas en partes que debían ser

ensambladas por el usuario. Incluso sólo disponían de luces indicadoras e interruptores.

En los setenta las microcomputadoras comenzaron a ser más rápidas y baratas, y su popularidad fue en

ascenso. Eran muy utilizadas para contabilidad, administración de bases de datos y procesamiento de texto.

Una microcomputadora típica de la época utilizaba un bus S100, un procesador de 8 bits como un Z80 y un

sistema operativo como el CP/M o el MP/M.

Algunos tipos de microcomputadoras comenzaron a ser utilizadas por los usuarios comunes alrededor de los 80,

época en la que se estandarizó la IBM PC compatible, con el sistema operativo MS-DOS, y luego más tarde

Windows. Estas computadoras comenzaron a llamarse PC o computadoras personales, nombre promovido por

IBM para diferenciarse del resto.

Clasificación de computadoras por tamaño

Page 9: generacion de las microcomputadoras

Supercomputadora Minisupercomputadora

Mainframe Computadora mainframe

Minicomputadora Supermini

Computadora de escritorio

Microcomputadora • Computadora doméstica • Computadora personal • Estación de trabajo (workstation) • Servidor

Computadoras móviles

y portátiles

Computadora portátil de escritorio • Notebook • Subnotebook • Netbook (Nettop) •

Tablet PC • Carro computadora • Computadora portátil

Dispositivos móviles: Terminal portátil de datos (PDT) • Terminal móvil de datos

(MDT) • Computadora vestible • Videoconsola portátil • Pocket computer •

Organizador electrónico • Ultra-mobile PC (UMPC)

PDAs: Pocket PC • HandHeld

Otros: Smartphones

Computadoras ultrapequeñas

Sistemas integrados • Polvo inteligente (smartdust) • Nanocomputadora

El microprocesador, o simplemente procesador, es el circuito integrado central y más

complejo de una computadora u ordenador; a modo de ilustración, se le suele asociar

por analogía como el "cerebro" de una computadora.

El procesador es un circuito integrado constituido por millones de componentes

electrónicos integrados. Constituye la unidad central de procesamiento (CPU) de un PC

catalogado como microcomputador.

Desde el punto de vista funcional es, básicamente, el encargado de realizar toda

operación aritmético-lógica, de control y de comunicación con el resto de los

componentes integrados que conforman un PC, siguiendo el modelo base de Von

Neumann. También es el principal encargado de ejecutar los programas, sean de usuario

o de sistema; sólo ejecuta instrucciones programadas a muy bajo nivel, realizando

operaciones elementales, básicamente, las aritméticas y lógicas, tales como sumar,

restar, multiplicar, dividir, las lógicas binarias y accesos a memoria.

Esta unidad central de procesamiento está constituida, esencialmente, por registros, una

unidad de control y una unidad aritmético lógica (ALU), aunque actualmente todo

microprocesador también incluye una unidad de cálculo en coma flotante, (también

conocida como coprocesador matemático o FPU), que permite operaciones por

hardware con números decimales, elevando por ende notablemente la eficiencia que

proporciona sólo la ALU con el cálculo indirecto a través de los clásicos números

enteros.

El microprocesador está conectado, generalmente, mediante un zócalo específico a la

placa base. Normalmente para su correcto y estable funcionamiento, se le adosa un

sistema de refrigeración, que consta de un disipador de calor fabricado en algún material

Page 10: generacion de las microcomputadoras

de alta conductividad térmica, como cobre o aluminio, y de uno o más ventiladores que

fuerzan la expulsión del calor absorbido por el disipador; entre éste último y la cápsula

del microprocesador suele colocarse pasta térmica para mejorar la conductividad

térmica. Existen otros métodos más eficaces, como la refrigeración líquida o el uso de

células peltier para refrigeración extrema, aunque estas técnicas se utilizan casi

exclusivamente para aplicaciones especiales, tales como en las prácticas de

overclocking.

La "velocidad" del microprocesador suele medirse por la cantidad de operaciones por

ciclo de reloj que puede realizar y en los ciclos por segundo que este último desarrolla,

o también en MIPS. Está basada en la denominada frecuencia de reloj (oscilador). La

frecuencia de reloj se mide Hertzios, pero dada su elevada cifra se utilizan múltiplos,

como el megahertzio o el gigahertzio.

Cabe destacar que la frecuencia de reloj no es el único factor determinante en el

rendimiento, pues sólo se podría hacer comparativa entre dos microprocesadores de una

misma arquitectura.

Es importante notar que la frecuencia de reloj efectiva no es el producto de la frecuencia

de cada núcleo físico del procesador por su número de núcleos, es decir, uno de 3 GHz

con 6 núcleos físicos nunca tendrá 18 GHz, sino 3 GHz, independientemente de su

número de núcleos.

Hay otros factores muy influyentes en el rendimiento, como puede ser su memoria

caché, su cantidad de núcleos, sean físicos o lógicos, el conjunto de instrucciones que

soporta, su arquitectura, etc; por lo que sería difícilmente comparable el rendimiento de

dos procesadores distintos basándose sólo en su frecuencia de reloj.

Un computador de alto rendimiento puede estar equipado con varios microprocesadores

trabajando en paralelo, y un microprocesador puede, a su vez, estar constituido por

varios núcleos físicos o lógicos. Un núcleo físico se refiere a una porción interna del

microprocesador cuasi-independiente que realiza todas las actividades de una CPU

solitaria, un núcleo lógico es la simulación de un núcleo físico a fin de repartir de

manera más eficiente el procesamiento.

Estos últimos años ha existido una tendencia de integrar el mayor número de elementos

del PC dentro del propio procesador, aumentando así su eficiencia energética y su

rendimiento. Una de las primeras integraciones, fue introducir la unidad de coma

flotante dentro del encapsulado, que anteriormente era un componente aparte y opcional

situado también en la placa base, luego se introdujo también el controlador de memoria,

y más tarde un procesador gráfico dentro de la misma cámara, aunque no dentro del

mismo encapsulado. Posteriormente se llegaron a integrar completamente en el mismo

encapsulado (Die).

Respecto a esto último, compañías tales como Intel ya planean integrar el Southbridge

dentro del procesador, eliminando completamente ambos chipsets de la placa.

QUE ES LA MEMORIA CACHE EN UN PROCESADOR.

Una memoria caché es una memoria en la que se almacenas una serie de

Page 11: generacion de las microcomputadoras

datos para su rápido acceso. Existen muchas memorias caché (de disco, de

sistema, incluso de datos, como es el caso de la caché de Google), pero en

este tutorial nos vamos a centrar en la caché de los procesadores.

Básicamente, la memoria caché de un procesador es un tipo de memoria

volátil (del tipo RAM), pero de una gran velocidad.

En la actualidad esta memoria está integrada en el procesador, y su

cometido es almacenar una serie de instrucciones y datos a los que el

procesador accede continuamente, con la finalidad de que estos accesos

sean instantáneos. Estas instrucciones y datos son aquellas a las que el

procesador necesita estar accediendo de forma continua, por lo que para el

rendimiento del procesador es imprescindible que este acceso sea lo más

rápido y fluido posible.

Hay tres tipos diferentes de memoria caché para procesadores:

Caché de 1er nivel (L1):

Esta caché está integrada en el núcleo del procesador, trabajando a la

misma velocidad que este. La cantidad de memoria caché L1 varía de un

procesador a otro, estando normalmente entra los 64KB y los 256KB. Esta

memoria suele a su vez estar dividida en dos partes dedicadas, una para

instrucciones y otra para datos.

Caché de 2º nivel (L2):

Integrada también en el procesador, aunque no directamente en el núcleo

de este, tiene las mismas ventajas que la caché L1, aunque es algo más

lenta que esta. La caché L2 suele ser mayor que la caché L1, pudiendo

llegar a superar los 2MB.

A diferencia de la caché L1, esta no está dividida, y su utilización está más

encaminada a programas que al sistema.

Caché de 3er nivel (L3):

Es un tipo de memoria caché más lenta que la L2, muy poco utilizada en la

actualidad.

En un principio esta caché estaba incorporada a la placa base, no al

procesador, y su velocidad de acceso era bastante más lenta que una caché

de nivel 2 o 1, ya que si bien sigue siendo una memoria de una gran

rapidez (muy superior a la RAM, y mucho más en la época en la que se

utilizaba), depende de la comunicación entre el procesador y la placa base.

Page 12: generacion de las microcomputadoras

Para hacernos una idea más precisa de esto, imaginemos en un extremo el

procesador y en el otro la memoria RAM. Pues bien, entre ambos se

encuentra la memoria caché, más rápida cuanto más cerca se encuentre del

núcleo del procesador (L1).

Las memorias caché son extremadamente rápidas (su velocidad es unas 5

veces superior a la de una RAM de las más rápidas), con la ventaja añadida

de no tener latencia, por lo que su acceso no tiene ninguna demora... pero

es un tipo de memoria muy cara.

Esto, unido a su integración en el procesador (ya sea directamente en el

núcleo o no) limita bastante el tamaño, por un lado por lo que encarece al

procesador y por otro por el espacio disponible.

En cuanto a la utilización de la caché L2 en procesadores multinucleares,

existen dos tipos diferentes de tecnologías a aplicar.

Por un lado está la habitualmente utilizada por Intel, que consiste en que el

total de la caché L2 está accesible para ambos núcleos y por otro está la

utilizada por AMD, en la que cada núcleo tiene su propia caché L2 dedicada

solo para ese núcleo.

La caché L2 apareció por primera vez en los Intel Pentium Pro, siendo

incorporada a continuación por los Intel Pentium II, aunque en ese caso no

en el encapsulado del procesador, sino externamente (aunque dentro del

procesador).

Imagen de un P-II, en la que se puede observar los chips de la caché L2.

En informática, una caché1 es un conjunto de datos duplicados de otros originales, con la

propiedad de que los datos originales son costosos de acceder, normalmente en tiempo,

respecto a la copia en la caché. Cuando se accede por primera vez a un dato, se hace una copia

en el caché; los accesos siguientes se realizan a dicha copia, haciendo que el tiempo de acceso

medio al dato sea menor.

Memoria caché o RAM caché

Page 13: generacion de las microcomputadoras

Un caché es un sistema especial de almacenamiento de alta velocidad. Puede ser tanto

un área reservada de la memoria principal como un dispositivo de almacenamiento de

alta velocidad independiente. Hay dos tipos de caché frecuentemente usados en las

computadoras personales: memoria caché y caché de disco. Una memoria cache,

llamada también a veces almacenamiento caché o RAM caché, es una parte de memoria

RAM estática de alta velocidad (SRAM) más que la lenta y barata RAM dinámica

(DRAM) usada como memoria principal. La memoria cache es efectiva dado que los

programas acceden una y otra vez a los mismos datos o instrucciones. Guardando esta

información en SRAM, la computadora evita acceder a la lenta DRAM.

Cuando se encuentra un dato en la caché, se dice que se ha producido un acierto, siendo

un caché juzgado por su tasa de aciertos (hit rate). Los sistemas de memoria caché usan

una tecnología conocida por caché inteligente en la cual el sistema puede reconocer

cierto tipo de datos usados frecuentemente. Las estrategias para determinar qué

información debe de ser puesta en el cache constituyen uno de los problemas más

interesantes en la ciencia de las computadoras. Algunas memorias cache están

construidas en la arquitectura de los microprocesadores. Por ejemplo, el procesador

Pentium II tiene una caché L2 de 512 Kilobytes.

La caché de disco trabaja sobre los mismos principios que la memoria caché, pero en

lugar de usar SRAM de alta velocidad, usa la convencional memoria principal. Los

datos más recientes del disco duro a los que se ha accedido (así como los sectores

adyacentes) se almacenan en un buffer de memoria. Cuando el programa necesita

acceder a datos del disco, lo primero que comprueba es la cache del disco para ver si los

datos ya están ahí. La cache de disco puede mejorar drásticamente el rendimiento de las

aplicaciones, dado que acceder a un byte de datos en RAM puede ser miles de veces

más rápido que acceder a un byte del disco duro.

QUE ES LA MEMORIA VIRTUAL.

La memoria virtual es una técnica que permite ejecutar procesos que no

caben totalmente en memoria RAM (memoria física). Esto propicia la

creación de programas que sean más grandes que la memoria física.

Además, la memoria virtual ayuda a crear un esquema de abstracción de la

memoria que la separa de la zona lógica que el usuario ve, esto facilita

enormemente la tarea a los programadores puesto que no se han de

preocupar por limitaciones de memoria.

Los procedimientos de implementación de la memoria virtual se basan en

que cuando se ejecuta un programa, éste está parcialmente en memoria, es

decir, sólo hay cargada aquella zona de código y datos que se necesitan en

ese instante de tiempo, y no el programa completo. La memoria virtual es

la separación entre la memoria lógica disponible para el usuario y la

memoria RAM, se implementa generalmente con el método de paginación

por demanda aunque también se puede implementar en un sistema con

segmentación.

En el momento en que en el sistema empieza a escasear la memoria, se

Page 14: generacion de las microcomputadoras

crea un fichero SWAP (intercambio) en el disco que sirve como ampliación

auxiliar de memoria. En el caso de Windows, cuando tenemos muchas

aplicaciones en funcionamiento y la memoria RAM se agota, el sistema se

apoya en el fichero SWAP para realizar movimientos desde el disco duro a la

RAM y viceversa. De ese modo crean espacios en memoria física para ir

ejecutando las órdenes. Esto, evidentemente, hace que el sistema vaya más

lento.

Todo ello permite simular la existencia de 4GB de RAM en el equipo, a pesar

de que nadie dispone de 4GB en su ordenador (a excepción de algunos

sistemas en empresas y universidades), y dar capacidad de ejecución a

múltiples aplicaciones por grandes que sean.

Memoria virtual De Wikipedia, la enciclopedia libre

Saltar a navegación, búsqueda

Cómo la memoria virtual se mapea a la memoria física.

La memoria virtual es una técnica de administración de la memoria real que permite al

sistema operativo brindarle al software de usuario y a sí mismo un espacio de

direcciones mayor que la memoria real o física.

La mayoría de los ordenadores tienen cuatro tipos de memoria: registros en la CPU, la

memoria caché (tanto dentro como fuera del CPU), la memoria física (generalmente en

forma de RAM, donde la CPU puede escribir y leer directa y razonablemente rápido) y

el disco duro que es mucho más lento, pero también más grande y barato.

Page 15: generacion de las microcomputadoras

Muchas aplicaciones requieren el acceso a más información (código y datos) que la que

se puede mantener en memoria física. Esto es así sobre todo cuando el sistema operativo

permite múltiples procesos y aplicaciones ejecutándose simultáneamente. Una solución

al problema de necesitar mayor cantidad de memoria de la que se posee consiste en que

las aplicaciones mantengan parte de su información en disco, moviéndola a la memoria

principal cuando sea necesario. Hay varias formas de hacer esto. Una opción es que la

aplicación misma sea responsable de decidir qué información será guardada en cada

sitio (segmentación), y de traerla y llevarla. La desventaja de esto, además de la

dificultad en el diseño e implementación del programa, es que es muy probable que los

intereses sobre la memoria de dos o varios programas generen conflictos entre sí: cada

programador podría realizar su diseño teniendo en cuenta que es el único programa

ejecutándose en el sistema. La alternativa es usar memoria virtual, donde la

combinación entre hardware especial y el sistema operativo hace uso de la memoria

principal y la secundaria para hacer parecer que el ordenador tiene mucha más memoria

principal (RAM) que la que realmente posee. Este método es invisible a los procesos.

La cantidad de memoria máxima que se puede hacer ver que hay tiene que ver con las

características del procesador. Por ejemplo, en un sistema de 32 bits, el máximo es 232

,

lo que da 4096 Megabytes (4 Gigabytes). Todo esto hace el trabajo del programador de

aplicaciones mucho más fácil, al poder ignorar completamente la necesidad de mover

datos entre los distintos espacios de memoria.

Aunque la memoria virtual podría estar implementada por el software del sistema

operativo, en la práctica casi siempre se usa una combinación de hardware y software,

dado el esfuerzo extra que implicaría para el procesador.

La memoria ROM, (acrónimo en inglés de Read-Only Memory) o memoria de sólo

lectura, es un medio de almacenamiento utilizado en ordenadores y dispositivos

electrónicos, que permite sólo la lectura de la información y no su borrado,

independientemente de la presencia o no de una fuente de energía.

Los datos almacenados en la ROM no se pueden modificar, o al menos no de manera

rápida o fácil. Se utiliza principalmente para contener el firmware (programa que está

estrechamente ligado a hardware específico, y es poco probable que requiera

actualizaciones frecuentes) u otro contenido vital para el funcionamiento del

dispositivo, como los programas que ponen en marcha el ordenador y realizan los

diagnósticos.

En su sentido más estricto, se refiere sólo a máscara ROM -en inglés, MROM- (el más

antiguo tipo de estado sólido ROM), que se fabrica con los datos almacenados de forma

permanente, y por lo tanto, su contenido no puede ser modificado de ninguna forma. Sin

embargo, las ROM más modernas, como EPROM y Flash EEPROM, efectivamente se

pueden borrar y volver a programar varias veces, aún siendo descritos como "memoria

de sólo lectura" (ROM). La razón de que se las continúe llamando así es que el proceso

de reprogramación en general es poco frecuente, relativamente lento y, a menudo, no se

permite la escritura en lugares aleatorios de la memoria. A pesar de la simplicidad de la

ROM, los dispositivos reprogramables son más flexibles y económicos, por lo cual las

antiguas máscaras ROM no se suelen encontrar en hardware producido a partir de 2007.

Page 16: generacion de las microcomputadoras

Unidad central de procesamiento De Wikipedia, la enciclopedia libre

Saltar a navegación, búsqueda

Oblea de un microprocesador Intel 80486DX2 (tamaño: 12×6,75 mm) en su empaquetado.

La unidad central de procesamiento o CPU (por el acrónimo en inglés de central

processing unit), o simplemente el procesador o microprocesador, es el componente

del computador y otros dispositivos programables, que interpreta las instrucciones

contenidas en los programas y procesa los datos. Los CPU proporcionan la

característica fundamental de la computadora digital (la programabilidad) y son uno de

los componentes necesarios encontrados en las computadoras de cualquier tiempo, junto

con el almacenamiento primario y los dispositivos de entrada/salida. Se conoce como

microprocesador el CPU que es manufacturado con circuitos integrados. Desde

mediados de los años 1970, los microprocesadores de un solo chip han reemplazado

casi totalmente todos los tipos de CPU, y hoy en día, el término "CPU" es aplicado

usualmente a todos los microprocesadores.

La expresión "unidad central de proceso" es, en términos generales, una descripción de

una cierta clase de máquinas de lógica que pueden ejecutar complejos programas de

computadora. Esta amplia definición puede fácilmente ser aplicada a muchos de los

primeros computadores que existieron mucho antes que el término "CPU" estuviera en

amplio uso. Sin embargo, el término en sí mismo y su acrónimo han estado en uso en la

industria de la informática por lo menos desde el principio de los años 1960 . La forma,

el diseño y la implementación de los CPU ha cambiado drásticamente desde los

primeros ejemplos, pero su operación fundamental ha permanecido bastante similar.

Los primeros CPU fueron diseñados a la medida como parte de una computadora más

grande, generalmente una computadora única en su especie. Sin embargo, este costoso

método de diseñar los CPU a la medida, para una aplicación particular, ha desaparecido

en gran parte y se ha sustituido por el desarrollo de clases de procesadores baratos y

estandarizados adaptados para uno o muchos propósitos. Esta tendencia de

estandarización comenzó generalmente en la era de los transistores discretos,

computadoras centrales, y microcomputadoras, y fue acelerada rápidamente con la

popularización del circuito integrado (IC), éste ha permitido que sean diseñados y

fabricados CPU más complejos en espacios pequeños (en la orden de milímetros). Tanto

Page 17: generacion de las microcomputadoras

la miniaturización como la estandarización de los CPU han aumentado la presencia de

estos dispositivos digitales en la vida moderna mucho más allá de las aplicaciones

limitadas de máquinas de computación dedicadas. Los microprocesadores modernos

aparecen en todo, desde automóviles, televisores, neveras, calculadoras, aviones, hasta

teléfonos móviles o celulares, juguetes, entre otros.

Funciones del cpu

Funciones que realiza

La Unidad central de proceso o CPU, se puede definir como:

• Un circuito microscópico que interpreta y ejecuta instrucciones.

• La CPU se ocupa del control y el proceso de datos en los ordenadores. Habitualmente,

la CPU es un microprocesador fabricado en un chip, un único trozo de silicio que

contiene millones de componentes electrónicos.

• El microprocesador de la CPU está formado por una unidad aritmético lógica que

realiza cálculos y comparaciones, y toma decisiones lógicas (determina si una

afirmación es cierta o falsa mediante las reglas del álgebra de Boole); por una serie de

registros donde se almacena información temporalmente, y por una unidad de control

que interpreta y ejecuta las instrucciones.

• Para aceptar órdenes del usuario, acceder a los datos y presentar los resultados, la CPU

se comunica a través de un conjunto de circuitos o conexiones llamado bus. El bus

conecta la CPU a los dispositivos de almacenamiento (por ejemplo, un disco duro), los

dispositivos de entrada (por ejemplo, un teclado o un ratón) y los dispositivos de salida

(por ejemplo, un monitor o una impresora).

Procesamiento de la CPU

Una CPU procesa información almacenada en los bytes de la memoria. Esta

información puede ser datos o instrucciones. Un dato es una representación binaria de

una letra, un número, o un color; mientras que una instrucción le dice a la CPU que

hacer con ese dato, es decir si sumarlo, si restarlo, moverlo, etc.

Como dijimos anteriormente, la CPU realiza tres operaciones básicas con los datos:

puede leerlos, procesarlos , y escribirlos en la memoria. Es decir que, la CPU necesita

solo cuatro elementos para realizar dichas operaciones con los datos: Las instrucciones,

un puntero a las instrucciones (Instrucción Pointer), algunos registros, y la unidad

aritmética lógica.

Page 18: generacion de las microcomputadoras

El Instrucción Pointer le indica a la CPU en que lugar de la memoria necesita ser

ubicada la instrucción.

Los Registros son lugares de almacenamiento temporario ubicados en la CPU. Un

registro contiene datos que esperan ser procesados por cualquier instrucción, o datos

que ya han sido procesados, como por ejemplo, la suma o resta de algún número, etc.

La unidad aritmética lógica es una especie de calculadora que ejecuta funciones

matemáticas y lógicas dedicadas a las instrucciones.

Por otro lado, la CPU contiene algunas partes adicionales que ayudan a dichos

componentes principales a realizar el trabajo:

Un buscador de instrucciones (fetch), que recoge las instrucciones de la RAM o un área

de memoria localizada en la CPU.

Un decodificador de instrucciones, que toma la instrucción desde el buscador y la

traslada hasta que la CPU la entienda. Luego determina cuales son los pasos necesarios

para cumplir con dicha instrucción.

La unidad de control, maneja y coordina toda las operaciones del chip. Este le permite

saber a la unidad aritmética lógica cuando debe calcular, al buscador cuando debe

grabar una cifra, y al decodificador cuando trasladar la cifra dentro de una instrucción.

Base de datos De Wikipedia, la enciclopedia libre

Saltar a navegación, búsqueda

OpenOffice.org Base: sistema de gestión de bases de datos.

Page 19: generacion de las microcomputadoras

Una base de datos o banco de datos (en ocasiones abreviada con la sigla BD o con la

abreviatura b. d.) es un conjunto de datos pertenecientes a un mismo contexto y

almacenados sistemáticamente para su posterior uso. En este sentido, una biblioteca

puede considerarse una base de datos compuesta en su mayoría por documentos y textos

impresos en papel e indexados para su consulta. En la actualidad, y debido al desarrollo

tecnológico de campos como la informática y la electrónica, la mayoría de las bases de

datos están en formato digital (electrónico), que ofrece un amplio rango de soluciones al

problema de almacenar datos.

Existen programas denominados sistemas gestores de bases de datos, abreviado SGBD,

que permiten almacenar y posteriormente acceder a los datos de forma rápida y

estructurada. Las propiedades de estos SGBD, así como su utilización y administración,

se estudian dentro del ámbito de la informática.

Las aplicaciones más usuales son para la gestión de empresas e instituciones públicas.

También son ampliamente utilizadas en entornos científicos con el objeto de almacenar

la información experimental.

Aunque las bases de datos pueden contener muchos tipos de datos, algunos de ellos se

encuentran protegidos por las leyes de varios países. Por ejemplo, en España los datos

personales se encuentran protegidos por la Ley Orgánica de Protección de Datos de

Carácter Personal (LOPD).